news 2026/5/8 12:41:54

大模型训练必看:SFT到RL的完美切换时机,收藏这篇就够了!!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大模型训练必看:SFT到RL的完美切换时机,收藏这篇就够了!!

简介

文章解析了大模型训练中从SFT到RL的转换时机与分工。SFT负责"教规矩",RL负责"优选"。当SFT充分但性能瓶颈、有明显提升空间或出现过拟合时,应切换到RL。RL能解决负反馈纠偏、无标准答案任务及追求卓越性能的需求。行业主流实践为冷启动SFT后进行强化学习,再通过循环迭代持续优化。

在 LLM 的后训练流水线中,从 SFT 切换到 RL 并不是一个拍脑袋的决定,而是有明确的性能信号和任务目标作为依据。

简单来说:SFT 负责“教规矩”(学套路),RL 负责“优选”(比好坏)。

一、什么时候停止 SFT?(进入 RL 的信号)

当你观察到以下情况时,我这里分为两种情况,说明 SFT 的边际效应已经递减,RL 能够带来特定场景下的效果提升,可以准备进入强化学习阶段:

一是 SFT 训练是否充分

格式和能力已“对齐”,证明 SFT 已经相对充分: 模型已经能够稳定地遵循指令(比如:能按 JSON 格式输出,能识别中文指令,不会答非所问)。

SFT 的核心作用是初始化(Warm-up),如果模型还经常复读、格式混乱,说明 SFT 还没做够。

性能遇到瓶颈:模型效果已经有相对较大的提升,比如快到 sota 效果,再继续训练时,SFT 的 loss 降到低位且不再波动,但效果提升不明显,证明 SFT 效果已经到了天花板附近。

SFT 本质上是在模仿训练数据,它能让模型达到数据集中“平均专家”的水平,但很难超越数据集。

二是 RL 相对 SFT 是否有充裕的提升空间

SFT 后距离理论上限还有明显的提升空间:pass@k 明显高于 pass@1,证明模型在回答多次时,通过测试的概率要明显大于回答一次。

可以通过将模型多次生成的数据作为 RL 的正例,引导模型在第一次生成时,更倾向生成大概率通过测试的答案。

SFT 出现“幻觉”与过度拟合:如果继续增加 SFT 数据,模型开始机械地背诵训练集中的事实,导致在未见过的问题上泛化性变差。研究表明:SFT 容易导致记忆,而 RL 有助于泛化。

二、为什么一定要接强化学习?(RL 的应用场景)

如果你的目标符合以下特征,就必须开启 RL 阶段,以下按照从负向到正向的逻辑展开:

需要通过“负反馈”纠偏:

  • 例子:拒绝有害回答、纠正事实性错误。
  • 理由:SFT 主要学习“应该说什么”,很难教模型“不该说什么”。RL(特别是带有惩罚项的 PPO/DPO)能有效抑制模型产生有害或错误的倾向。

任务没有“唯一标准答案”:

  • 例子:“写一个有趣的故事”或“给这个方案提点建议”。
  • 理由:SFT 只能教模型模仿某一个样本,但强化学习可以通过排序(Ranking),告诉模型在 5 个生成的回答中,哪一个比另一个更幽默、更专业。

追求“卓越”而非“合格”:

  • 理由:SFT 的上限由数据集质量决定;RL 则允许模型在大量的自主探索中,通过奖励函数的引导,发现比训练集里更好的表达方式。

三、SFT 与 RL 的分工表

四、行业主流实践路径

目前最顶尖的模型通常遵循以下演进路线:

冷启动 SFT:使用几千到几万条极高质量的样本,让模型学会基本的推理格式和对话规矩。

强化学习(RL):

  • Reasoning RL:针对逻辑题,利用结果校验(如代码运行成功、数学题算对)作为奖励信号。
  • Preference RL:针对主观题,利用 Reward Model 或人类排序数据。

循环迭代:很多时候会在 RL 之后再收集一波由模型自己生成的、通过了 RL 筛选的高质量样本,回头再做一次 SFT(即反思微调/Reject Sampling Fine-tuning),形成螺旋式上升。

五、如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

第一阶段:从大模型系统设计入手,讲解大模型的主要方法;

第二阶段:在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段:大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段:大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段:大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段:以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段:以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/6 13:26:44

语音合成也能有情绪!通过参考音频迁移情感特征的技术细节

语音合成也能有情绪!通过参考音频迁移情感特征的技术细节 在虚拟主播声情并茂地讲述故事、AI助手用温柔语调安慰用户、有声书角色各具鲜明个性的今天,我们早已不再满足于“能说话”的语音系统。真正打动人心的声音,需要情绪——那种藏在语气起…

作者头像 李华
网站建设 2026/5/3 4:21:13

huggingface space部署演示版GLM-TTS在线试用

GLM-TTS 在 Hugging Face Space 上的在线部署与语音合成实践 在今天这个语音交互日益普及的时代,我们已经不再满足于“能说话”的机器,而是期待它们拥有更自然、更具个性的声音。从智能助手到有声读物,从虚拟主播到教育课件,个性化…

作者头像 李华
网站建设 2026/5/2 1:31:53

【Java毕设全套源码+文档】基于springboot的流浪天使乐园管理系统设计与实现(丰富项目+远程调试+讲解+定制)

博主介绍:✌️码农一枚 ,专注于大学生项目实战开发、讲解和毕业🚢文撰写修改等。全栈领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围:&am…

作者头像 李华
网站建设 2026/5/3 9:19:55

GLM-TTS情感语音合成教程:让机器说话更有温度

GLM-TTS情感语音合成教程:让机器说话更有温度 在虚拟主播深夜播报天气时语气温柔得像老朋友,在客服机器人解释条款时不急不躁、条理清晰,甚至在儿童故事里用不同的声线演绎角色——这些不再是高端影视制作的专属能力。如今,借助GL…

作者头像 李华
网站建设 2026/5/8 0:28:28

mathtype undo redo操作不影响GLM-TTS输入流程

MathType 的撤销与重做为何不影响 GLM-TTS 的语音合成流程? 在教育、科研和内容创作领域,越来越多的用户开始使用 AI 语音合成技术将文本自动转换为自然流畅的语音。尤其是在涉及数学公式表达的场景中,像 MathType 这类专业公式编辑器几乎成了…

作者头像 李华
网站建设 2026/5/3 5:50:13

休闲--假期归来

行李一件件塞回衣柜时,假期也被折叠进了记忆的角落。那些被拉长的白日、无目的的风、山海的味道,忽然静默下来,成为身体里一枚小小的、温润的琥珀。 假期结束,重返日常节奏,身心仍带着旅途的余温。短暂的逃离让人暂时…

作者头像 李华