news 2026/2/11 3:58:58

不用懂数学!大语言模型训练流程通俗图解→建议收藏!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
不用懂数学!大语言模型训练流程通俗图解→建议收藏!

站在大语言模型外部看需要准备些什么样的训练数据,分什么阶段,怎样去训练大语言模型,把大语言模型看成一个黑盒。

LLM都是如何训练出来的呢?

GPT的训练分为以下3个阶段:

1、预训练Pretrain

2、监督微调SFT (Supervised Fine-Tuning)

3、基于反馈的强化学习RLHF(包含了Reward Model、PPO (Proximal Policy Optimization)

一、Pretrain预训练

在这个阶段,我们不教他具体的专业技能(比如怎么写代码、怎么当医生),而是让他进行海量的广泛阅读

Pretrain的三个核心步骤:

1. 喂给它海量的书(数据输入)

研究人员把互联网上能找到的几乎所有高质量文本——百科全书、小说、新闻、代码库、论文——全部打包,喂给这个模型。

量级:这相当于让一个人读了几千万辈子的书。

2. 玩“完形填空”游戏(学习机制)

模型在读这些书时,主要在做一件事:猜下一个字是什么

  • 例子:看到“床前明月__”,模型要猜出是“光”。
  • 原理:如果猜对了,给予奖励(参数调整);如果猜错了(比如猜成了“饼”),就狠狠修正。
  • 结果:通过千亿次的猜测和修正,模型学会了语言的语法、词语的搭配,以及人类世界的逻辑和常识(比如知道“水是流动的”、“1+1=2”)。
3. 产出“基座模型”(Base Model)

预训练结束后,我们就得到了一个基座模型

  • 它的状态:它博学多才,什么都知道一点,懂中文也懂英文。
  • 它的缺点:它还很“野”,不懂礼貌,也不知道怎么听指令。如果你问它“怎么做番茄炒蛋?”,它可能会给你续写一段关于番茄的历史,而不是给你食谱。因为它只会“接着往下写”,还不会“回答问题”。

总之,Pretrain(预训练)=通过海量阅读,学会语言规律和世界知识的过程。它是大模型最昂贵、最耗时的阶段(通常需要几千张显卡跑几个月),是模型能力的地基。这个阶段的大模型说起话来非常像“接话茬”,并不是在“做任务”。

二、SFT(Supervised Fine-Tuning)有监督的微调训练

如果说Pretrain(预训练)是让模型在图书馆里泛读万卷书,成了一个博学的“书呆子”。

那么SFT(Supervised Fine-Tuning,有监督微调)就是给这个书呆子进行**“职业技能培训”,或者是找了个“金牌导师”手把手教它怎么说话**。

在这个阶段,我们的目标不再是让它“学知识”,而是让它**“懂规矩”**。

以下是 SFT 的三个核心变化:

1. 教材变了:从“无字天书”到“习题集”

在预训练阶段,我们给它看的是并没有标注重点的海量文本。而在 SFT 阶段,我们给它看的是高质量的问答对(Q&A)

人类老师(标注员)会编写成千上万个例子,告诉模型:“当用户问这个问题时,标准的回答应该是这样的。”

例子:

  • 输入:“请把这段话翻译成英文。”

  • 标准答案:“Please translate this sentence into English.”

量级:相比预训练的数据海,SFT 的数据量要小得多(通常是几万到几十万条),但质量要求极高

2. 教学方式变了:从“瞎猜”到“模仿”
  • Pretrain 时:模型看到“番茄炒蛋”,可能会接着写“是一道中国名菜,起源于……”(因为它在做文本接龙)。
  • SFT 时:老师拿着戒尺站在旁边。模型看到“番茄炒蛋怎么做?”,如果它还想背历史课文,老师会敲它一下,指着标准答案说:“不对!这时候你应该列出步骤:第一步打蛋,第二步切番茄……”
  • 效果:模型开始模仿人类说话的语气、格式和逻辑。它学会了:当人类用问句开头时,我应该提供答案,而不是接着编故事。
3. 身份变了:从“复读机”到“助手”

经过 SFT 之后,这个模型就发生了质的飞跃:

  • 听懂指令:你让它缩写文章,它就不会扩写;你让它写代码,它就不会写诗。
  • 格式规范:它学会了分点作答、使用礼貌用语。
  • ChatGPT 的诞生:GPT-3 只是一个预训练模型(书呆子),而 ChatGPT 则是经过了 SFT(以及后续步骤)后的产物(智能助手)。

小结,SFT(指令微调)= **通过高质量的问答范例,教模型如何正确地使用它学到的知识来服务人类。**它让模型从“懂语言”变成了“懂人话”。

三、RLHF(Reinforcement Learning from Human Feedback)基于人类反馈的强化学习

如果说Pretrain(预训练)造就了博学的“书呆子”,SFT(微调)把它变成了能干活的“职场新人”;

那么RLHF(Reinforcement Learning from Human Feedback,人类反馈强化学习)就是给这个新人上的**“思想品德课”“情商培训班”**。

在 SFT 阶段,模型虽然学会了回答问题,但它有个大毛病:它不知道哪个答案更好,甚至为了“回答”而撒谎或干坏事。比如你问“怎么偷东西?”,SFT 模型可能会很详细地教你(因为它觉得回答就是它的工作)。

RLHF 就是为了解决这个问题,给模型**“树立三观”**。以下是通俗易懂的两个关键环节:

1. 建立“评分老师”(训练奖励模型Reward Model)

我们不再让老师手把手写标准答案了(太累了),而是让模型针对同一个问题生成两个不同的回答,让老师来打分(或者二选一)。

场景:用户问“怎么制作炸弹?”

  • 回答 A:详细列出化学配方(虽然准确,由于危险,人类老师判0分)。

  • 回答 B:“制作炸弹是违法的,我不能帮你,但我可以介绍炸药的历史。”(虽然拒绝了,但符合安全规范,人类老师判100分)。

  • 回答 C:胡言乱语(50分)。

结果:我们训练出了一个专门的**“判卷老师”(Reward Model,奖励模型)**。这个判卷老师并不生产内容,它唯一的任务就是:判断这句话人类爱不爱听,符不符合人类的价值观。

2. 疯狂刷题拿奖励(强化学习PPO)

现在,让大模型开始大量做题,然后让刚才训练好的“判卷老师”给它打分。

机制(类似训狗):

  • 如果模型生成了一段话,判卷老师给了高分(比如态度谦逊、内容安全),系统就给模型发一个“糖果”(正向反馈),告诉它:“做得好,以后多这样说话!”

  • 如果判卷老师给了低分(比如脏话、撒谎、种族歧视),系统就给它一个“惩罚”(负向反馈),告诉它:“错了,以后这种话少说!”

进化:模型为了以此获得更多的“糖果”,会拼命调整自己的说话方式,去迎合“判卷老师”的喜好。

3. “三观”树立完成

经过 RLHF,模型不仅仅是“能说话”,它变成了符合3H 原则的模范生:

  • Helpful(有帮助):甚至能从你模糊的问题中猜到你想问什么。
  • Honest(诚实):不懂装懂的情况变少了(虽然还不能完全根除)。
  • Harmless(无害):拒绝回答违法、暴力、色情的问题,变得非常有“求生欲”。

SFT及RLHF的过程如下图所示:

普通人如何抓住AI大模型的风口?

领取方式在文末

为什么要学习大模型?

目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

最后

只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

大模型全套学习资料展示

自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!

01教学内容

  • 从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!

  • 大量真实项目案例:带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

02适学人群

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

vx扫描下方二维码即可

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!

03入门到进阶学习路线图

大模型学习路线图,整体分为5个大的阶段:

04视频和书籍PDF合集

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)

05行业报告+白皮书合集

收集70+报告与白皮书,了解行业最新动态!

0690+份面试题/经验

AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)

07 deepseek部署包+技巧大全

由于篇幅有限

只展示部分资料

并且还在持续更新中…

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/9 4:52:59

Fritzing支持下的创客教育模式:全面讲解

让电路“活”起来:用Fritzing点燃创客教育的实践之火 你有没有见过这样的场景?一个初一学生皱着眉头,手握万用表,在一堆杂乱的杜邦线中寻找哪根接错了;或者一位老师在PPT里贴了一张模糊的手绘电路图,台下学…

作者头像 李华
网站建设 2026/2/8 16:34:15

野马数据:AI如何重构大数据分析流程

快速体验 打开 InsCode(快马)平台 https://www.inscode.net输入框内输入如下内容: 创建一个基于野马数据的AI辅助分析工具,能够自动完成以下功能:1. 数据清洗与预处理(处理缺失值、异常值)2. 智能特征工程&#xff0…

作者头像 李华
网站建设 2026/2/10 19:46:49

Keil生成Bin文件在Bootloader烧录中的应用指南

Keil生成Bin文件在Bootloader烧录中的实战全解析你有没有遇到过这样的场景:辛辛苦苦写完代码,Keil编译通过,AXF文件也生成了——但当你把固件交给生产部门或准备做远程升级时,对方却说:“我们要的是.bin文件。”这时候…

作者头像 李华
网站建设 2026/2/11 1:34:02

Hunyuan-MT-7B对缩写词、专有名词的翻译策略解析

Hunyuan-MT-7B对缩写词、专有名词的翻译策略解析 在当今全球信息高速流动的时代,跨语言沟通早已不再是简单的“字面转换”。一个企业名称、技术术语或地名的微小偏差,可能引发误解甚至影响国际形象。尤其当文本中频繁出现诸如“AI”、“GDP”、“UNESCO”…

作者头像 李华
网站建设 2026/2/11 3:51:18

膝点迁移动态多目标优化算法【附代码】

✅ 博主简介:擅长数据搜集与处理、建模仿真、程序设计、仿真代码、论文写作与指导,毕业论文、期刊论文经验交流。(1) 基于膝点预测的动态环境响应机制 动态多目标优化问题(DMOP)的难点在于Pareto前沿随时间或环境变化,…

作者头像 李华
网站建设 2026/2/6 6:22:42

仅限本周开放!MCP量子计算资源配置权限申请与实操教程

第一章:MCP量子计算服务配置概述MCP(Multi-Cloud Quantum Computing Platform)量子计算服务提供了一套统一的接口,用于在多个云平台上配置和管理量子计算资源。该平台支持与主流量子硬件提供商(如IBM Quantum、Rigetti…

作者头像 李华