news 2026/2/10 1:58:25

收藏!一文搞懂大模型:定义、训练、行业趋势与核心挑战(程序员 初学者入门版)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
收藏!一文搞懂大模型:定义、训练、行业趋势与核心挑战(程序员 初学者入门版)

大模型是参数量达十亿级以上、基于 Transformer 架构的神经网络预训练模型,核心靠 “预训练 + 微调” 从海量数据中学习通用能力,兼具架构 / 参数 / 数据 / 算力 “四大规模”,但也面临就业、版权、伦理等多重挑战。以下是结构化解读与实操化梳理,适合快速入门与应用参考。

1、什么是大模型?

大模型,其英文表述为 Large Model,也就是大型模型,在早期还有 Foundation Model(基础模型)这一称呼。作为“人工智能预训练大模型”的简称,它包含的“预训练”是一项关键技术,这部分内容将在之后详细说明。

在日常交流里,人们说的大模型,一般指的是语言大模型(Large Language Model,简称 LLM,又称大语言模型),这是当前应用范围最广的一种。除了语言大模型,还有视觉大模型、多模态大模型等其他类别。我们把所有类别的大模型合称为广义大模型,而语言大模型则被称作狭义大模型。

从本质上来说,大模型属于神经网络模型,其特点是包含超大规模参数(通常数量达到十亿个以上)。

关于神经网络,有以下几点需要说明:

  • 神经网络是当前人工智能领域最基础的计算模型。
  • 它的工作原理是模拟大脑中神经元的连接方式,从输入的数据中学习,并生成有用的输出。
  • 全连接神经网络是神经网络的一种类型,结构上包含1个输入层、N个隐藏层和1个输出层,且每层神经元与下一层的所有神经元都存在连接。
  • 常见的卷积神经网络(CNN)、循环神经网络(RNN)、长短时记忆网络(LSTM)以及transformer架构,都属于神经网络模型。

目前,业界的大部分大模型都采用了transformer架构。

大模型的“大”,并非仅体现在参数规模这一方面,还包括架构规模等其他维度。具体如下:

  • 架构规模大:以OpenAI公司的GPT-4为例,其隐藏层数量多达120层,且每层包含14336个神经元,整体架构规模庞大,拥有数量众多的神经元节点。
  • 参数规模与神经元节点数关联紧密:大模型的参数数量和神经元节点数存在密切联系,通常情况下,神经元节点数越多,对应的参数也就越多。像GPT-4,其参数数量大约为1.76万亿。

其次,训练数据规模庞大

以 GPT-4 为例,其训练数据总量高达 13 万亿 tokens。按单本英文书籍 1MB 计算,这一数据规模相当于 4500 万本英文书籍,堪称海量。

如此庞大的训练数据,为大模型的学习和泛化能力提供了坚实基础。

最后,算力需求极大

训练大模型需要大量的 GPU 算卡资源,且每次训练耗时极长。

公开数据显示,GPT-4 使用 1 万至 2 万张 A100 GPU 集群进行训练,训练周期约 90-100 天,总能耗成本约 6300 万美元。

由此可见,训练大模型不仅需要强大的硬件支持,还需要耗费巨大的资金和能源。

综上所述,大模型堪称一个虚拟的庞然大物,具有架构复杂、参数庞大、依赖海量数据以及高算力需求等特点,其研发和训练成本极高。

与之相对的是小模型:

  • 小模型参数较少(百万级以下)、层数较浅;

  • 具有轻量级、高效率、易于部署等优点;

  • 适用于数据量较小、计算资源有限的垂直领域场景,能够快速响应需求。

大模型是如何训练出来的?

接下来,让我们一同了解大模型的训练过程。大模型具备强大的学习能力,它能从海量数据中汲取“知识”,并运用这些知识完成回答问题、内容创作等任务。其中,汲取知识的过程叫训练,运用知识的过程叫推理。而训练又包含两个关键环节,即预训练(Pre-trained)和微调(Fine tuning)。

● 预训练

预训练大模型时,需先选定框架,如常用的 transformer。接着,向模型“投喂”海量数据,助其习得通用特征表示。那大模型为何学习能力如此强大,且参数越多学习力越强呢?这可通过麻省理工公开课里的一张图(下图)来理解,这张图是深度学习模型中单个神经元的结构。

神经元的处理本质上是函数计算,在相关算式里,x 代表输入,y 代表输出,而预训练的关键在于通过给定的 x 和 y 来求解算式中的“权重(weights)”W。权重在模型中起着决定性作用,它掌控着输入特征对模型输出的影响程度。模型通过反复训练来不断调整和确定权重,这便是训练的核心意义所在。

权重是模型参数的主要类别之一,除此之外,偏置(biases)也至关重要。权重决定了输入信号对神经元的影响力度,偏置则可看作神经元的“容忍度”,体现着神经元对输入信号的敏感程度。简单来讲,预训练过程就是依据数据的输入和输出,反复“推算”出最为合理的权重和偏置,也就是模型的参数。训练完成后,这些参数会被妥善保存,以备模型后续使用或部署。

通常情况下,参数数量越多,模型就越有能力学习到更为复杂的模式和特征,进而在各类任务中展现出更卓越的性能。我们常说大模型具备两种显著的特征能力,即涌现能力和泛化能力。

当模型的训练数据和参数规模不断扩大,直至达到特定的临界规模后,便会展现出一些事先难以预测的、更为复杂的能力和特性。此时,模型能够从原始训练数据中自动学习并挖掘出新的、更高层次的特征和模式,这种能力被称作“涌现能力”。拥有涌现能力的大模型,仿佛脑子突然“开窍”,不再局限于复述知识,而是能够深入理解知识,并具备发散思维的能力。

泛化能力则是指大模型通过“投喂”海量数据,学习到复杂的模式和特征后,能够对从未见过的数据做出准确预测。打个比方,就像董宇辉读书众多,即便有些书未曾读过,他也能凭借深厚的积累和灵活的思维,侃侃而谈。

然而,参数规模的不断增大,在提升大模型能力的同时,也会带来一系列问题。一方面,会导致资源消耗大幅增加;另一方面,还可能提高“过拟合”的风险。过拟合是指模型对训练数据的学习过于精细,以至于捕捉到了训练数据中的噪声和细微的无关信息,而未能把握数据的总体趋势和规律。这就好比大模型变成了“书呆子”,只知道死记硬背,却无法融会贯通、灵活运用。

接下来,我们再谈谈预训练所使用的数据。预训练采用的是海量的未标注数据,规模可达几十 TB。之所以选择未标注数据,是因为互联网上此类数据极为丰富,获取相对容易。而标注数据基本依赖人工标注,需要耗费大量的时间和金钱,成本高昂。

预训练模型能够借助无监督学习方法,如自编码器、生成对抗网络、掩码语言建模、对比学习等(这些方法大家可另行深入了解),从未标注数据中学习到数据的通用特征和表示。不过,这些数据并非随意从网上下载而来,而是需要经过严格的收集、清洗、脱敏和分类等处理流程。通过这些处理,可以去除异常数据和错误数据,删除隐私信息,使数据更加标准化,从而为后续的训练过程奠定良好基础。

至于获取数据的方式,则多种多样。对于个人和学术研究而言,可以通过官方论坛、开源数据库或者研究机构等渠道获取数据;对于企业来说,既可以自行收集和处理数据,也可以直接从外部渠道购买,市场上有专门的数据提供商可满足企业的数据需求。

● 微调

经过预训练学习,我们获得了一个通用大模型。不过,这种模型通常不能直接投入使用,在处理特定任务时,其表现往往不尽如人意。

此时,就需要对模型进行微调。微调是给大模型提供特定领域的标注数据集,对预训练的模型参数进行细微调整,使模型能更好地完成特定任务。经过微调的大模型可称为行业大模型,比如基于金融证券数据集微调,就能得到金融证券大模型。若再基于更细分的专业领域微调,便是专业大模型,也叫垂直大模型。我们不妨把通用大模型想象成中小学生,行业大模型如同大学本科生,专业大模型则似研究生。

在微调阶段,由于所需数据量远小于预训练阶段,对算力的需求也就大幅降低。值得注意的是,对于多数大模型厂商而言,一般只专注于预训练,而不进行微调;而行业客户通常只做微调,不开展预训练。这种“预训练 + 微调”的分阶段训练方式,能有效避免重复投入,节省大量计算资源,显著提升大模型的训练效率和效果。

预训练和微调都完成后,还需对大模型进行评估。通过采用实际数据或模拟场景进行评估验证,确认大模型的性能、稳定性和准确性等是否达到设计要求。

当评估和验证顺利通过,大模型基本就打造完成了。接下来,便可以部署这个大模型,让它投身于推理任务。此时的大模型已然“定型”,参数不再改变,真正具备了“干活”的能力。

大模型的推理过程,就是我们使用它的过程。我们可以通过提问、提供提示词(Prompt)等方式,让大模型回答我们的问题,或者按照要求生成相应的内容。

再来一张完整的流程图:

2、大模型究竟有什么作用?

依据训练的数据类型和应用方向,大模型通常可划分为以下几类:

语言大模型:以文本数据为训练基础,在自然语言处理(NLP)领域表现出色,具备理解、生成和处理人类语言的能力,广泛应用于诸多场景。

  • 在文本内容创作方面,能生成文章、诗歌、代码等;

  • 在文献分析中,可深入剖析资料;

  • 能进行摘要汇总,提炼关键信息;

  • 在机器翻译领域,能实现不同语言间的准确转换。

  • 大家熟知的 ChatGPT 就属于语言大模型。

音频大模型:以音频数据训练,可识别和生产语音内容。

  • 在语音助手、语音客服场景中,能与用户流畅交流;

  • 在智能家居语音控制方面,让用户通过语音指令轻松操控设备。

视觉大模型:以图像数据训练,擅长计算机视觉(CV)领域,能够识别图像中的物体、场景等信息,还能生成逼真的图像,甚至对受损图像进行修复。

  • 在安防监控中,可实时监测异常情况;

  • 在自动驾驶领域,助力车辆识别路况;

  • 在医学和天文图像分析方面,也能发挥重要作用。

多模态大模型:融合了 NLP 和 CV 的能力,能整合并处理文本、图像、音频和视频等不同模态的信息,处理跨领域任务,如文生图、文生视频、跨媒体搜索等。

今年以来,多模态大模型发展迅猛,成为行业焦点。

若按应用场景分类,大模型类别更为丰富,涵盖金融、医疗、法律、教育、代码、能源、政务、通信等众多领域。

  • 以金融大模型为例,它可用于风险管理、信用评估、交易监控、市场预测、合同审查以及客户服务等,在金融行业发挥着多方面的作用。

3、大模型的发展趋势?

当下,中国 10 亿参数规模以上的大模型数量已突破 100 个,呈现 “百模大战” 的热闹景象。这些大模型在应用领域和参数规模上各有千秋,但背后都需要巨额资金投入。

据行业估测,训练一个大模型的成本可能从几百万美元到上亿美元不等。在如此高昂的成本下,众多企业纷纷推出大模型,其中不乏资源浪费之嫌。

大模型有开源和闭源之分:

  • 有能力打造闭源大模型的企业在行业内并不多见;

  • 大部分大模型基于开源框架和技术构建,这在一定程度上是为了迎合资本市场,或是跟风蹭热度。

尽管如此,行业内仍有部分头部企业执着于追求参数规模更大的超大模型,这类模型参数可达数万亿甚至数千万亿个。例如 OpenAI、xAI 等企业,马斯克曾在 X 平台宣布,xAI 团队成功启动了全球最强大的 AI 训练集群,该集群由 10 万块 H100 组成,主要用于 Grok 2 和 Grok 3 的训练与开发。

对于大多数企业而言,拥有万卡规模和万亿参数的大模型已接近发展天花板,继续加大投入的意愿不强,资金实力也不允许。

随着行业逐渐回归理性,企业的关注焦点正从 “打造大模型” 转向 “使用大模型”。如何将大模型应用于实际场景、吸引更多用户、创造商业价值,成为各大厂商的核心任务。

大模型要落地应用,就需实现能力 “入” 端,即下沉到终端设备。因此,AI 手机、AI PC、具身智能等概念愈发火热,成为新的发展热点。

以 AI 手机为例:

  • 高通、联发科等芯片厂商纷纷推出具备更强 AI 算力的手机芯片;

  • OPPO、vivo 等手机厂商在手机中内置大模型,并推出众多原生 AI 应用;

  • 第三方 AI 应用如雨后春笋般涌现,截至目前,具有 AI 功能的 APP 数量已超 300 万款;

  • 2024 年 6 月,AIGC 类 APP 的月活跃用户规模达 6170 万,同比增长 653%。

大模型入端还催生了轻量化趋势。由于终端设备资源有限,大模型需通过剪枝、量化、蒸馏等技术进行优化,在保持性能的同时降低对计算资源的需求,从而更好地适配终端设备,为用户带来更流畅、便捷的 AI 体验。

4、大模型会带来哪些挑战?

大模型无疑是科技领域的一项重大突破,它能帮我们处理诸多事务,节省时间、提升效率,在生活与工作中发挥着积极作用。然而,大模型也是一把双刃剑,在带来便利的同时,也引发了一系列新挑战。

其一,冲击就业市场。AI浪潮下,大模型凭借强大的能力,会取代部分人类工作岗位,导致失业率上升。一些重复性、规律性强的工作,很可能首当其冲,让不少从业者面临失业风险。

其二,引发版权纠纷。大模型依赖已有数据进行学习,在文本、图像、音乐和视频创作等领域,其生成内容的版权和知识产权归属难以界定。它虽助力创作,但“引用”人类创作者作品的行为界限模糊,长此以往,可能挫伤人类原生创作的积极性。

其三,造成算法偏见与不公平。训练数据中的偏差会被大模型学习吸收,进而在预测和生成内容时表现出不公平。比如,可能无意中强化性别、种族和宗教等方面的刻板印象和偏见,甚至被别有用心者用于政治宣传和操纵,影响选举和公共舆论走向。

其四,存在被用于犯罪的风险。大模型能生成逼真的各类内容,这为诈骗、诽谤、虚假信息传播等恶意行为提供了便利,给社会安全带来严重威胁。

其五,带来能耗难题。大模型的训练和推理需要海量计算资源,这不仅增加了企业成本,还产生了巨大的碳排放。部分企业为迎合市场或盲目跟风,无节制地进行大模型训练,造成资源浪费和不必要的碳排放。

总之,大模型在伦理、法律、社会和经济层面带来的威胁和挑战不容小觑,我们需要投入更多时间和精力去探索应对之策,以实现科技与社会的和谐发展。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》下方扫码获取~

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

以上资料如何领取?

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

以上全套大模型资料如何领取?

所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》下方扫码获取~

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

以上资料如何领取?

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

以上全套大模型资料如何领取?

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/10 1:28:15

YOLOv8目标检测精度提升技巧:数据增强策略应用

YOLOv8目标检测精度提升技巧:数据增强策略应用 在智能安防摄像头误报频发、工业质检漏检率居高不下的现实挑战中,一个共性问题逐渐浮现:模型见过的“世界”太单一了。当训练图像全部来自正午阳光下的标准视角,如何期待它能在黄昏雨…

作者头像 李华
网站建设 2026/2/9 7:00:40

2026年大模型发展全景图:从算力基础设施到终端AI应用,程序员必看指南

文章展望了2026年AI发展的十大趋势,包括中国自主算力崛起、大模型扩展、开源模型落地、终端AI体验、编程AI突破、训练数据转变、科学智能加速、企业智能体普及、AI与电力融合,以及社会信任考验。这些趋势将重塑AI生态,从基础设施到应用层面全…

作者头像 李华
网站建设 2026/2/9 23:26:18

【.NET通信优化必修课】:基于拦截器的性能监控与故障预判方案

第一章:.NET通信拦截器的核心价值与架构定位.NET通信拦截器在现代分布式系统中扮演着关键角色,它不仅能够透明地监控、修改或增强应用程序的通信行为,还为安全控制、日志记录、性能监控和协议适配提供了统一的入口点。通过在通信管道中注入自…

作者头像 李华
网站建设 2026/2/9 23:46:43

【C++高性能编程核心】:元编程中不可不知的3种代码压缩黑科技

第一章:C元编程与代码压缩的演进之路C元编程作为提升程序灵活性与性能的核心技术,自模板机制引入以来持续推动着编译期计算的发展。通过在编译阶段完成逻辑推导与代码生成,元编程显著减少了运行时开销,并为泛型库的设计提供了坚实…

作者头像 李华
网站建设 2026/2/7 23:04:57

YOLOv8与TensorRT集成:实现极致推理加速

YOLOv8与TensorRT集成:实现极致推理加速 在智能交通摄像头需要每秒处理上百帧视频流的今天,一个目标检测模型哪怕只慢上几毫秒,都可能导致关键目标漏检。这种对实时性的严苛要求,正推动着AI部署从“能跑就行”向“极致优化”演进。…

作者头像 李华
网站建设 2026/2/9 20:45:39

如何通过SSH连接YOLOv8开发环境并运行Jupyter Notebook

如何通过SSH连接YOLOv8开发环境并运行Jupyter Notebook 在深度学习项目日益复杂、数据规模持续增长的今天,本地机器常常难以承载模型训练所需的算力。尤其在目标检测领域,像 YOLOv8 这样的高性能模型虽然推理速度快、部署灵活,但其训练过程对…

作者头像 李华