news 2026/4/18 23:36:16

AI核心知识50——大语言模型之Scaling Laws(简洁且通俗易懂版)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
AI核心知识50——大语言模型之Scaling Laws(简洁且通俗易懂版)

Scaling Laws (缩放定律)是目前 AI 领域的“摩尔定律”,也是 OpenAI 等巨头公司敢于投入几百亿美元去训练下一个模型的“信仰之源”

简单来说,它揭示了一个通过大量实验得出的数学规律

只要你按比例增加“模型参数量”、“训练数据量”和“计算算力”,AI 的智力(性能)就会呈现出可预测的、持续的增长。

这听起来像是一句废话(“大力出奇迹”),但在工程上,它的意义在于“可预测性”


1. 🧪 核心三要素:AI 的“成长配方”

缩放定律告诉我们,AI 的性能(Loss,即错误率)主要取决于三个变量:

  1. N (Number of Parameters - 参数量)

    • 模型的“脑容量”

    • 比如 GPT-3 是 1750 亿参数,GPT-4 则是万亿级别。

  2. D (Dataset Size - 数据量)

    • 模型阅读的“书籍数量”(Token 数)。

    • 比如 Llama 3 看了 15 万亿个 Token。

  3. C (Compute - 计算量)

    • 训练模型消耗的“努力程度”(GPU 运行的时间 x 数量)。

Scaling Laws 的结论是:这三个变量之间存在精确的幂律关系(Power Law)。


2. 🔮 为什么说它是“算命水晶球”?

在 Scaling Laws 被发现之前(2020年 OpenAI 发表论文),训练 AI 像是在赌博。你不知道把模型做大 10 倍,它会不会变聪明,还是会变笨。

有了 Scaling Laws 之后,炼丹变成了工程:

  • 预测未来:科学家可以在一个小模型上做实验,画出一条曲线。然后指着曲线说:“如果我们投入 100 倍的钱,把模型做大 100 倍,它的智商(Loss)会精确地降低到 X。”

  • 降低风险:这意味着公司在砸下1 亿美元训练 GPT-4 之前,就已经确信它一定会比 GPT-3 强,而且强多少都能算出来。

这就是为什么 OpenAI、Google、Meta 敢于开展这场**“军备竞赛”**。他们相信:只要我堆更多的卡,喂更多的数据,AI 就一定会变强,还没看到天花板。


3. 🐹 著名的修正:Chinchilla 定律

早期的 Scaling Laws(Kaplan 定律)认为:参数量 (N)最重要。所以大家都拼命把模型做大,哪怕数据量不够。

后来,DeepMind 在 2022 年发表了著名的Chinchilla(南美栗鼠)论文,修正了这个观点:

“你们把模型做太大了!数据量没跟上!模型是虚胖!”

Chinchilla 定律指出:参数量和数据量必须“同步增长”才最划算。

  • 最佳比例:大约是20 个 Token 对应 1 个参数

  • 影响:这直接导致了Llama 3的诞生——它的参数量不算特别大(8B/70B),但它“吃”了极其恐怖的数据量(15T),所以它比很多旧的大模型都要聪明。


4. 🧱 缩放定律的尽头:撞墙了吗?

虽然 Scaling Laws 现在还在起作用,但科学家们开始担忧两个“墙”

  1. 数据墙 (Data Wall)

    • Scaling Laws 要求数据量指数级增长。但互联网上的高质量文本快被吃光了。(这也是为什么我们要搞合成数据)。

  2. 算力/能源墙 (Power Wall)

    • 如果要训练 GPT-5、GPT-6,需要的电力可能相当于一个中等国家的用电量。


总结

Scaling Laws 是 AI 时代的“黄金法则”。

它告诉我们:“大力(算力+数据+参数)真的能出奇迹(智能)。”只要这个定律不失效,AI 的进化速度就不会停止。我们现在看到的 GPT-4,在 Scaling Laws 的曲线上,可能还只是个开始。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 14:47:04

MySQL 深分页查询优化实践与经验总结

在企业级项目中,深分页查询经常会成为性能瓶颈。本篇文章总结了我在实践中优化深分页 SQL 的经验,包括 执行计划分析、索引优化、游标分页改写 等内容。一、问题场景假设我们有一张订单表 orders,包含字段:id, user_id, status, t…

作者头像 李华
网站建设 2026/4/17 8:52:13

力扣 500 和为 K 的子数组

Problem: 560.和为 K 的子数组思路 前缀和 小技巧解题过程 题目大意可以理解为,让找一个数组中的连续非空子数组的和为k的数量。这里可以使用前缀和数组suf[]来快速找到符合条件的子数组头和尾。因为一个子数组(i,j)的大小为suf[j] - suf[i-1],因此我们…

作者头像 李华
网站建设 2026/4/18 17:53:05

PIL库将图片位深度是1、8、32统一转换为24的方法

深度学习中通常遇到各种各样的图片,位深度有的时候各不相同,容易影响训练测试,因此为了避免麻烦,一般将图片统一为位深度是24 通用转换方法 from PIL import Imagedef convert_to_24bit(input_path, output_path):""&qu…

作者头像 李华
网站建设 2026/4/16 16:56:44

【UI Qt】入门笔记

目录 1、Qt 主要版本发展历程 2、各版本详细对比表 3、底层库对比 4、Qt基类 5、举例 6、QApplication与窗口关联 1、Qt 主要版本发展历程 版本 发布年份 主要特点 当前状态 Qt 1 1995 第一个公开版本,仅支持 Unix/X11 已淘汰 Qt 2 1999 引入信号槽…

作者头像 李华