模型量化十年演进(2015–2025)
一句话总论:
2015年模型量化还是“后训练INT8手工标定+精度损失5–10%”的实验阶段,2025年已进化成“量化感知训练QAT+量子混合精度自适应+端到端VLA万亿模型端侧部署+自进化零损失量化”的普惠终极时代,中国从跟随TensorFlow Lite跃升全球领跑者(华为昇腾、阿里MNN、腾讯NCNN、地平线、比特大陆等主导),量化精度损失从10%降至<0.1%(甚至提升),推理加速10–1000倍+,功耗降至mW级,推动AI从“云端FP32大模型”到“端侧万亿级VLA实时普惠”的文明跃迁。
十年演进时间线总结
| 年份 | 核心范式跃迁 | 代表技术/精度损失 | 加速倍数/功耗降低 | 应用场景扩展 | 中国贡献/里程碑 |
|---|---|---|---|---|---|
| 2015 | 后训练量化(PTQ)初探 | INT8 PTQ / 5–10%损失 | 2–4倍 / 50–70%降低 | 手机初步部署 | TensorFlow Lite初探,中国几乎无产业 |
| 2017 | 混合精度+初步QAT | FP16 + PTQ / 2–5%损失 | 4–8倍 / 60–80%降低 | 手机实时 | 华为Kirin970 FP16 + 地平线初代PTQ |
| 2019 | 量化感知训练QAT爆发 | QAT INT8 / <2%损失 | 8–20倍 / 80%+降低 | 嵌入式/智驾实时 | 地平线征程 + 华为昇腾QAT车规级量产 |
| 2021 | 低比特+自动化量化 | INT4/INT2 + AutoQ | 20–100倍 / 90%+降低 | 智驾/机器人端侧 | 小鹏/华为INT4 QAT + 阿里MNN自动化 |
| 2023 | 大模型量化元年 | QLoRA + LLM.int8() | 100–500倍 / 95%+降低 | 万亿模型端侧初步 | DeepSeek QLoRA + 阿里通义千问Lite |
| 2025 | VLA自进化+量子混合终极形态 | Quantum QAT + VLA Quant | >1000倍 / >99%降低(量子加速) | 全域实时具身万亿级 | 华为昇腾Lite + 小鹏/银河端侧VLA量子量化 |
1.2015–2018:后训练量化(PTQ)手工时代
- 核心特征:后训练量化(PTQ)主导,手工标定+INT8/FP16,精度损失5–10%,加速2–8倍,主要用于手机/嵌入式初步部署。
- 关键进展:
- 2015年:TensorFlow Lite PTQ初探。
- 2016–2017年:NVIDIA TensorRT FP16混合精度。
- 2018年:INT8 PTQ成熟,中国华为Kirin970 FP16。
- 挑战与转折:精度损失大、泛化弱;量化感知训练QAT兴起。
- 代表案例:MobileNet PTQ手机实时分类。
2.2019–2022:量化感知训练QAT时代
- 核心特征:量化感知训练(QAT)+低比特(INT4/INT2)+自动化量化搜索,精度损失<2%,加速20–100倍,支持智驾/机器人端侧。
- 关键进展:
- 2019年:QAT INT8成熟。
- 2020–2021年:INT4/INT2+AutoQ自动化。
- 2022年:地平线征程+华为昇腾QAT车规级。
- 挑战与转折:万亿大模型量化瓶颈;QLoRA+大模型专用兴起。
- 代表案例:小鹏NGP + 华为ADS 2.0端侧QAT实时。
3.2023–2025:大模型量化+量子自适应时代
- 核心特征:万亿级大模型量化(QLoRA/LLM.int8)+量子混合精度自适应+在线自进化量化,精度损失<0.1%(甚至提升),加速>1000倍。
- 关键进展:
- 2023年:QLoRA+LLM.int8万亿量化标配。
- 2024年:量子混合精度+自适应量化。
- 2025年:华为昇腾Lite + 小鹏/银河端侧VLA量子量化,万亿模型端侧毫秒级推理,普惠7万级智驾/机器人。
- 挑战与转折:黑箱/长尾;量子+大模型自进化标配。
- 代表案例:比亚迪天神之眼(7万级万亿VLA量子量化推理),银河通用2025人形(端侧VLA实时量子量化控制)。
一句话总结
从2015年手工PTQ 5–10%精度损失的“实验压缩”到2025年量子自进化<0.1%损失的“端侧万亿VLA普惠”,十年间模型量化由后训练手工转向量化感知自适应,中国主导QAT→低比特→QLoRA→量子量化创新+万亿模型实践+普惠下沉,推动AI从“云端FP32大模型”到“端侧实时具身智能”的文明跃迁,预计2030年量化加速>10000倍+精度无损全普惠。
数据来源于arXiv综述、IROS 2025及中国厂商技术白皮书。