news 2026/5/7 23:33:54

LoRA 和 QLoRA 的核心区别

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
LoRA 和 QLoRA 的核心区别

1. LoRA 是什么?

LoRA,全称是Low-Rank Adaptation,低秩适配微调。

正常全参微调是:

模型所有参数都参与训练

比如一个 7B 模型,大约有 70 亿参数,全部训练显存压力很大。

LoRA 的做法是:

冻结原始大模型参数 只在部分线性层旁边加一小组可训练参数 训练这些新增的小参数

也就是说,原模型本体不动,只训练一个“小外挂”。

可以简单画成:

原始权重 W:冻结,不训练 输入 x → W x + LoRA新增参数部分

LoRA 微调完后,保存的不是整个模型,而是一个很小的adapter文件。

例如:

原始模型:7B,十几 GB LoRA adapter:几十 MB 到几百 MB

2. QLoRA 是什么?

QLoRA 可以理解为Quantized LoRA,也就是量化版 LoRA。

它比 LoRA 多做了一步:

先把原始模型从 FP16/BF16 压缩成 4bit 然后再做 LoRA 微调

普通 LoRA:

原模型用 FP16/BF16 加载 LoRA 参数参与训练

QLoRA:

原模型用 4bit 加载 LoRA 参数参与训练

所以 QLoRA 的最大优势是:

显存占用更低

比如同样微调 7B 模型:

微调方式原模型精度是否训练原模型显存占用效果
全参微调FP16/BF16很高上限最高
LoRAFP16/BF16中等很好
QLoRA4bit最低接近 LoRA

3. 两者最关键的区别

区别一:原模型加载精度不同

LoRA 一般这样:

原模型:FP16 / BF16 LoRA参数:FP16 / BF16

QLoRA 一般这样:

原模型:4bit量化 LoRA参数:FP16 / BF16

所以 QLoRA 更省显存。


区别二:显存需求不同

举个大概例子:

模型规模LoRA 大概显存QLoRA 大概显存
7B16GB 左右6GB–10GB 左右
13B/14B32GB 左右12GB–18GB 左右
30B/32B60GB+24GB–32GB 左右
65B/70B120GB+48GB–80GB 左右

实际显存还和这些因素有关:

batch size sequence length gradient checkpointing optimizer 是否多卡 是否使用 flash attention

区别三:训练速度和稳定性不同

一般来说:

LoRA:更稳定,训练速度可能更快,效果略好 QLoRA:更省显存,但训练和推理时有量化/反量化开销

如果你的显存够,优先 LoRA。

如果你的显存不够,就用 QLoRA。


4. 效果

通常情况下:

全参微调 > LoRA ≈ QLoRA

但在很多实际任务中,LoRA 和 QLoRA 的效果差距不大。

特别是你做这些任务时:

领域问答 格式转换 标准文件解析 企业年报文本分析 代码风格学习 指令遵循增强

QLoRA 完全够用。


5.部署

如何部署:

服务器情况推荐
单卡 8GBQLoRA,小模型
单卡 12GBQLoRA,3B/7B 级别
单卡 16GBQLoRA 为主,LoRA 可尝试小模型
单卡 24GB,例如 RTX 3090/4090QLoRA 微调 7B/14B,LoRA 微调 7B
单卡 48GBLoRA 7B/14B,QLoRA 32B
A100 80GBLoRA 32B,QLoRA 70B
多卡服务器可以考虑 LoRA 大模型或全参微调

如果你是常见的RTX 3090/4090 24GB,推荐:

Qwen2.5-7B-Instruct + QLoRA Qwen3-4B/8B + QLoRA Llama-3.1-8B-Instruct + QLoRA
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/7 23:33:21

XLSX I/O:5个高效技巧掌握C语言Excel文件读写库

XLSX I/O:5个高效技巧掌握C语言Excel文件读写库 【免费下载链接】xlsxio XLSX I/O - C library for reading and writing .xlsx files 项目地址: https://gitcode.com/gh_mirrors/xl/xlsxio XLSX I/O是一个专为C语言开发者设计的跨平台库,让你能够…

作者头像 李华
网站建设 2026/5/7 23:30:06

大模型学习指南:小白也能轻松掌握核心技术(收藏版)

传统AI学习路径在大模型时代面临知识爆炸、硬件门槛和应用分化三大挑战。本文提供"3阶9步"学习框架,帮助开发者低成本掌握大模型核心技术。框架包括认知构建(技术坐标系、实验沙盒、核心概念)、技术纵深(逆向学习法、工…

作者头像 李华
网站建设 2026/5/7 23:30:06

初创公司如何利用 Taotoken 实现低成本多模型产品验证

初创公司如何利用 Taotoken 实现低成本多模型产品验证 在产品原型阶段,初创团队常常面临一个核心矛盾:一方面需要快速尝试不同大模型的能力,以找到最适合产品调性的技术方案;另一方面,预算有限且技术资源紧张&#xf…

作者头像 李华
网站建设 2026/5/7 23:29:38

代理利用剖析 The Anatomy of an Agent Harness —— langchain

The Anatomy of an Agent Harness 代理利用剖析 https://www.langchain.com/blog/the-anatomy-of-an-agent-harness TLDR: Agent Model Harness. Harness engineering is how we build systems around models to turn them into work engines. The model contains the in…

作者头像 李华
网站建设 2026/5/7 23:29:37

阿里淘天/京东 codeTop LeetCode103.二叉树的锯齿形层序遍历

1.思路:要求二叉树的层序遍历的打印顺序交替变化。考虑层序遍历 双端队列。 利用双端队列的两端皆可添加元素的特性,设打印列表(双端队列)tmp,并规定:(1)偶数层(第0层也…

作者头像 李华