news 2026/5/12 17:44:04

常见的微调的方式有哪些?(Lora...)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
常见的微调的方式有哪些?(Lora...)

1.LoRA(Low-Rank Adaptation)

核心思想: 不修改原始权重,旁路添加低秩矩阵

┌─────────────────────────────────┐
│ 原始Linear层 (W: 4096×4096) │
│ ❄️ 冻结不训练 │
│ ↓ x │
│ W·x (输出) │
└─────────────────────────────────┘
+ (相加)
┌─────────────────────────────────┐
│ LoRA旁路 │
│ x → A(8×4096) → B(4096×8) │
│ 🔥 只训练这两个矩阵 │
│ ↓ │
│ B·A·x (输出) │
└─────────────────────────────────┘

2.Prompt Tuning

核心思想: 在输入序列前添加可学习的"软提示词"

原始输入:
[The, movie, is, great] → Encoder → 输出

Prompt Tuning:
[P1, P2, P3, ..., Pk, The, movie, is, great] → Encoder → 输出
↑____________↑
可学习的soft prompts
(只训练这些)

具体做法:

  • 模型权重全部冻结
  • 只在输入前添加 k 个可学习的embedding向量 (比如20个)
  • 只训练这20个向量
  • 参数量: 极少 (20 × 768维 ≈ 15K参数)

输入层:
┌──────────────────────────────────────┐
│ [🔥P₁] [🔥P₂] [🔥P₃] ... [🔥Pₖ] │ ← 可训练的prompt embeddings
│ [❄️The] [❄️movie] [❄️is] [❄️great] │ ← 真实输入(正常处理)
└──────────────────────────────────────┘

❄️ Transformer层 (冻结)

输出

3.Adapter

核心思想: 在Transformer层之间插入小型瓶颈网络

原始Transformer块: Input → Self-Attention → Add&Norm → FFN → Add&Norm → Output 加入Adapter后: Input → Self-Attention → Add&Norm → [🔥Adapter] → FFN → Add&Norm → [🔥Adapter] → Output ↑ ↑ 新插入的模块 新插入的模块

具体做法:

  • Transformer层冻结
  • 在每层后插入Adapter模块
  • 只训练Adapter参数
  • 参数量: 1-3% (取决于bottleneck大小)

4.IA3(Infused Adapter by Inhibiting and Amplifying Inner Activations)【基本不用】

核心思想: 用可学习的缩放向量调整激活值

原始: h = W·x IA3: h = (W · diag(l)) · x = W · (l ⊙ x) ↑ ↑ 可学习的缩放向量 逐元素相乘

具体做法:

  • 权重矩阵W冻结
  • 只学习一个缩放向量l(长度等于输入维度)
  • 将输入x逐元素乘以l,然后再乘以W
  • 参数量: 极少 (每层只有一个向量, 比如768个参数)

可视化:

对于 K、V、FFN 的投影: 输入 x (768维) ↓ x ⊙ l_k (逐元素相乘) ← 🔥 l_k是768维可训练向量 ↓ ❄️ W_k · (缩放后的x) ← W_k冻结 ↓ 输出

5.Full FT(Full Fine-Tuning / 全量微调)

核心思想: 所有参数都训练

预训练模型的所有参数 → 🔥全部解冻 → 在下游任务上训练

具体做法:

  • 加载预训练权重
  • 所有层的所有参数都设为可训练
  • 在目标数据集上重新训练
  • 参数量: 100%

6.固定Encoder(Feature Extraction)

核心思想: 把预训练模型当特征提取器,只训练新加的分类头

输入 → ❄️Encoder(冻结) → 特征 → 🔥分类头(新建+训练) → 输出

具体做法:

  • Encoder所有层冻结
  • 去掉原来的输出层,加一个新的(比如线性层)
  • 只训练这个新的分类头
  • 参数量: <1% (只有分类头)

https://mp.weixin.qq.com/s/aAIuZ8LH3flnxNLtlP6d0w

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/9 12:23:32

资产总“失踪”?这套智能管理系统让企业告别“寻物启事”时代

一、企业资产管理困局&#xff1a;那些 “消失的资产” 正在吞噬利润在企业运营的复杂棋局中&#xff0c;资产管理是至关重要的一环&#xff0c;却也是不少企业头疼的难题。从办公桌上的纸笔&#xff0c;到生产线上的大型设备&#xff0c;每一项资产都是企业运转的螺丝钉&#…

作者头像 李华
网站建设 2026/5/10 18:11:18

实体侦测模型调参指南:云端Jupyter免安装,实时可视化

实体侦测模型调参指南&#xff1a;云端Jupyter免安装&#xff0c;实时可视化 引言 作为一名算法工程师&#xff0c;你是否经常遇到这样的困扰&#xff1a;在本地用Jupyter Notebook跑实体侦测模型时&#xff0c;全量数据训练要花费6小时以上&#xff0c;调参过程像"盲人…

作者头像 李华
网站建设 2026/5/10 3:44:29

中文情感分析API开发:StructBERT REST接口实战

中文情感分析API开发&#xff1a;StructBERT REST接口实战 1. 背景与需求&#xff1a;为什么需要中文情感分析&#xff1f; 在当今信息爆炸的时代&#xff0c;用户生成内容&#xff08;UGC&#xff09;如评论、弹幕、社交媒体帖子等呈指数级增长。对于企业而言&#xff0c;如…

作者头像 李华
网站建设 2026/5/12 12:27:28

智能实体分析避坑指南:环境配置/数据准备/模型选择

智能实体分析避坑指南&#xff1a;环境配置/数据准备/模型选择 引言&#xff1a;为什么你的行为分析项目总在数据阶段翻车&#xff1f; 刚接触行为分析项目的开发者常会遇到这样的场景&#xff1a;好不容易收集了数据&#xff0c;代码却报出"维度不匹配"的错误&…

作者头像 李华
网站建设 2026/5/9 17:39:11

StructBERT情感分析API开发:RESTful接口实战

StructBERT情感分析API开发&#xff1a;RESTful接口实战 1. 引言&#xff1a;中文情感分析的现实需求与技术挑战 在当今数字化时代&#xff0c;用户生成内容&#xff08;UGC&#xff09;如评论、弹幕、社交媒体帖子等呈爆炸式增长。如何从海量中文文本中自动识别情绪倾向&…

作者头像 李华
网站建设 2026/5/9 6:39:40

中文情感分析API实战:StructBERT教程

中文情感分析API实战&#xff1a;StructBERT教程 1. 引言&#xff1a;中文情感分析的应用价值 在当今数字化时代&#xff0c;用户生成内容&#xff08;UGC&#xff09;如评论、弹幕、社交媒体发言等呈爆炸式增长。如何从海量中文文本中快速识别公众情绪倾向&#xff0c;已成为…

作者头像 李华