news 2026/4/28 8:38:24

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 残差连接(Residual Connection)详解以及算法实现

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 残差连接(Residual Connection)详解以及算法实现

锋哥原创的Transformer 大语言模型(LLM)基石视频教程:

https://www.bilibili.com/video/BV1X92pBqEhV

课程介绍

本课程主要讲解Transformer简介,Transformer架构介绍,Transformer架构详解,包括输入层,位置编码,多头注意力机制,前馈神经网络,编码器层,解码器层,输出层,以及Transformer Pytorch2内置实现,Transformer基于PyTorch2手写实现等知识。

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 残差连接(Residual Connection)详解以及算法实现

在深层网络中,随着网络深度的增加,梯度在反向传播时容易消失或爆炸,导致网络难以训练。为了解决这个问题,Transformer采用了残差连接,即将每一层的输入与该层的输出进行相加,而不是直接使用该层的输出。

形式:

这种连接方式保证了在网络初期,若子层变换的结果接近于零,则输出与输入相同,从而缓解了深度神经网络中梯度消失的问题。

优点:

  1. 恒等映射:使得网络能容易地学习到恒等映射,即如果某一层的变换没有效果,模型可以跳过该层。

  2. 梯度流畅:在反向传播时,梯度可以通过残差连接直接传递,避免了梯度消失的问题。

代码实现:

# 实现残差连接 class ResidualConnection(nn.Module): def __init__(self, d_model, dropout=0.1): # d_model 词嵌入维度 512 dropout 随机丢失率 super().__init__() self.norm = LayerNorm(features=d_model) self.dropout = nn.Dropout(dropout) def forward(self, x, sublayer): """ 前向传播 参数: x: 输入张量 [batch_size, seq_len, d_model] sublayer: 残差连接的子层 多头自注意力机制,或者来自前馈神经网络 返回: 残差连接后的张量 """ return x + self.dropout(self.norm(sublayer(x))) if __name__ == '__main__': vocab_size = 2000 # 词表大小 embedding_dim = 512 # 词嵌入维度的大小 embeddings = Embeddings(vocab_size, embedding_dim) embed_result = embeddings( torch.tensor([[1999, 2, 99, 4, 5], [66, 2, 3, 22, 5], [66, 2, 3, 4, 5]])) print("embed_result.shape:", embed_result.shape) print("embed_result", embed_result) positional_encoding = PositionalEncoding(embedding_dim) result = positional_encoding(embed_result) print("result:", result) print("result.shape:", result.shape) # 测试自注意力机制 # query = key = value = result # mask = create_sequence_mask(5) # dropout = nn.Dropout(0.1) # attention_output, attention_weights = self_attention(query, key, value, mask, dropout) # print("attention_output.shape:", attention_output.shape) # [3, 5, 512] # print("attention_weights.shape:", attention_weights.shape) # [3, 5, 5] mha = MultiHeadAttention(d_model=512, num_heads=8) # print(mha) mask = create_sequence_mask(5) # 定义匿名函数 sublayer = lambda x: mha(x, x, x, mask) # 测试残差连接 rc = ResidualConnection(d_model=512) result_rc = rc(result, sublayer) print("result_rc.shape:", result_rc.shape)

运行输出:

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 6:46:43

SketchUp STL插件完整使用教程:让3D设计轻松走向3D打印

SketchUp STL插件完整使用教程:让3D设计轻松走向3D打印 【免费下载链接】sketchup-stl A SketchUp Ruby Extension that adds STL (STereoLithography) file format import and export. 项目地址: https://gitcode.com/gh_mirrors/sk/sketchup-stl 想要将Ske…

作者头像 李华
网站建设 2026/4/27 17:24:18

告别复杂布局!DCFrame让iOS UI开发效率提升300%的实战指南

你是否还在为iOS复杂UI布局编写数百行约束代码?是否因数据驱动UI的繁琐逻辑而头疼?是否在面对动态列表需求时感到束手无策?DCFrame——这款强大的Swift UI集合框架将彻底改变你的开发方式,让你用最少的代码构建灵活、高效的iOS界面…

作者头像 李华
网站建设 2026/4/22 19:59:34

腾讯混元4B开源:6.8GB显存引爆企业级AI落地革命

导语 【免费下载链接】Hunyuan-4B-Instruct 腾讯开源混元4B指令微调大模型,专为高效部署设计。支持256K超长上下文与混合推理模式,兼具快速响应与深度思考能力。在数学、编程、科学推理及智能体任务中表现卓越,适配从边缘设备到高并发服务器的…

作者头像 李华
网站建设 2026/4/20 19:07:04

在线教育学习|基于springboot 在线教育学习系统(源码+数据库+文档)

在线教育学习 目录 基于springboot vue在线教育学习系统 一、前言 二、系统功能演示 三、技术选型 四、其他项目参考 五、代码参考 六、测试参考 七、最新计算机毕设选题推荐 八、源码获取: 基于springboot vue在线教育学习系统 一、前言 博主介绍&…

作者头像 李华
网站建设 2026/4/21 15:44:24

bibliometrix:科学计量学分析的完整R语言解决方案

bibliometrix:科学计量学分析的完整R语言解决方案 【免费下载链接】bibliometrix An R-tool for comprehensive science mapping analysis. A package for quantitative research in scientometrics and bibliometrics. 项目地址: https://gitcode.com/gh_mirrors…

作者头像 李华
网站建设 2026/4/23 14:37:00

二手商城|基于springboot 二手商城系统(源码+数据库+文档)

二手商城 目录 基于springboot vue二手商城系统 一、前言 二、系统功能演示 三、技术选型 四、其他项目参考 五、代码参考 六、测试参考 七、最新计算机毕设选题推荐 八、源码获取: 基于springboot vue二手商城系统 一、前言 博主介绍:✌️大…

作者头像 李华