news 2026/5/9 22:15:42

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 编码器(Encoder)详解以及算法实现

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 编码器(Encoder)详解以及算法实现

锋哥原创的Transformer 大语言模型(LLM)基石视频教程:

https://www.bilibili.com/video/BV1X92pBqEhV

课程介绍

本课程主要讲解Transformer简介,Transformer架构介绍,Transformer架构详解,包括输入层,位置编码,多头注意力机制,前馈神经网络,编码器层,解码器层,输出层,以及Transformer Pytorch2内置实现,Transformer基于PyTorch2手写实现等知识。

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 编码器(Encoder)详解以及算法实现

编码器结构:

  1. 多头自注意力 (MHA):每个位置对整句做“信息汇聚”。

  2. 前馈网络 (FFN):逐位置的两层 MLP(常用维度 d_ff=4×d_model)。

  3. 残差连接 + LayerNorm:稳定训练、加速收敛。

代码实现:

# 编码器层 class EncoderLayer(nn.Module): def __init__(self, d_model, self_attention, d_ff, dropout=0.1): super().__init__() self.d_model = d_model self.self_attention = self_attention # 多头自注意力机制 self.feed_forward = d_ff # 前馈神经网络 self.residual_connection1 = ResidualConnection(d_model, dropout) # 残差连接 self.residual_connection2 = ResidualConnection(d_model, dropout) # 残差连接 def forward(self, x): """ 前向传播 参数: x: 输入张量 [batch_size, seq_len, d_model] mask: 掩码张量 [batch_size, seq_len, seq_len] 返回: 编码器层的输出张量 """ # 多头自注意力机制 x1 = self.residual_connection1(x, lambda x: self.self_attention(x, x, x)) # 多头自注意力机制 x2 = self.residual_connection2(x1, lambda x: self.feed_forward(x)) # 前馈神经网络 return x2 # 编码器 (由多个编码器层堆叠) class Encoder(nn.Module): def __init__(self, num_layers, layer): super().__init__() self.layers = nn.ModuleList([copy.deepcopy(layer) for _ in range(num_layers)]) self.norm = LayerNorm(layer.d_model) def forward(self, x): """ 前向传播 输入: x: 输入张量 [batch_size, seq_len, d_model] 返回: 编码器的输出张量 [batch_size, seq_len, d_model] """ for layer in self.layers: x = layer(x) return self.norm(x) # 测试编码器 def test_encoder(): vocab_size = 2000 # 词表大小 embedding_dim = 512 # 词嵌入维度大小 embeddings = Embeddings(vocab_size, embedding_dim) embed_result = embeddings(torch.tensor([[1999, 2, 99, 4, 5], [66, 2, 3, 22, 5], [66, 2, 3, 4, 5]])) positional_encoding = PositionalEncoding(embedding_dim) positional_result = positional_encoding(embed_result) mha = MultiHeadAttention(d_model=512, num_heads=8) # 多头自注意力机制 ffn = FeedForward(d_model=512, d_ff=2048) # 前馈神经网络 encoder_layer = EncoderLayer(d_model=512, self_attention=mha, d_ff=ffn) # 编码器层 # 实例化编码器对象 encoder = Encoder(num_layers=6, layer=encoder_layer) encoder_result = encoder(positional_result) print('encoder_result.shape:', encoder_result.shape) if __name__ == '__main__': test_encoder()

运行测试:

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/9 2:49:57

SketchUp STL插件完整使用教程:让3D设计轻松走向3D打印

SketchUp STL插件完整使用教程:让3D设计轻松走向3D打印 【免费下载链接】sketchup-stl A SketchUp Ruby Extension that adds STL (STereoLithography) file format import and export. 项目地址: https://gitcode.com/gh_mirrors/sk/sketchup-stl 想要将Ske…

作者头像 李华
网站建设 2026/5/9 2:49:58

告别复杂布局!DCFrame让iOS UI开发效率提升300%的实战指南

你是否还在为iOS复杂UI布局编写数百行约束代码?是否因数据驱动UI的繁琐逻辑而头疼?是否在面对动态列表需求时感到束手无策?DCFrame——这款强大的Swift UI集合框架将彻底改变你的开发方式,让你用最少的代码构建灵活、高效的iOS界面…

作者头像 李华
网站建设 2026/5/8 1:41:13

腾讯混元4B开源:6.8GB显存引爆企业级AI落地革命

导语 【免费下载链接】Hunyuan-4B-Instruct 腾讯开源混元4B指令微调大模型,专为高效部署设计。支持256K超长上下文与混合推理模式,兼具快速响应与深度思考能力。在数学、编程、科学推理及智能体任务中表现卓越,适配从边缘设备到高并发服务器的…

作者头像 李华
网站建设 2026/5/9 1:48:08

在线教育学习|基于springboot 在线教育学习系统(源码+数据库+文档)

在线教育学习 目录 基于springboot vue在线教育学习系统 一、前言 二、系统功能演示 三、技术选型 四、其他项目参考 五、代码参考 六、测试参考 七、最新计算机毕设选题推荐 八、源码获取: 基于springboot vue在线教育学习系统 一、前言 博主介绍&…

作者头像 李华
网站建设 2026/5/9 1:40:42

bibliometrix:科学计量学分析的完整R语言解决方案

bibliometrix:科学计量学分析的完整R语言解决方案 【免费下载链接】bibliometrix An R-tool for comprehensive science mapping analysis. A package for quantitative research in scientometrics and bibliometrics. 项目地址: https://gitcode.com/gh_mirrors…

作者头像 李华
网站建设 2026/5/9 1:40:54

二手商城|基于springboot 二手商城系统(源码+数据库+文档)

二手商城 目录 基于springboot vue二手商城系统 一、前言 二、系统功能演示 三、技术选型 四、其他项目参考 五、代码参考 六、测试参考 七、最新计算机毕设选题推荐 八、源码获取: 基于springboot vue二手商城系统 一、前言 博主介绍:✌️大…

作者头像 李华