推荐星级:
  • 1
  • 2
  • 3
  • 4
  • 5

Transformer编码器结构与原理

更新时间:2026-02-28 13:19:36 大小:16K 上传用户:潇潇江南查看TA发布的资源 标签:transformer编码 下载积分:2分 评价赚积分 (如何评价?) 打赏 收藏 评论(0) 举报

资料介绍

Transformer2017年由Vaswani等人提出的基于自注意力机制的深度学习模型,其编码器(Encoder)作为核心组件,在自然语言处理等领域展现出卓越性能。编码器通过多层堆叠结构实现对输入序列的深度特征提取,为下游任务提供高质量的上下文表示。

Transformer编码器由N个相同的编码层(Encoder Layer)堆叠而成,每个编码层包含两个核心子层:

1. 多头自注意力机制(Multi-Head Self-Attention:并行执行多个自注意力计算,捕捉序列中不同位置间的依赖关系

2. 前馈神经网络(Position-wise Feed-Forward Network:对每个位置的特征进行非线性变换

每个子层均采用残差连接(Residual Connection)和层归一化(Layer Normalization)技术,形成"子层输出=LayerNorm(x + Sublayer(x))"的计算模式,有效缓解深层网络训练中的梯度消失问题。


部分文件列表

文件名 大小
Transformer编码器结构与原理.docx 16K

【关注B站账户领20积分】

全部评论(0)

暂无评论

上传资源 上传优质资源有赏金

  • 打赏
  • 30日榜单

推荐下载