推荐星级:
  • 1
  • 2
  • 3
  • 4
  • 5

自注意力机制(Self-Attention)

更新时间:2026-02-28 13:14:37 大小:15K 上传用户:潇潇江南查看TA发布的资源 标签:注意力机制 下载积分:2分 评价赚积分 (如何评价?) 打赏 收藏 评论(0) 举报

资料介绍

自注意力机制(Self-Attention)是一种能够让模型在处理序列数据时,关注输入序列内部不同位置之间依赖关系的技术。其核心思想是通过计算序列中每个元素与其他所有元素的关联程度(注意力权重),动态聚合相关信息,从而捕捉长距离依赖关系。相较于传统的循环神经网络(RNN)和卷积神经网络(CNN),自注意力机制在处理长序列时具有更优的并行计算能力和依赖捕捉能力,已成为Transformer架构的核心组件,广泛应用于自然语言处理、计算机视觉等领域。

注意力权重计算

自注意力机制通过以下步骤计算注意力权重:

1. 生成查询(Query, Q)、键(Key, K)、值(Value, V)矩阵:将输入序列的嵌入向量分别与三个可学习的权重矩阵相乘,得到Q、K、V矩阵。假设输入序列长度为n,嵌入维度为dmodel,则Q、K、V的维度均为n×dmodel。

2. 计算注意力分数:通过Q与KT的点积得到原始注意力分数矩阵,维度为n×n,其中每个元素score(i,j)表示第i个位置对第j个位置的关注度。

3. 缩放操作:为避免点积结果过大导致softmax函数梯度消失,将原始分数除以√dk(dk为Q和K的维度,通常取dmodel的平方根)。

4. 应用softmax函数:对缩放后的分数进行softmax归一化,得到注意力权重矩阵Attention Weights,其中每个元素表示归一化后的关注度,满足行和为1。


部分文件列表

文件名 大小
自注意力机制(Self-Attention).docx 15K

【关注B站账户领20积分】

全部评论(0)

暂无评论

上传资源 上传优质资源有赏金

  • 打赏
  • 30日榜单

推荐下载