基本信息

项目 内容
论文标题 Attention is all you need
作者 很多共一
作者单位 Google Brain 团队(Vaswani et al.)
时间 2017
发表会议/期刊

方法概览

特点 文章性质
输入
输出
所属领域
EncoderLayer “自己看自己”:用 Self-Attention 编码输入,输出上下文表示。
DecoderLayer “边看自己,边看别人”:先自注意力(带掩码),再关注 Encoder 的输出。

创新点

  1. 完全抛弃 RNN 和 CNN,仅依靠 自注意力机制(Self-Attention) 实现序列建模。是 GPT、BERT、ChatGPT 等模型的基石。