论文阅读_Transformer_Encoder_Decoder
基本信息
| 项目 | 内容 |
|---|---|
| 论文标题 | Attention is all you need |
| 作者 | 很多共一 |
| 作者单位 | Google Brain 团队(Vaswani et al.) |
| 时间 | 2017 |
| 发表会议/期刊 |
方法概览
| 特点 | 文章性质 |
|---|---|
| 输入 | |
| 输出 | |
| 所属领域 |
| EncoderLayer | “自己看自己”:用 Self-Attention 编码输入,输出上下文表示。 |
|---|---|
| DecoderLayer | “边看自己,边看别人”:先自注意力(带掩码),再关注 Encoder 的输出。 |
创新点
- 完全抛弃 RNN 和 CNN,仅依靠 自注意力机制(Self-Attention) 实现序列建模。是 GPT、BERT、ChatGPT 等模型的基石。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 This is a 部落格 of outbreak_sen!


