基本信息

项目 内容
论文标题 Deep Residual Learning for Image Recognition
作者 Kaiming He(何恺明)、Xiangyu Zhang、Shaoqing Ren、Jian Sun(微软亚洲研究院)
作者单位 微软亚洲研究院
时间 2016
发表会议/期刊

方法概览

特点 文章性质
输入 单张 RGB 图像
输出 分类、分割
所属领域 视觉 Transformer

创新点

  1. 网络越深,性能越好当网络超过一定深度(如 20 层以上),继续加深反而导致性能下降,这被称为 网络退化(Degradation Problem)。梯度在反向传播时逐层衰减,提出 残差学习(Residual Learning) 和 跳跃连接(Skip Connection),解决了深度网络训练难题。
  2. 残差结果
  3. 瓶颈结构(Bottleneck)用于 ResNet-50 及以上
  4. Batch Normalization(BN) 是 ResNet 成功的关键组成部分之一,它与 残差连接 一起,共同解决了深度网络训练中的 梯度消失/爆炸内部协变量偏移(Internal Covariate Shift) 问题。