CV第九课 ResNet

2021-02-15 14:22

阅读:334

标签:cti   依赖性   lte   组成   消失   art   learn   bottle   inf   

ResNet

 

技术图片

 

 

其他不带残差的网络(plain-CNN)中:

  56层的网络比20层的网络,无论是trainning set 还是test set都要表现差

问题: 1) 优化问题,梯度在传播过程中出现梯度消失,或者梯度爆炸  2) weight_matrix_decay

      1. Batch Normalization,可以解决在forward过程中的梯度消失

   2. Residual block 提供的 skip connection,直接将梯度跨层传递,例如

    在t时刻:

    非残差网络G(1)=1.1, 

    残差网络H(1)=1.1, H(1)=F(1)+1, F(1)=0.1

    在t+1时刻:

    非残差网络G’(1)=1.2, 

    残差网络H’(1)=1.2, H’(1)=F’(1)+1, F’(1)=0.2

    这时候我们看看:

    非残差网络G的梯度  = (1.2-1.1)/1.1 = 1/11

    而残差网络F的梯度 = (0.2-0.1)/0.1 = 1
    ————————————————
    版权声明:本文为CSDN博主「ylyyyy」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    原文链接:https://blog.csdn.net/weixin_40240670/article/details/85685095

    3. 

    1)消除了输入和权重零奇点

    2)打破对称性

    3)打破线性依赖性

    https://www.jianshu.com/p/a2812cf3ddad

 

 技术图片

 

 

解决方法:

  1.ResNet采用残差块的堆叠,每个残差块有两个3*3*depth的ConvReLu组成

  2. 周期性的double filter的数量(64->128,......),并将stride变成2

  3. 除了最后output的1000FC,没有全连接层

技术图片

 

技术图片

 

 

 

另:

  1. 在深层ResNet-50+中,我们也用bottleneck to improve efficientcy

技术图片

 

 

细节:

  1. 每层 Conv之后都有ReLu与BN

  2. Xavier/2 initialization 

  3. SGC + Momentum 

  4. learning rate decay 

  5. mini-batch size 256

  6.weight decay 1e-5

  7. no dropout

技术图片

技术图片

 

CV第九课 ResNet

标签:cti   依赖性   lte   组成   消失   art   learn   bottle   inf   

原文地址:https://www.cnblogs.com/ChevisZhang/p/12982887.html


评论


亲,登录后才可以留言!