2020/02/26 CapsuleNet ( 胶囊网络 ) 的初认识

2021-04-14 10:26

阅读:592

标签:增加   ima   inf   类别   str   alt   解决   图片   区别   

提出动机

训练层面

  1. CNN对见过的样本有好的泛化能力,而没见过的样本则比较差(例:看过正脸很难识别侧脸)。这就是CNN的归纳偏置(inductive bias)。
  2. 为了取得对大部分情况都好的泛化能力,需要各种情况的训练样本,这样大大增加训练代价。
  3. Capsule希望能够学习到一些潜在表示,利用这些潜在表示可以很简单的推理出样本的各种情况,让模型能够泛化得更广,这样解决CNN的归纳偏置问题。
  4. 由于Capsule能够利用潜在表示推断各种情况,可以大大减少训练样本。

原理层面

  1. CNN不懂图片中的物体,它仅仅是提取了像素之间的复杂关系。
  2. Capsule希望更加关注图片的实体,通过解释与描述实体来正确的认识图片。

CNN与Capsule的区别

  1. CNN对于输入具有 invariant 。就是同一类别样本有着相同的输出(特征向量或者类别预测)。而Capsule对输入具有 equivariant 。就是同一类别样本有着不同的输出(但是进一步对输出进行normalize可以进行分类)
  2. CNN输入是一组标量,而Capsule输入是一组向量。
    技术图片

2020/02/26 CapsuleNet ( 胶囊网络 ) 的初认识

标签:增加   ima   inf   类别   str   alt   解决   图片   区别   

原文地址:https://www.cnblogs.com/Research-XiaoEMo/p/12376305.html


评论


亲,登录后才可以留言!