胶囊间的动态路由(Dynamic Routing Between Capsules)翻译

本文是对于Sara Sabour, Nicholas Frosst, Geoffrey E. Hinton在2017年发表的论文《Dynamic Routing Between Capsules》的翻译。

胶囊间的动态路由(Dynamic Routing Between Capsules)

摘要:胶囊(Capsule)是一组神经元,它的**向量(activity vector)表示特定的类型实体(如某目标或某目标的部分)的实例化参数。我们用**向量的长度来表征实体存在的概率以及其实例化参数的方向。通过变换矩阵**同一水平的胶囊,对更高层的胶囊的实例化参数进行预测。当多个预测相统一的时候,较高层的胶囊被**。我们给出一个有鉴别地(discriminatively)训练,多层胶囊系统在MNIST实现了最优性能,在识别高度重叠的数字时,其效果要明显好于卷积神经网络。为了达到这样的结果,我们使用了一个迭代的路由协议机制(routing-by-agreementmechanism):一个低层胶囊希望将其输出发送到更高层胶囊,更高层胶囊的预测来自低层胶囊,其**向量具有大的标量积。

1 引言

人类视觉用一个精心确定的固定点序列以保证在最高的分辨率下,忽略不相关的细节,只处理视觉阵列中的小部分。对于来自固定序列的场景知识和从单一固定多得到的理解了多少,自省(Introspection)是不太好的指导,但是在本篇论文里,我们将假设一个单一固定给我们的不仅仅是一个单一的确定的对象和其属性。我们假设我们的多层视觉系统在每个固定上创建了一个解析树结构,并且我们忽略了这些单一固定的解析树是如何在多个固定之间协调的问题。

解析树通常是在动态分配内存中构建的。然而,在Hinton等人[2000]之后,我们假设,对于一个单一的固定,一个解析树是由一个固定的多层神经网络雕刻成的,就像雕刻在岩石上的雕塑一样。每层将分成许多小的神经元组称为“胶囊(Capsules)”(Hinton等人[2011]),解析树的每个节点对应一个**胶囊。使用迭代的路由过程,每一个**胶囊将在它上面的层中选择一个胶囊作为父节点(parent)。对于视觉系统的更高层,这个迭代过程将解决将部分分配给整体的问题。

一个**胶囊里的神经元的活动表示呈现在图像中的特定实体的各种属性。这些属性可以包括实例化参数的不同类型,如姿势(位置,大小,方向)、形变、速度、反射率、色调、纹理等等。一个非常特殊的属性是图像中实例化实体的存在。表示存在的一个明显的方法是用一个单独的逻辑单元,他的输出是实体存在的概率。在本文中,我们探讨一种用实例化参数向量的总长度去表示实体的存在,并强制使用向量的方向来表示实体的属性的有趣的迭代。我们通过应用一个非线性让向量的方向不变,但是大小改变,从而保证了一个胶囊向量输出的长度不能超过1。

事实上,一个胶囊体的输出是一个向量,这使得它可以用一个强大的动态路由机制来确保胶囊的输出发送到上一层的父节点。最初,输出被路由到所有可能的父节点,但是被耦合系数缩减为总数为1。对于每一个可能的父类,胶囊通过将其自身输出乘以一个权重矩阵来计算一个“预测向量”。如果这个预测向量是一个可能的父类输出的一个大的标量积,那么就有一个自上而下的反馈,增加该父类的耦合系数,并减少其他父节点的耦合系数。这增加了胶囊对于父节点的贡献,从而进一步增加了用父节点输出和胶囊预测的标量积。这种类型的“路由协议”要比最大池化实现的最原始的路由方式更加有效,它允许一个层中的神经元忽略除了下面一层的局部池化中最活跃的特征检测器外的全部。我们证明了我们的动态路由机制是一个可以用于解释高度重叠的目标分割的有效方法。

卷积神经网络(CNNs)用于变换学习到的特征检测器的副本。这使得它们能够将图像中的一个位置获取的好的权重值的知识变换到其他位置。这在图像解释中是非常有用的。尽管我们正在用向量-输出胶囊取代CNNs的标量-输出特征检测器,用路由协议取代最大池化,但是我们仍然希望在整个空间中复制知识。为了达到这个目标,我们让除了胶囊最后一层外的其它层做卷积。和CNNs一样,我们用更高层的胶囊覆盖图像的更大区域。然而,不同于最大池化,我们不会丢弃该区域内实体的精确的位置信息。对于低层胶囊,位置信息是通过“位置-编码(place-coded)”胶囊来**。当我们提高到更高层,越来越多的位置信息是一个胶囊的输出向量实际值分量中的“速度-编码(rate-coded)”。从位置编码到速度编码的转变,再加上更高层的胶囊表示随着更高*度的更加复杂的实体的事实,表明随着向更高层的提升,胶囊体的维数会增加。

2 如何计算一个胶囊的向量的输入和输出

有很多种可能的方法来实现胶囊的一般概念,本文的目的不是探索这整个空间,而是简单地说明一个相当简单的实现是有效的,并且可以用动态路由来帮助。

我们用一个胶囊的输出向量的长度表示胶囊所代表的实体在当前的输入中存在的概率。因此,我们使用一个非线性的“挤压(squashing)”函数来确保短向量压缩到接近于0的长度,且长向量被压缩到略低于1的长度,我们让它进行识别学习来好好的利用这个非线性。

胶囊间的动态路由(Dynamic Routing Between Capsules)翻译                                       (1)

其中胶囊间的动态路由(Dynamic Routing Between Capsules)翻译是胶囊j的向量输出,且胶囊间的动态路由(Dynamic Routing Between Capsules)翻译是其总输入。

除了胶囊体的第一层外的其他层,一个胶囊的总输入胶囊间的动态路由(Dynamic Routing Between Capsules)翻译是来自于低一层的胶囊所有“预测向量”胶囊间的动态路由(Dynamic Routing Between Capsules)翻译的一个加权总和,且是通过用一个权重矩阵胶囊间的动态路由(Dynamic Routing Between Capsules)翻译乘以一个低一层的胶囊的输出胶囊间的动态路由(Dynamic Routing Between Capsules)翻译

胶囊间的动态路由(Dynamic Routing Between Capsules)翻译                (2)

其中胶囊间的动态路由(Dynamic Routing Between Capsules)翻译是由迭代动态路由过程决定的耦合系数。胶囊i和高一层的所有胶囊间的耦合系数总和为1,并且是由“路由softmax”决定,该“路由softmax”初始逻辑胶囊间的动态路由(Dynamic Routing Between Capsules)翻译是对数先验概率(log prior probabilities),即胶囊i应该与胶囊j耦合

胶囊间的动态路由(Dynamic Routing Between Capsules)翻译                                         (3)

同一时间的对数先验可以作为所有其他权重来进行有区别地学习。它们取决于两个胶囊的位置和类型,而不是取决于当前的输入图像。然后,初始耦合系数通过测量更高一层中每个胶囊j的当前输出胶囊间的动态路由(Dynamic Routing Between Capsules)翻译和胶囊i的预测胶囊间的动态路由(Dynamic Routing Between Capsules)翻译间的一致性(agreement)来重复细化(refined)。

一致性仅仅是标量积胶囊间的动态路由(Dynamic Routing Between Capsules)翻译。这种一致性被认为是一个对数似然比,并在对连接胶囊i和更高层胶囊的所有耦合系数计算新值之前,这种一致性被添加到初始逻辑胶囊间的动态路由(Dynamic Routing Between Capsules)翻译

在卷积胶囊层中,每个胶囊对高一层中的胶囊的每种类型输出一个向量的局部网格,并对于网格的每一部分和胶囊的每种类型使用不同的变换矩阵。

胶囊间的动态路由(Dynamic Routing Between Capsules)翻译

3 数字存在的边缘损失

我们使用实例化向量的长度来表示一个胶囊的实体存在的可能性。当且仅当图像中有数字时,我们想要得到数字类k的顶层的胶囊来获取一个长的实例化向量。为了允许多个数字,我们对每个数字胶囊k使用一个单独的边缘损失

胶囊间的动态路由(Dynamic Routing Between Capsules)翻译                    (4)

其中,对于一个类k的数字表示为胶囊间的动态路由(Dynamic Routing Between Capsules)翻译胶囊间的动态路由(Dynamic Routing Between Capsules)翻译胶囊间的动态路由(Dynamic Routing Between Capsules)翻译。对于缺少数字的类别的损失的向下加权从缩减所有数字胶囊体的活动向量的长度停止了初始的学习。我们用胶囊间的动态路由(Dynamic Routing Between Capsules)翻译。总的损失简单的认为是所有数字胶囊的损失的总和。

4 CapsNet架构

一个简单的CapsNet架构如图1所示。架构可以简单的表示为仅有两个卷积层和一个全连接层组成。Conv1有256个9×9个卷积核,步长为1和ReLU**。该层将像素的强度/亮度(intensities)转换为之后会用于作为基本胶囊primary capsules)输入的局部特征探测器的**。

图1一个简单的三层CapsNet。这个模型给了深度卷积网络可比较的结果(如Changand Chen [2015]),DigitCaps层中的每个胶囊的**向量的长度表示每个类的实例的呈现,并且是用于计算分类损失。胶囊间的动态路由(Dynamic Routing Between Capsules)翻译是PrimaryCapsule中每个胶囊间的动态路由(Dynamic Routing Between Capsules)翻译胶囊间的动态路由(Dynamic Routing Between Capsules)翻译间的一个权重矩阵,且胶囊间的动态路由(Dynamic Routing Between Capsules)翻译

 胶囊间的动态路由(Dynamic Routing Between Capsules)翻译

基本胶囊是多维实体的最低层,并且来自于一个相反的图形视角,**初始胶囊体对应于反向表现过程。这是一个非常不同的计算方式,不是胶囊被设计用来擅长做的事情,将实例化的部件组合在一起以形成熟悉的整体。

第二层(PrimaryCapsules)是一个卷积的胶囊层,卷积的8维胶囊的32个通道(即每个基本胶囊包含8卷积单元,用一个9×9的核和一个2的步长)。每个初始胶囊的输出看作是所有256×81Conv1单元,这些单元可以容纳与胶囊的中心位置重叠的区域。总的PrimaryCapsules有[32×6×6]胶囊输出(每个输出都是8维向量),每个胶囊都在[6×6]的网格中互相共享权重。PrimaryCapsules作为卷积层用公式1表示,作为其的块非线性。最终层(DigitCaps)有每个数字类是一个16维,这些胶囊的每一个都是从低一层的所有胶囊中接收到输入。

我们仅仅有两个连续的胶囊层之间的路由(即PrimaryCapsules和DigitCaps)。由于Conv1的输出是1维,在它的空间里没有任何方向可以达成一致。因此,用于Conv1和PrimaryCapsules之间。所有的路由模型(胶囊间的动态路由(Dynamic Routing Between Capsules)翻译)初始化为到0。因此,最初的一个胶囊输出(胶囊间的动态路由(Dynamic Routing Between Capsules)翻译)是发送到所有有相等的概率(胶囊间的动态路由(Dynamic Routing Between Capsules)翻译)父胶囊体(胶囊间的动态路由(Dynamic Routing Between Capsules)翻译)。我们是在TensorFlow(Abadiet al. [2016])进行实验,并且我们使用有着TensorFlow默认参数的Adam优化器(Kingmaand Ba [2014]),包括指数衰减的学习率,去最小化方程4中的边缘损失的总和。

4.1 一种正则化方法——重建

我们使用额外的重建损失来鼓励数字胶囊去编码输入数字的实例化参数。在训练过程中,我们将除了正确数字胶囊的**向量外的所有**向量都屏蔽掉。然后,我们用这个**向量重建输入图像。数字胶囊的输出被送入一个由3个全连接层组成的解码器,模拟像素强度如图2所示。我们最小化逻辑单元和像素强度输出间的平方差异的总和。我们用0.0005缩小重建损失,以至于它在训练中不是边缘损失的主要部分。如图3所示,来自CapsNet的16维重建是稳定的,但是只保留了重要细节。

图2.重建一个来自DigitCaps层表示的数字的解码结构。图像间的欧式距离和Sigmoid层的输出在训练中最小化。我们用正确的标签在训练中作为重建目标。

胶囊间的动态路由(Dynamic Routing Between Capsules)翻译

图3.用一个有3个路由迭代的CapsNet重建样本MNIST测试。分别表示标签、预测和重建目标。最右边的两列表示两个错误重建的例子,它解释了该模型如何混淆了这个图像中的5和3。其他的列是正确的分类,并显示模型在平滑噪声的同时保留了许多细节。

胶囊间的动态路由(Dynamic Routing Between Capsules)翻译

5 MNIST上的Capsules

在28×28的MNIST(LeCun等人[1998])图像上的训练性能表明用填充0在每个方向上提升2个像素。没有其他数据增加/变形使用。数据集有6万张图片用来训练,1万张图片用来测试。

我们用一个没有任何模型平均的单一模型。Wan等人[2013]用旋转和缩放在全部和扩充的数据集上实现了0.21%的测试错误率,在没有旋转和缩放时的测试错误率是是0.39%。我们在一个先前的3层网络上实现了一个更低的错误率(0.25%),并且只通过加深网络来实现。表1列出了在MNIST上对于不同的CapsNet步骤的测试错误率,并表明了路由和重建正则化矩阵的重要性。通过在胶囊向量中强制构成编码来增加重建正则化矩阵,从而提高了路由性能。

表1. CapsNet分类测试精确度。从三组实验中得到MNIST平均值和标准偏差结果。

胶囊间的动态路由(Dynamic Routing Between Capsules)翻译

基线是一个分别有256、256、128通道的三个卷积层的标准CNN。每个的核为5x5,步长为1。最后一个卷积层后有两个大小为328、192的全连接层。最后一个全连接层用交叉熵损失连接着dropout和一个10类的softmax层。基线也被用Adam优化器在2像素转移MNIST上进行训练。基线的设计是为了在MNIST上取得最好的性能,同时保持计算成本接近CapsNet。在参数的数量上,基线有3540万,而CapsNet有820万,在没有重建子网络时是680万。

5.1一个胶囊的每个维度表示什么

由于我们将其他数字归零,只传递一个数字的编码,一个数字胶囊的维数应该学会用实例化的类的数字的方式跨越变化的空间。这些变化包括行程厚度(strokethickness)、倾斜(skew)和宽度(width)。它们还包括数字-特性变化(digit-specificvariations),如一个为2的尾巴长度。通过使用解码网络,我们可以看到每个维度表示的是什么。在计算正确的数字胶囊体的**向量后,我们可以反馈这个**向量的一个受扰动的版本到解码网络,并且看看扰动是如何影响重建的。这些扰动的例子如图4所示。我们发现,胶囊的一维(超过16)几乎总是表示数字的宽度。虽然有些维度表示全局变量的组合,但是也有其它维度表示数字的一个局部。例如,用不同的维数提升一个6的长度和循环的大小。

图4. 维数扰动。每一行显示了当在DigitCaps表示中的16维中的一个是在范围[-0.25,0.25]间以间隔为0.05的扭曲。

胶囊间的动态路由(Dynamic Routing Between Capsules)翻译

5.2 仿射变换的鲁棒性(robustness)

实验结果表明,对于每个类别,每一个DigitCaps胶囊比一个传统的卷积网络学习到一个更加鲁棒的表示。因为在手写数字中,在倾斜、旋转、字体等等上有自然地变化,训练的CapsNet对于训练数据小的仿射变换是适当的鲁棒的。

为了测试CapsNet对于仿射变换的鲁棒性,我们训练了一个CapsNet和一个传统的卷积网络在填补(padded)上(有MaxPooling和DropOut),变换MNIST训练集,其中每一个例子都是一个随机放置在40×40像素的黑色背景上的MNIST数字。然后,在affNIST数据集上测试这个网络,其中每个样本是一个有着一个随机小仿射变换MNIST数字。除了在标准MNIST中可以看到的平移和一些自然变换,我们的模型从来没有用仿射变换训练过。一个提早停止的训练不够的(under-trained)CapsNet,在MNIST测试集实现了99.23%的精确度,在affnist测试集上实现了79%的精确度。一个有着相似的参数数量的传统卷积模型,在扩充的MNIST测试集实现了相似的精确度(99.22%),但是在affnist测试集上仅仅实现了66%的精确度。

6高度分割重叠数字

动态路由可以被看作是一种并行的注意机制,它允许在同一层的每个胶囊去关注低一层上的一些**胶囊并忽略其他的胶囊。这应该允许模型去识别图像中多目标,即使这些目标重叠(Hinton等人[2000]),还有其他人在类似的领域内测试了他们的网络(Goodfellow等人[2013]、Ba等人[2014]、Greff等人[2016])。路由协议应该让它尽可能的用一个关于对象形状的先验帮助分割,且它应该避免在像素领域做出更高层分割决策的需求。

6.1 MutiMNIST数据集

我们通过用相同数据集(训练或测试)但不同的类中的数字,将一个数字重叠在另一个数字上产生了MutiMNIST训练和测试数据集。每个数字在一个36x36的图像上产生每个方向上移4像素。考虑一个在28×28图像中的数字是在一个20×20的盒子为边界,两个数字边界的盒子平均有80%的重叠。对于MNIST数据集中的每一个数字,我们产生了1000个MultiMNIST样本。所以训练集的大小是6000万,测试集大小是1000万。

6.2 MultiMNIST结果

我们的3层CapsNet模型从乱写的MultiMNIST训练数据上训练,比我们的基线卷积模型实现了更高的测试分类精确度。在高度重叠的数字对上,我们和Ba等人实现了同为5.0%的分类错误率,而Ba等人[2014]连续的注意模型(sequentialattention model)实现了一个更加简单的任务,即不重叠的任务(我们的情况是两个数字的盒子的80%的重叠,而Ba等人[2014]等人<4%)。在测试图像熵,测试集中的一对图像所组成的那些图像,我们将两个最活跃的数字胶囊最为胶囊网络产生的分类。在重建过程中,我们一次选择一个数字,使用选定的苏子胶囊的**向量来重建选定的数字图像(由于我们用它来产生了一个合成图像,所以我们知道这个图像)。我们MNIST模型的唯一不同是我们将学习速率的衰减阶段增大了10倍,因为我们的训练集更大。

重建过程如图5所示,CapsNet能够将图像分割为两个原始的数字。由于这个分割不是像素级的,当计算所有像素时,我们观察到模型能够正确的处理重叠部分(一个像素出现在两个数字上)。每个数字的位置和字体都在DigitCaps中进行编码。解码器已经学会根据编码重新构造一个数字。事实上,它能够不管重叠部分来重建数字,这表明每个数字胶囊可以从PrimaryCapsules层接收到字体和位置。

图5.3个路由的一个CapsNet的样本重构在MultiMNIST测试数据集上迭代。两个重构的数字分别覆盖上绿色和红色,红色为更低一层的图像。上面一行的图像是输入图像。表示图像中两个数字的标签,表示重建后的两个数字。最右边的两列显示来自标签和来自预测(P)重建,错误分类的两个样本。在(2,8)这个例子中,模型将8和7混淆,在(4,9)中,9和0混淆。其它列都是正确的分类,并显示了在极其困难的场景中(1-4列),分配一个像素给两个数字时模型描述了所有像素。注意,在数据集产生中,像素值被裁减为1。两列用(*)标记的表示的是来自于用标签或者预测的数字的重建。这些列表明,模型不仅仅是找到对于图像中的所有数字最适合的,包括那些不存在的数字。因此,在(5,0)的情况下,它不能重建一个7,因为它知道这里有一个5和0最合适,可以解释所有像素。在(8,1)的情况下,8的循环不能触发0,因为它已经用8解释。因此,如果它们中的一个没有任何其他支持,它将不会将一个像素分配给两个数字。

胶囊间的动态路由(Dynamic Routing Between Capsules)翻译
表1强调在任务上路由胶囊的重要性。作为一个CapsNet分类精确度的基线,我们训练一个两个卷积层卷积网络,其上有两个全连接层。第一层有大小为9×9、步长为1的512个卷积核。第二层有大小为5×5、步长为1的256个卷积核。每一个卷积层后,模型有一个尺寸为2×2和步长为2的池化层。第三层是一个1024维的全连接层。所有的这三层都有非线性的ReLU。10个单元组成的最后一层全连接的。我们使用TensorFlow默认Adam优化器(Kingma和Ba[2014])在最后一层的输出上训练一个sigmoid交叉熵损失。该模型有2456万参数,是CapsNet的1136万参数的两倍。我们用一个更小的CNN(大小为5×5和步长为1的32和64卷积核和一个512维全卷积层)来开始,递增的增加网络的宽度,直到我们在一个MultiMNIST数据的子数据集1万张图像上达到最好的测试精确度。我们也在1万的验证集上搜索正确的衰减步骤。

我们同时解码两个最活跃的DigitCaps胶囊,并得到两个图像。然后,通过对每个数字用非零强度分配任意像素,我们得到每个数字的分割结果。

7 其他数据集

我们在CIFAR10上测试我们的胶囊模型,并在7个模型的全体上实现10.6%错误率,每个模型用3个路由进行训练在图像的24×24的块上迭代。每一个模型有相同的结构,作为我们在MNIST上使用的简单模型,除了有三个彩色通道,我们使用初始胶囊的64种不同类型。我们也发现它对路由softmax帮助引入一个“以上都不是”类别,因为我们没有期望十层胶囊的最后一层去解释图像中的一切事物。10.6%的测试错误率是关于当他们第一次应用于CIFAR10(Zeiler和Fergus[2013])时,是用什么标准卷积网络实现的。

与生成模型共享的胶囊的一个缺点是,它喜欢解释图像中的每一个东西,所以在动态路由中,当它可以模拟混乱时比当它仅仅用于一个附加的“孤儿(orphan)”类别时更好。在CIFAR-10中,对于一个可以帮助解释较差性能的在合理的大小的网络中的模型,背景的差异太大。

我们也测试了与我们在smallNOPB(LeCun等人[2004])上对MNIST使用的完全相同的架构,并实现了2.7%的测试错误率,这与最优(Ciresan等人[2011])的结果是相当的。

我们也在SVHN(Netzer等人[2011])的仅有73257张图像的小训练集上训练了一个更小的网络。我们减少第一层卷积层的通道数至64,初始胶囊层到16,结束层有着8维最终胶囊层的6维-胶囊,在测试集实现了4.3%。

8 讨论和以前的工作

三十年来,在语音识别中最先进的方法是使用将高斯混合作为输出分布的隐马尔可夫模型。这些模型很容易在小型计算机上学习,但它们具有表示的限制,这最终是致命的:他们使用其中的一种表示与使用分布式表示法的递归神经网络相比,是指数效率低下的。要使一个HMM能够记住它所生成的字符串的信息量增加一倍,我们需要将隐层节点的数量平方。对于递归网络,我们只需要将隐层神经元的数量增加一倍。

既然卷积神经网络已经成为了目标识别的主要方法,询问是存在指数效率低导致他们终止的问题是有意义的。一个好的候选概括新观点的卷积网络的好的候选者是困难的。建立处理转化的能力,但是对于仿射变换的其它维度,我们得在一个随 维数增长而指数增长的网格内复制的特征检测器间选择,或者用一个相似的指数方法增加标记训练集的大小。胶囊(Hinton等人[2011])通过将像素强度转换为识别片段的实例化参数,然后将变换矩阵用于片段来预测更大片段的实例化参数,从而避免指数低效。学习编码一个部分和一个整体间的内在空间关系的变换矩阵构成了自动泛化到新观点的观点不变知识。Hinton等人[2011]提出将自动编码器转换为产生PrimaryCapsule层的实例化参数,他们的系统要求在外部提供变换矩阵。我们提出了一个完整的系统,它也可以回答“用**的、较底层的胶囊预测姿势的协议可以识别多么更大、更复杂的视觉实体”。

胶囊有一个很强的表示假设:在图像的每一个位置,之多有一个胶囊表示的实体类型的实例。这个假设是被一种称为“拥挤”的感知现象激励得到的,它消除了绑定问题(Hinton[1981a]),并允许胶囊使用分布式表示(它的**向量)对一个给定位置的该类型实体的实例化参数进行编码。这种分布式表示比用**一个高维网格上一点的编码实例化参数的效率要高得多,并且用正确的分布式表示,之后胶囊可以充分利用矩阵乘法建模空间关系的事实。

胶囊使用随着观点变化而变化的神经**,而不是从**中消除观点变化。这使得他们比“归一化”方法,如空间变压器网络(spatial transformer networks)(Jaderberg等人[205])更有优势:他们可以同时处理不同目标和目标部分的多个不同的仿射变换。

胶囊也非常善于处理分割,这是视觉领域的另一个最困难的问题,因为实例化参数的向量允许他们使用路由协议,正如我们在文中说明的那样。动态路由过程的重要性也得到了视觉皮层不变模式识别的生物学模型的支持。Hinton[1981b]提出动态连接和基于用于目标识别所产生的形状描述的参考框架的标准识别。Olshausen等人[1993]改进了Hinton[1981b]动态连接,并给出一个有生物学意义、位置和尺度不变的目标表示的模型。

对胶囊的研究目前正处于一个和本世纪初用于语音识别的递归神经网络的研究相似的阶段。有基础的代表的原因让我们相信他是一个更好的方法,但是在它超越高度发达的技术之前,它可能需要更多的小思考。事实上,一个简单的胶囊系统已经在分割重叠数字上提供了无与伦比的性能,这是一个早期迹象,表明胶囊是一个值得探索的方向。

A 使用了多少路由迭代?

为了实验验证路由算法的收敛性,我们在每个路由迭代中绘制出路由逻辑的平均变化。图A.1显示每次路由迭代后平均的变化。从实验上我们观察到,从训练开始到5次迭代时,路由的变化可以忽略不计。路由第2次的平均变化在经过500个阶段的训练为0.007后稳定,而在路由迭代5的过程中,其模型平均变化仅为1e-5。

图A.1:每一次路由迭代的每次路由模型(胶囊间的动态路由(Dynamic Routing Between Capsules)翻译)的平均变化。在对MNIST进行了500个周期的训练后,平均变化趋于稳定,如图所示,随着更多的路由迭代,其对数尺度的变化几乎是线性的。

(a)训练过程中                                                                                                               (b)最终差异的对数指数

胶囊间的动态路由(Dynamic Routing Between Capsules)翻译

我们观察到,一般来说,更多的路由迭代增加了网络容量,并倾向于过度适应训练数据集。图A.2展示了在Cifar10上当训练1次迭代的路由和3次迭代的路由胶囊训练损失的比较。由图A.2和图A.1的分析,我们建议对所有实验进行3次迭代。

图A.2:在cifar10数据集上的CapsuleNet的损失。每个训练步骤的批处理大小为128。具有3次路由迭代的CapsuleNet,能更快地优化损失,最终收敛到更低的损失。

胶囊间的动态路由(Dynamic Routing Between Capsules)翻译