目标检测算法之AAAI 2020 DIoU Loss 已开源(YOLOV3涨近3个点)

目标检测算法之AAAI 2020 DIoU Loss 已开源(YOLOV3涨近3个点)

我们先来回顾一下IoU Loss和GIoU Loss。IoU Loss可以表示为:LIoU=1BBstBBstL_{I o U}=1-\frac{\left|B \cap B^{s t}\right|}{\left|B \cup B^{s t}\right|},从IoU的角度来解决回归损失,但它的缺点是当两个框不想交时,IOU-Loss始终为1,无法给出优化方向。因此GIoU来了,GIoU可以用下面的公式表示:LGIoU=1IoU+CBBgtCL_{G I o U}=1-I o U+\frac{\left|C-B \cup B^{g t}\right|}{|C|} ,可以看到GIoU在IoU的基础上添加了一项,其中表示包含两个框的最小矩形,这样就可以优化两个框不相交的情况。但GIoU仍然存在一个问题是,当两个框相交时,GIoU损失退化为了IoU损失。导致在预测框bbox和ground truth bbox包含的时候优化变得非常困难,特别是在水平和垂直方向收敛难。这里一个猜想是在水平和垂直方向,值的增长没有在其他方向快,因此对这两个方向的惩罚力度不够,导致放慢了收敛速度。如论文的Figure2和Fiigure4所示:
目标检测算法之AAAI 2020 DIoU Loss 已开源(YOLOV3涨近3个点)
目标检测算法之AAAI 2020 DIoU Loss 已开源(YOLOV3涨近3个点)
同时为了更加形象的说明这一点,我们看一下论文的Figure1:
目标检测算法之AAAI 2020 DIoU Loss 已开源(YOLOV3涨近3个点)
其中Figure1中的上面3张图表示GIoU的回归过程,其中绿色框为目标框,黑色框为Anchor,蓝色框为不同迭代次数后,Anchor的偏移结果。第2行的3张图则表示了DIoU的回归过程。从图中可以看到,在GIoU的回归过程中,从损失函数的形式我们发现,当IoU为0时,GIoU会先尽可能让anchor能够和目标框产生重叠,之后GIoU会渐渐退化成IoU回归策略,因此整个过程会非常缓慢而且存在发散的风险。而DIoU考虑到anchor和目标之间的中心点距离,可以更快更有效更稳定的进行回归。
基于上诉分析,作者提出了如下两个问题:

一,直接最小化Anchor和目标框之间的归一化距离以达到更快的收敛速度是否可行?
二,如何使回归损失在与目标框有重叠甚至有包含关系时更准确,收敛更快?
论文为了解决第一个问题,提出了Distance-IoU Loss(DIoU Loss)
目标检测算法之AAAI 2020 DIoU Loss 已开源(YOLOV3涨近3个点)
这个损失函数中b和bgtb^{g t},分别代表了Anchor框和目标框的中心点,代表计算两个中心点的欧式距离,c代表的是可以同时覆盖Anchor框和目标框的最小矩形的对角线距离。因此DIoU中对Anchor框和目标框之间的归一化距离进行了建模。直观展示如Figure 5所示:目标检测算法之AAAI 2020 DIoU Loss 已开源(YOLOV3涨近3个点)
DIoU Loss的优点如下:

1、和GIoU Loss类似,DIoU Loss在和目标框不重叠时,仍然可以为边界框提供移动方向。
2、DIoU Loss可以直接最小化两个目标框的距离,因此比GIoU Loss收敛快得多。
3、对于包含两个框在水平方向和垂直方向上这种情况,DIoU Loss可以使回归Loss 下降非常快,而GIoU Loss几乎退化为IoU Loss。

CIoU Loss

为了回答第二个问题,作者提出了Complete-IoU Loss。一个好的目标框回归损失应该考虑三个重要的几何因素:重叠面积,中心点距离,长宽比。GIoU为了归一化坐标尺度,利用IOU并初步解决了IoU为0无法优化的问题。然后DIoU损失在GIoU Loss的基础上考虑了边界框的重叠面积和中心点距离。所以还有最后一个点上面的Loss没有考虑到,即Anchor的长宽比和目标框之间的长宽比的一致性。基于这一点,论文提出了CIoU Loss。
LCIoU=1IoU+ρ2(b,bgt)c2+αv\mathcal{L}_{C I o U}=1-I o U+\frac{\rho^{2}\left(\mathbf{b}, \mathbf{b}^{g t}\right)}{c^{2}}+\alpha\boldsymbol{v}
从上面的损失可以看到,CIoU比DIoU多了α\alphav\boldsymbol{v}这两个参数。其中α\alpha是用来平衡比例的系数,v\boldsymbol{v}是用来衡量Anchor框和目标框之间的比例一致性。它们的公式如下:
v=4π2(arctanwgthgtarctanwh)2v=\frac{4}{\pi^{2}}\left(\arctan \frac{w^{g t}}{h^{g t}}-\arctan \frac{w}{h}\right)^{2}
α=v(1IoU)+v\alpha=\frac{v}{(1-I o U)+v}
然后在对wwhh求导的时候,公式如下:
vw=8π2(arctanwgthgtarctanwh)×hw2+h2\frac{\partial v}{\partial w}=\frac{8}{\pi^{2}}\left(\arctan \frac{w^{g t}}{h^{g t}}-\arctan \frac{w}{h}\right) \times \frac{h}{w^{2}+h^{2}}
vh=8π2(arctanwgthgtarctanwh)×ww2+h2\frac{\partial v}{\partial h}=-\frac{8}{\pi^{2}}\left(\arctan \frac{w^{g t}}{h^{g t}}-\arctan \frac{w}{h}\right) \times \frac{w}{w^{2}+h^{2}}
因为w2+h2w^{2}+h^{2}这一项在计算的时候会变得很小,因为w,h,的取值范围是[0,1]。而在回归问题中回归很大的值是很难的,因此一般都会对原始的,分别处以原图像的长宽。所以论文直接将w2+h2w^{2}+h^{2}设为常数1,这样不会导致梯度的方向改变,虽然值变了,但这可以加快收敛。

α\alpha的定义式来看,损失函数会更加倾向于往重叠区域增多的方向优化,尤其是IoU为0的情况,这满足我们的要求。同时,在进行nms阶段,一般的评判标准是IOU,这个地方作者推荐替换为DIOU,这样考虑了中心点距离这一个信息,效果又有一定的提升。
si={si, IoU RDIoU(M,Bi)<ε0,IoURDIoU(M,Bi)εs_{i}=\left\{\begin{array}{l}s_{i}, \text { IoU }-\mathcal{R}_{\text {DIoU}}\left(\mathcal{M}, B_{i}\right)<\varepsilon \\ 0, \quad \text {IoU}-\mathcal{R}_{\text {DIoU}}\left(\mathcal{M}, B_{i}\right) \geq \varepsilon\end{array}\right.