Yolo系列:Yolo_v3
YOLOv3: An Incremental Improvement
一、改进点
1、Bounding Box Prediction
对于每个anchor box预测值为: 4 + 1 + C。
4 表示anchor box的中心点坐标、框高及框长同Yolo_v2,训练损失使用平方误差损失计算。
1 表示anchor box是否有物体的置信分数(objectness score),使用logistic函数计算。如果某一个anchor box与图像中某一目标IOU值最大,则该anchor boxe的 objectness score ground truth label = 1;与rpn网络不同,本文中每个目标仅匹配IOU值最大的anchor box,即每个ground truth box仅匹配一个anchor box,没有匹配任何ground truth box的 anchor box则 objectness score ground truth label = 0,并且仅贡献objectness score分类损失,无坐标回归损失和class prediction 分类损失。
C 表示class prediction。本文中不使用多分类的softmax损失计算,而是对每个类别计算单独的二分类交叉熵损失。
2、 Predictions Across Scales
类似FPN网络,文中引入多尺度特征融合的结构。具体地,使用三个不同大小Scale,在每个Scale的特征的grid cell上设定三个anchor box,对三个anchor box分别预测框位置及相应得分,最后将三个Scale上预测值拼接融合。
3、基网络改进
基网络由Darknet-19改进为Darknet-53。网络更深,精度更高。
二、补充
1、作者尝试了Focal loss,但是MAP降了2%。