论文笔记DCFNET: Discriminant Correlation Filters Network For Visual Tracking

1. 论文标题及来源

DCFNET: Discriminant Correlation Filters Network For Visual Tracking, argXiv, 2017.
下载地址:https://arxiv.org/abs/1704.04057

2. 拟解决问题

a. 基于DCF的方法中使用手工标注的特征,例如HOG
b. 训练卷积网络的时候依赖于其它任务,例如分类

3. 解决方法

3.1 算法流程

论文笔记DCFNET: Discriminant Correlation Filters Network For Visual Tracking
a. 通过特征提取器提取target和search region的特征(注意target和search region同大小)
b. 将它们输入到相关滤波层得到热力图(跟踪时会在线更新)
c. 根据热力图得到目标

3.2 模型在线更新

在线跟踪过程中,我们只需要更新滤波器空间的傅里叶变换系数。所以传统的DCF优化问题可以写为一个增量模式

论文笔记DCFNET: Discriminant Correlation Filters Network For Visual Tracking
βt\beta_t表示xtx_t的贡献程度

同时,传统DCF闭式解也可以拓展到时间序列
论文笔记DCFNET: Discriminant Correlation Filters Network For Visual Tracking
作者把这个过程看成是RNN的更新过程,如下图所示
论文笔记DCFNET: Discriminant Correlation Filters Network For Visual Tracking

4. 实验结果

4.1 OTB2013&2015

论文笔记DCFNET: Discriminant Correlation Filters Network For Visual Tracking

4.2 VOT2015

论文笔记DCFNET: Discriminant Correlation Filters Network For Visual Tracking

4.3 消融实验

论文笔记DCFNET: Discriminant Correlation Filters Network For Visual Tracking
论文笔记DCFNET: Discriminant Correlation Filters Network For Visual Tracking

5. 总结

该算法利用孪生网络提取特征,然后全文几乎全是公式推导,它在OTB2013上的AUC是0.604;OTB2015上的AUC,TRE和SRE分别是0.575, 0.601和0.527。效果相对较差,甚至连16年的SiamFC都比不过。但是该算法真正实现了end-to-end训练。