来吹一波siamMask(神经网络Mask追踪,Ubuntu+Conda+PyTorch)

最近写了个手持物体追踪的专利,深刻感受到mask轮廓在追踪中起到的作用,无巧不巧,CVPR2019出了一篇融合分割功能的追踪框架的文章,并且开源了代码,所以跑了一下代码,觉得又一标注利器到手,2333

先来看看效果(可以对比之前GoTurn的文章,完全吊打)

dlib追踪测试(这个倒还简单)实测GTX1060 33fps...

来吹一波siamMask(神经网络Mask追踪,Ubuntu+Conda+PyTorch)

行人追踪效果(虽然丢了不少,但请去看看GoTurn的效果)

来吹一波siamMask(神经网络Mask追踪,Ubuntu+Conda+PyTorch)

 

===========原理==============

融合了视频分割的框架进行追踪,详细的可以看论文

只需要在第一帧给出物体的bounding box,之后会对物体进行追踪并持续分割物体

来吹一波siamMask(神经网络Mask追踪,Ubuntu+Conda+PyTorch)

来吹一波siamMask(神经网络Mask追踪,Ubuntu+Conda+PyTorch)

============环境配置===========

下面就是你们要的环境配置

首先,Windows是不能直接跑起来的,除非你自己编译一个python能调的dll....(一把辛酸泪)

然后是Ubuntu的配置流程:

首先亮Git,英文阅读能力强的朋友可以直接按照官方的教程进行配置,不排除代码之后有所改动

1.下载项目

git clone https://github.com/foolwood/SiamMask.git && cd SiamMask
export SiamMask=$PWD

2.下载训练好的模型

cd $SiamMask/experiments/siammask
wget -q http://www.robots.ox.ac.uk/~qwang/SiamMask_VOT.pth
wget -q http://www.robots.ox.ac.uk/~qwang/SiamMask_DAVIS.pth

3.配置环境(conda+pyTorch)

都写在了requirements里了,良心不良心

conda create -n siammask python=3.6
source activate siammask
pip install -r requirements.txt
bash make.sh

如果make.sh出问题的话,直接复制出来运行一下就好

 

4.测试

cd $SiamMask/experiments/siammask
export PYTHONPATH=$PWD:$PYTHONPATH
python ../../tools/demo.py --resume SiamMask_DAVIS.pth --config config_davis.json

5.效果

来吹一波siamMask(神经网络Mask追踪,Ubuntu+Conda+PyTorch)

拓展阅读(更多动图)

新智元文章:

https://baijiahao.baidu.com/s?id=1627432661257652978&wfr=spider&for=pc

有问题欢迎留言交流,233