论文笔记_S2D.23_2011-ICCV_DTAM: 稠密的实时跟踪和建图

基本情况

  • 引用:R. A. Newcombe, S. J. Lovegrove, and A. J. Davison, “DTAM: Dense tracking and mapping in real-time,” in ICCV, 2011.

 

介绍

DTAM是用于实时摄像机跟踪和重建的系统,它不依赖于特征提取,而是依赖于每个像素的稠密方法(dense, every pixel methods)。当单个手持RGB相机在静态场景上飞行时,我们估计选定关键帧处的详细纹理深度图,以产生具有数百万个顶点的表面拼凑而成。我们使用视频流中可用的数百个图像来提高简单光度数据项的质量,并在新颖的非凸优化框架中最小化全局空间正则化能量函数。同时,我们通过针对整个密集模型对整个图像进行帧速率对齐来精确跟踪摄像机的6DOF运动。我们的算法可高度并行化,并且DTAM使用当前的商用GPU硬件可实现实时性能。我们证明,与使用特征的最新方法相比,密集模型在快速运动下具有出色的跟踪性能;并且还展示了密集模型在物理增强的增强现实应用程序中用于实时场景交互的其他有用性。

提出了使用单个RGB相机进行实时稠密(Dense)定位和跟踪的方法。

目前流行的大多数VSLAM都是基于鲁棒的特征检测和跟踪,DTAM是基于单像素的方法,采用了在稠密地图(densemap)创建和相机位置估计都很有优势的低基线帧(lowbaseline frame)。像PATM一样,它分为两个部分:姿势跟踪和3d 映射。PTAM仅仅跟踪稀疏的3d点,DTAM保持了对关键帧的稠密深度映射(densedepth map)。

论文笔记_S2D.23_2011-ICCV_DTAM: 稠密的实时跟踪和建图

参考:啥是DTAM:DenseTracking&Mapping https://zhuanlan.zhihu.com/p/42137963?from_voters_page=true