sensors 中科院贺一家博士
首先看下图,点线特征融合VIO系统的观测示意图
![PL-VIO: Tightly-Coupled Monocular Visual–Inertial Odometry Using Point and Line Features PL-VIO: Tightly-Coupled Monocular Visual–Inertial Odometry Using Point and Line Features](/default/index/img?u=aHR0cHM6Ly9waWFuc2hlbi5jb20vaW1hZ2VzLzU2OC85ZTZiYTYzN2ZjNDliNzRiMDljZTE4NjU3MTg4MDRkOC5wbmc=)
IMU预积分
同VINS-Mono
线特征几何表示
1.普吕克坐标表示
![PL-VIO: Tightly-Coupled Monocular Visual–Inertial Odometry Using Point and Line Features PL-VIO: Tightly-Coupled Monocular Visual–Inertial Odometry Using Point and Line Features](/default/index/img?u=aHR0cHM6Ly9waWFuc2hlbi5jb20vaW1hZ2VzLzMwL2MwODI3Mjg5Yzc2YTM0OTcxMzkxY2Q3ODA1ZDkzNzc2LnBuZw==)
普吕克坐标表示用线特征方向向量和线特征与相机坐标系原点所构成的平面的法向量表示,如下所示
L=(n⊤,d⊤)⊤∈R6
可以看出普吕克坐标表示有6个*度,而实际线特征只有4个*度,因此存在过参数话的问题,这就导致了这种线特征表示不能直接用于无约束优化问题中,但是这种表示有个好处就是利于三角化,且对线特征几何变换易于建模。如下所示设世界坐标系到相机的变化矩阵为
Tcw=[Rcw0pcw1]
那么线特征从世界坐标系转化到当前相机坐标系就非常简单,如下所示
Lc=[ncdc]=TcvLw=[Rcw0[pcw]×RcwRcw]Lw
线特征的 “三角化”。根据文中的介绍也十分详细了。如上图(b)所示,可以根据线特征端点在c1系下的归一化坐标,以及两个相机原点相对于c1系的坐标(按理说c1帧对应的原点坐标是(0,0,0),c2的要根据变换矩阵中的相对平移知道)就可以根据下面的公式得到c1系下的两个平面π1、π2。
πx(x−x0)+πy(y−y0)+πz(z−z0)=0
⎣⎡πxπyπz⎦⎤=[sc1]×ec1,πw=πxx0+πyy0+πzz0
然后得到普吕克矩阵表示
L∗=[[d]×−n⊤n0]=π1π2⊤−π2π1⊤∈R4×4
最后可以从矩阵L∗中得到n和d。
2.正交表示
这种表示方式只有4个*度,主要在优化的过程中使用。表示为(U,W)
其中
U=R(ψ)=[∥n∥n∥d∥d∥n×d∥n×d]
ψ=[ψ1,ψ2,ψ3]⊤
W=[cos(ϕ)sin(ϕ)−sin(ϕ)cos(ϕ)]=(∥n∥2+∥d∥2)1[∥n∥∥d∥−∥d∥∥n∥]
因此在优化的过程中用下面的形式表示空间线特征
O=[ψ,ϕ]⊤
普吕克坐标表示和U矩阵的转换如下
[nd]=[∥n∥n∥d∥d∥n×d∥n×d]⎣⎡∥n∥000∥d∥0⎦⎤
一旦空间3D线用正交表示形式优化之后,其相应的普吕克坐标表示相应的可以通过下式计算
L′=[w1u1T,w2u2T]T=(∥n∥2+∥d∥2)1L
视惯紧耦合
下图是视觉VO系统与VIO系统的因子图对比
![PL-VIO: Tightly-Coupled Monocular Visual–Inertial Odometry Using Point and Line Features PL-VIO: Tightly-Coupled Monocular Visual–Inertial Odometry Using Point and Line Features](/default/index/img?u=aHR0cHM6Ly9waWFuc2hlbi5jb20vaW1hZ2VzLzg5OC9hNDg0NjAyNTUxMmU4ZTczMjY5Y2ZiYzFkNmNlMDAyYS5wbmc=)
本文采用基于滑窗的因子图优化算法,在i时刻滑窗内的所有状态量表示如下
X=[xn,xn+1,…,xn+N,λm,λm+1,…,λm+M,O0,O0+1,…,O0+O]⊤xi=[pwbi,iqwbi,viw,babi,bgbi]⊤,i∈[n,n+N]
总的目标函数如下
Xminρ(∥rp−JpX∥Σp2)+i∈B∑ρ(∥rb(zbibi+1,X)∥Σbibi+12)+(i,j)∈F∑ρ(∥∥∥rf(zfj′ci,X)∥∥∥Σijcici)+(i,l)∈L∑ρ(∥∥∥rl(zLi′ci,X)∥∥∥ΣLicici)
各个状态量的更新方式略,其中特别注意的是q,u,w的增量更新方式。
在优化过程中我们每次迭代都是求解下面的方程
(Hp+Hb+Hf+Hl)δX=(bp+bb+bf+bl)
其中
δXδxi=[δxn,δxn+1,…,δxn+N,δλm,δλm+1,…,δλm+M,δO0,δOo+1,…,δOo+O]⊤=[δp,δθ,δv,δbabi,δbgbi]⊤,i∈[n,n+N]
H矩阵是各个残差项相对状态量的雅克比矩阵计算出来的,下面则是各个残差项对应的雅克比矩阵的推导。
1.IMU测量模型
IMU预积分误差,同VINS-Mono
2.点特征测量模型
重投影误差,同VINS-Mono
3.线特征测量模型
线特征投影误差计算过程
O -> Lw -> Lci -> lci -> rl
其中
1=⎣⎡l1l2l3⎦⎤=Knc=⎣⎡fy0−fycx0fx−fxcy00fxfy⎦⎤nc
rl(zLlci,X)=[d(slci,llci)d(elci,llci)]
d(s,l)=l12+l22s⊤l
则线特征的投影误差相对状态量的雅克比矩阵可以由链式求导法则计算。
Jl=∂lci∂rl∂Lci∂lci[∂δxi∂Lci∂Lw∂Lci∂δO∂Lw]
其中
∂lci∂rl=⎣⎢⎢⎢⎡(l12+l22)(23)−l1(slci)⊤l+(l12+l22)(21)us(l12+l22)(23)−l1(el2)⊤l⊤l+(l12+l22)(21)ue(l12+l22)(23)−l2(slci)⊤l+(l12+l22)(21)vs(l12+l22)(23)−l2(el2)⊤l⊤+(l12+l22)(21)ve(l12+l22)(21)1(l12+l22)(21)1]2×3
![PL-VIO: Tightly-Coupled Monocular Visual–Inertial Odometry Using Point and Line Features PL-VIO: Tightly-Coupled Monocular Visual–Inertial Odometry Using Point and Line Features](/default/index/img?u=aHR0cHM6Ly9waWFuc2hlbi5jb20vaW1hZ2VzLzcxOC85MDk4MmQ3OWEyN2IwMzE5NjQyNDM0M2NiYTJlNzZlNi5wbmc=)
∂Lw∂Lci∂δO∂Lw=Twc−1[0w2u3−w1u30w1u2−w2u1−w2u1w1u2]6×4