Numerical Optimization之信任域方法——Dogleg

上文中提到的近似柯西方向是延梯度方向下降一定步长,但是没有充分利用B矩阵,为此DOgleg 方法,当PB在信赖域中时利用PB,否则的话利用梯度方向下降一定步长,并且下降步长的计算方法也有所不同:
在柯西方法中是τΔ/g\tau\Delta/||g||,而Dogleg 中下降步长a=gTggTBga=-\frac{g^Tg}{g^TBg}Numerical Optimization之信任域方法——Dogleg
Numerical Optimization之信任域方法——Dogleg
Numerical Optimization之信任域方法——Dogleg

Numerical Optimization之信任域方法——Dogleg
PkBP_k^B是全局最优点,如果其在可行域当中的话,理所当然,我们应将它作为更新步
Numerical Optimization之信任域方法——Dogleg
Numerical Optimization之信任域方法——Dogleg
省支二次项后沿梯度方向下降最快,下降步长为Δ\Delta
Numerical Optimization之信任域方法——Dogleg
Numerical Optimization之信任域方法——Dogleg
Numerical Optimization之信任域方法——Dogleg
说明:令f=xgT+12xTBxf=xg^T+\frac{1}{2}x^TBxg=dfdx=g+BTxg=\frac{df}{dx}=g+B^Tx,可以计算出PUP^U

Numerical Optimization之信任域方法——Dogleg
Numerical Optimization之信任域方法——Dogleg
由引理知,当P(τ)P(\tau)与信赖域相交时(),则取得最优的P(τ)P(\tau)
因此以下有三种情况:即PU在外部,PB在内部,PB在外部且PU在内部
Numerical Optimization之信任域方法——Dogleg
部分来源于
Numerical Optimization之信任域方法——Dogleg

拓展:二维子空间方法:即在PUP^U,PBP^B形成的子空间中,寻找最佳的P,
未知量是关于β,α\beta,\alpha,代入目标函数中,求出这两个变量便可以求出最佳的P,由于在空间中搜索,待定的P的选择性增多
Numerical Optimization之信任域方法——Dogleg
Numerical Optimization之信任域方法——Dogleg