1.12 梯度的数值逼近-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授

梯度的数值逼近 (Numerical Approximation of Gradients)

在实施backprop时,有一个测试叫做梯度检验,它的作用是确保backprop正确实施。因为有时候,你虽然写下了这些方程式,却不能100%确定,执行backprop的所有细节都是正确的。为了逐渐实现梯度检验,我们首先说说如何计算梯度的数值逼近,下节课,我们将讨论如何在backprop中执行梯度检验,以确保backprop正确实施。

1.12 梯度的数值逼近-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授

我们先画出函数 ff ,标记为 f(θ)f(\theta)f(θ)=θ3f(\theta)=\theta^3 ,先看一下 θ\theta 的值,假设 θ=1\theta=1 ,不增大 θ\theta 的值,而是在 θ\theta 右侧,设置一个 θ+ϵ\theta+\epsilon ,在 θ\theta 左侧,设置 θϵ\theta-\epsilon 。因此 θ=1\theta=1θ+ϵ=1.01\theta+\epsilon=1.01 , θϵ=0.99\theta-\epsilon=0.99 ,跟以前一样, ϵ\epsilon 的值为0.01,看下这个小三角形,计算高和宽的比值,就是更准确的梯度预估,选择 ff 函数在 θϵ\theta-\epsilon 上的这个点,用这个较大三角形的高比上宽,技术上的原因我就不详细解释了,较大三角形的高宽比值更接近于 θ\theta 的导数,把右上角的三角形下移,好像有了两个三角形,右上角有一个,左下角有一个,我们通过这个绿色大三角形同时考虑了这两个小三角形。所以我们得到的不是一个单边公差而是一个双边公差。

1.12 梯度的数值逼近-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授

我们写一下数据算式,图中绿色三角形上边的点的值是 f(θ+ϵ)f(\theta+\epsilon) ,下边的点是 f(θϵ)f(\theta-\epsilon) ,这个三角形的高度是 f(θ+ϵ)f(θϵ)f(\theta+\epsilon)-f(\theta-\epsilon) ,这两个宽度都是 εε ,所以三角形的宽度是 2ϵ2\epsilon ,高宽比值为 f(θ+ϵ)f(θϵ)2ϵ\frac{f(\theta+\epsilon)-f(\theta-\epsilon)}{2\epsilon} ,它的期望值接近 g(θ)g(\theta)f(θ)=θ3f(\theta)=\theta^3 传入参数值, f(θ+ϵ)f(θϵ)2ϵ=(1.01)3(0.99)320.01\frac{f(\theta+\epsilon)-f(\theta-\epsilon)}{2\epsilon}=\frac{(1.01)^3-(0.99)^3}{2*0.01} ,大家可以暂停视频,用计算器算算结果,结果应该是3.0001,而前面一张幻灯片上面是,当 θ=1\theta=1 时, g(θ)=3θ2=3g(\theta)=3\theta^2=3 ,所以这两个值非常接近,逼近误差为0.0001,前一张幻灯片,我们只考虑了单边公差,即从 θ\thetaθ+ϵ\theta+\epsilon 之间的误差, g(θ)g(\theta) 的值为3.0301,逼近误差是0.03,不是0.0001,所以使用双边误差的方法更逼近导数,其结果接近于3,现在我们更加确信, g(θ)g(\theta) 可能是 ff 导数的正确实现,在梯度检验和反向传播中使用该方法时,最终,它与运行两次单边公差的速度一样,实际上,我认为这种方法还是非常值得使用的,因为它的结果更准确。

1.12 梯度的数值逼近-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授

这是一些你可能比较熟悉的微积分的理论,如果你不太明白我讲的这些理论也没关系,导数的官方定义是针对值很小的 ϵ\epsilon ,导数的官方定义是 f(θ)=f(θ+ϵ)f(θϵ)2ϵf^\prime(\theta)=\frac{f(\theta+\epsilon)-f(\theta-\epsilon)}{2\epsilon} ,如果你上过微积分课,应该学过无穷尽的定义,我就不在这里讲了。

对于一个非零的 ϵ\epsilon ,它的逼近误差可以写成 O(ϵ2)O(\epsilon^2)εε 值非常小,如果 ϵ=0.01\epsilon=0.01ϵ2=0.0001\epsilon^2=0.0001 ,大写符号 OO 的含义是指逼近误差其实是一些常量乘以 ϵ2\epsilon^2 ,但它的确是很准确的逼近误差,所以大写 OO 的常量有时是1。然而,如果我们用另外一个公式逼近误差就是 O(ϵ)O(\epsilon) ,当 ϵ\epsilon 小于1时,实际上 ϵ\epsilonϵ2\epsilon^2 大很多,所以这个公式近似值远没有左边公式的准确,所以在执行梯度检验时,我们使用双边误差,即 f(θ+ϵ)f(θϵ)2ϵ\frac{f(\theta+\epsilon)-f(\theta-\epsilon)}{2\epsilon} ,而不使用单边公差,因为它不够准确。

1.12 梯度的数值逼近-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授

如果你不理解上面两条结论,所有公式都在这儿,不用担心,如果你对微积分和数值逼近有所了解,这些信息已经足够多了,重点是要记住,双边误差公式的结果更准确,下节课我们做梯度检验时就会用到这个方法。

今天我们讲了如何使用双边误差来判断别人给你的函数 g(θ)g(\theta) ,是否正确实现了函数 ff 的偏导,现在我们可以使用这个方法来检验反向传播是否得以正确实施,如果不正确,它可能有bug需要你来解决。

课程PPT

1.12 梯度的数值逼近-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
1.12 梯度的数值逼近-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授