第十二篇:向量化的更多例子

第十二篇:向量化的更多例子

1、在上节课程中,我们知道通过numpy内置函数和避开显式循环(loop)的方式进行量化,从而有效提高代码的速度。

2、经验提醒我,当我们在写神经网络程序时,或者在写逻辑(logistic)回归,或者其他神经网络模型时,应该避免写循环(loop)语句。虽然有时写循环(loop)是不可避免的,但是我们可以使用比如numpy的内置函数或者其他办法去计算。当你这样使用后,程序效率总是快于循环(loop)。

3、举个实例:

  • 计算向量u=Av, 这时矩阵的乘法定义为:第十二篇:向量化的更多例子 = 第十二篇:向量化的更多例子第十二篇:向量化的更多例子第十二篇:向量化的更多例子;

使用非向量化实现:

         u = np. zeros(n,1), 并且通过两层循环for(i):for(j):, 得到 u[i] = u[i] + A[i][j] * v[j]

使用向量化实现:

        u=np.dot(A, v),通过这种向量化的实现方式,消除了两层循环,使得代码运行速度更快;

  • 如果你已经有一个向量 v, 并且想要对向量化 v 的每个元素做指数操作,得到向量 u 等于 e 的 v1,e 的 v2,一直到 e 的 vn次方。即:

                                       第十二篇:向量化的更多例子

使用非向量化的实现方式:

                      u = np. zeros((n,1))

                      for  in  range (n):

                            u[i] = math.exp (v[i])

 

使用向量化的实现方式:

                import numpy as np

                u = np. exp(v)

 

    第十二篇:向量化的更多例子

 将向量化运用在逻辑回归的梯度下降上

  非向量化的实现方式:

                       第十二篇:向量化的更多例子

向量化实现方式:

                      第十二篇:向量化的更多例子