网易雷火 2019 春季人工智能工程师实习生笔试题

1. 定向选择、不定项选择和填空题

主要考察了卷积神经网络参数量计算、感知野计算、卷积后图像的大小计算、GAN 的损失函数、贝叶斯网络、L1 L2正则化、概率论、Python、Shell、数据库等知识,比较全面琐碎。

2. 编程题

网易雷火 2019 春季人工智能工程师实习生笔试题
网易雷火 2019 春季人工智能工程师实习生笔试题

详见 LeetCode 386——字典序的第 K 小数字

网易雷火 2019 春季人工智能工程师实习生笔试题
网易雷火 2019 春季人工智能工程师实习生笔试题

详见 LeetCode 845——数组中的最长山脉

3. 简答题

  • SVM 对偶问题推导

支持向量机的基本模型为
(1){min12w2s.t.yi(wTxi+b)1,i=1,2,...m\tag{1}\begin{cases} min \quad \frac{1}{2}||w||^2 \\ s.t. \quad y_i(w^Tx_i+b) \geqslant 1, \quad i=1,2,...m \end{cases}
对上式的约束添加拉格朗日乘子 αi0\alpha_i \geqslant 0,则该问题的拉格朗日函数可写为
(2)L(w,b,α)=12w2+i=1mαi(1yi(wTxi+b))\tag{2}L(w,b,\alpha)=\frac{1}{2}||w||^2+\sum_{i=1}^m\alpha_i(1-y_i(w^Tx_i+b))
L(w,b,α)L(w,b,\alpha)wwbb 的偏导为零可得
(3)w=i=1mαiyixi\tag{3}w=\sum_{i=1}^m\alpha_iy_ix_i
(4)0=i=1mαiyi\tag{4}0=\sum_{i=1}^m\alpha_iy_i
将 (3) 式代入到 (2) 式,并考虑 (4) 式的约束,就可以得到式 (1) 的对偶问题
(5){maxi=1mαi+i=1mj=1mαiαjyiyjxiTxjs.t.i=1mαiyi=0αi0,i=1,2,...m\tag{5}\begin{cases} max \quad \displaystyle \sum_{i=1}^m\alpha_i+\displaystyle \sum_{i=1}^m \sum_{j=1}^m\alpha_i \alpha_j y_iy_jx_i^Tx_j\\ s.t. \quad \displaystyle \sum_{i=1}^m\alpha_iy_i=0 \\ \quad \quad \alpha_i \geqslant 0, i=1,2,...m \end{cases}

  • Sigmoid 和 Relu 求导,Relu 相较 Sigmoid 优点,怎么解决梯度消失和爆炸

Sigmoid 函数
f(z)=11+ez f(z) = \frac{1}{1+e^{-z}}
f(z)=ez(1+ez)2=11+ezez1+ez=f(z)(1f(z)) f'(z) = \frac{e^{-z}}{(1+e^{-z})^2} = \frac{1}{1+e^{-z}} \cdot \frac{e^{-z}}{1+e^{-z}}=f(z) \cdot (1-f(z))

Relu 函数
f(z)=max(0,z) f(z) = max(0, z)
f(z)={1if z>00if z<0 f'(z) =\begin{cases} 1 &\text{if } z>0 \\ 0 &\text{if } z<0 \\ \end{cases}

Relu 相较 Sigmoid 梯度较大,神经网络收敛速度较快。

梯度消失:BN、引入残差网络
梯度爆炸:BN、梯度裁剪

  • Dropout 为什么可以正则化,怎么反向传播

Dropout 每次会让一部分神经元随机失活,这样就不会让某一个神经元占据主导作用,也就是不会让某一个神经元的权重过大,从而可以避免过拟合。反向传播的时候我们只将梯度反向传播到那些**的神经元上去即可。

获取更多精彩,请关注「seniusen」!
网易雷火 2019 春季人工智能工程师实习生笔试题