关于Visualizing and understanding convolutional networks的一次报告
我就直接上传我做的ppt以及ppt的讲义吧,可能有些混乱,权当参考。如果有问题可以留言讨论。
好像只能有传资源的模式,如果没有积分可以直接私信我邮箱,我发给你。
ppt+讲义下载
关于这次报告陆陆续续也找了不少资料,但是还存在一点疑问:
究竟文字的deconv方法是在重构input(x)还是在求y对x的偏导?
有意思的地方是在cs课程里面,将deconv方法和bp的梯度进行了对比,如图:
我们可以看出deconv肯定不是bp的,他们的不同在于,a=f(z)
在进行梯度的时候反向乘以的是f'(z)
而deconv则是对传回来的梯度进行relu。课程中给出的解释是通过正**,抑制负**。
这里的正**就是传回来的数值是正数,负**是负数。 可是对于正**和负**的解释,我还有些疑惑。正导数好像只能说明梯度递增?为什么他能够代表着x**了y?
而且进一步这里的对比是说明了deconv是对计算偏导的一种改进方法嘛?也就是说deconv也是在算怎样的x最大**了y?
但是论文中不断地提到了reconstructions一词,而且可视化的结果也很像x中的某一块。
总的来说论文有很多我觉得没有说清楚的地方~也有可能是我没有看明白,但是这篇论文的学习可能就到此为止了。
下面给出一个code链接,是我觉得比较简单的,keras实现的。code参考
希望有大牛可以告知一下我的疑惑,谢谢了~~