论文品读:Learning both Weights and Connections for Efficient Neural Networks
https://arxiv.org/abs/1506.02626v3
这是一篇关于模型压缩的15年文章,到目前为止(18年11月)有450的被引
文章介绍了一种参数剪枝(weights pruning)方法,应该算是最基础的一种方法了,直接按照参数是否大于某个阈值来判断哪些参数是重要的,哪些参数是不重要。
在不降低精度的前提下,在VGG-16上取得了13倍的参数压缩率,从138M个参数到10.8M个参数。