深度学习中的卷积与转置卷积

深度学习中的卷积与转置卷积

1 卷积

深度学习中的卷积与转置卷积
输入平展为 16×1 的矩阵,并将卷积核转换为一个稀疏矩阵C(4×16)。然后,在稀疏矩阵和平展的输入之间使用矩阵乘法。之后,再将所得到的矩阵(4×1)转换为 2×2 的输出。

正向卷积将的feature map转换为了的feature map

2 转置卷积(反卷积)

深度学习中的卷积与转置卷积
将由卷积核转换的稀疏矩阵C进行转置得到CT,然后与4×1的output向量做乘法得到16×1的input向量,最后reshape为4×4。

转置卷积(反卷积)将的feature map转化为的feature map。

3 个人理解

对比使用权重矩阵的全连接,无论是卷积还是转置卷积,都可以看做是对全连接的一种参数压缩,用由卷积核变形而来的稀疏矩阵C代替了含有大量参数的权重矩阵(参数量直接缩减为卷积核的参数量),并且在参数量大量下降的情况下,卷积神经网络(CNN)依旧保持着良好的表达能力。