【DL】卷积膨胀 Dilation

Backto DeepLearning Index

dilation

dilation 是对 kernel 进行膨胀,多出来的空隙用 0 padding。用于克服 stride 中造成的 失真问题。
【DL】卷积膨胀 Dilation
对应关系是 kd=(k1)×d+1k_{d} = (k -1)\times d + 1, 对原始kernel 进行 d 倍 dilation 之后得到新的 kdk_d, kk 一般是奇数,dd 一般是偶数,从而保证了 kdk_d 也是奇数。注意,使用dilation的时候,先把 kk dilation 成 kdk_d, 去卷积运算,生成下一层的 feature map。但是参数存储的还是原始的 kk 的大小.
引入 dilation 的目的是 既想利用已经训练好的模型进行fine-tuning,又想改变网络结构得到更加dense的score map.. 如下图 p0-s0-d2

【DL】卷积膨胀 Dilation
这样最大的好处就是卷积核的参数没变(还是9个),但是感受野从 3x3 变成了 5x5. 虽然一个格子,计算的是5x5 感受野里的 99 个格子,但是卷积核整体看到了 7x7 的field,而不是 dilation 之前 5x5 的 field。

Ref