论文阅读——Attention UNet
参考:https://blog.csdn.net/rosefun96/article/details/88868527
Attention coefficients(取值0~1)与feature map相乘,会让不相关的区域的值变小(抑制),target区域的值变大(Attention)。
这一部分是可导的,可以通过训练调节注意力系数的值。
Attention部分的代码:
参考:https://blog.csdn.net/rosefun96/article/details/88868527
Attention coefficients(取值0~1)与feature map相乘,会让不相关的区域的值变小(抑制),target区域的值变大(Attention)。
这一部分是可导的,可以通过训练调节注意力系数的值。
Attention部分的代码: