ECCV 2018
Abstrct
作者提出一个卷积注意力模块,具体操作为通过对特征图在通道和空间维度上推理attention,再将attention map与feature map相乘得到优化后的特征图。该模块具有通用性,可以嵌入任何CNN框架中。
Introduction
CBAM用于从channel和spacial强调有意义的特征。
Related Work
Attention Mechanism
SE-Net计算了通道注意力,但作者表示channel是次要特征,spatial更重要。
Convolutional Block Attention Module
输入中间特征图,CBMA依次推断出channel attention map 和spatial attention map