CBAM: Convolutional Block Attention Module

509 阅读1分钟

ECCV 2018

Abstrct

作者提出一个卷积注意力模块,具体操作为通过对特征图在通道和空间维度上推理attention,再将attention map与feature map相乘得到优化后的特征图。该模块具有通用性,可以嵌入任何CNN框架中。

Introduction

CBAM用于从channel和spacial强调有意义的特征。 Screenshot from 2021-11-23 16-28-43.png

Related Work

Attention Mechanism

SE-Net计算了通道注意力,但作者表示channel是次要特征,spatial更重要。

Convolutional Block Attention Module

输入中间特征图FRCHWF\in{\mathbb{R^{C*H*W}}},CBMA依次推断出1D1Dchannel attention map McRC11M_c\in{\mathbb{R^{C*1*1}}}2D2Dspatial attention map