ERNIE-Layout是百度提出的跨模态文档理解模型,依托文心ERNIE,基于布局知识增强技术,融合文本、图像、布局等信息进行联合建模,能够对多模态文档(如文档图片、PDF文件、扫描件等)进行深度理解与分析,为各类上层应用提供SOTA模型底座。
主要创新
目的:增加Layout信息以及更好的组合文本(Text)、图像(Image)、布局(Layout)的特征信息。
- 输入:输入在序列化阶段,重新组织了输入序列(主要是顺序),引入了布局知识增强,融合文本、图像、布局等信息进行跨模态联合建模
- 预训练任务:提出阅读顺序预测、细粒度图文匹配等自监督预训练任务
- 模型:为了提高对Layout的感知能力,提出了一个Spatial-Aware disentangled Attention(空间解耦注意力机制)
输入
Text Embedding
- token embedding
- 1D position embedding
- token type embedding
Visual Embedding
- image embedding:先使用Fast-RCNN作为Encoder,图片resize为224224,得到77的feature,flaten之后经过F_vs(.)线性变换之后作为image embedding
- position embedding(1D)
- token type embedding(标记类型)
Layout Embedding
- Text Layout:OCR工具获取每个token的(x0, y0, x1, y1, w, h)
- Visual layout:OCR工具获取每个image segment的(x0, y0, x1, y1, w, h)
如何组合:
模型
Deberta中Disentangled Attention
模型还是采用了Transformer的结构,但是基于Deberta改进了Transformer的注意力机制,名为Spatial-aware Disentangled Attention Mechanism(空间感知接耦注意力机制),首先先介绍一下Deberta中的Disentangled Attention Mechanism,传统的Transformer的注意力机制中如下图所示,位置信息是通过在输入embedding中加入postion embedding, pos embedding与token embeding和segment embedding混在一起,在早期加入位置信息令模型在计算self-attention时,位置信息被弱化。
- : input hidden vectors,self-attention的输入
- : output of self-attention, self-attention的输出
- : projection matrices, 映射矩阵
- : attention matrix,注意力矩阵
- N是输入序列的长度,d是hidden states的维度
Disentangled Attention Mechanism引入了一个相对位置编码,比如将位置信息拆分出来,单独编码, 然后和token(content) embedding求attention,增加计算 “位置-内容” 和 “内容-位置” 注意力的Disentangled Attention。
左边紫色框中的是传统注意力中的Q、K、V,即内容相关的;右面蓝色框中是位置相关的:
: the relative position embedding vectors , 相对位置编码embedding向量矩阵
: projection matrices
: token i 到 j 的 Attention Score
: 的第 行
: 的第 行
这里的P是一个相对位置编码矩阵,这里的2k是怎么来的呢,假设 k 是最大相对距离,δ(i,j) 是 token i 到 j 的相对位置,定义如下,k默认是 512,也就是说相对距离的范围从 -512 到 512, P就是将i和j之间的相对位置(数字)映射成为d维的向量。
Spatial-aware Disentangled Attention Mechanism
有了上面Deberta的基础,Ernie-layout就比较好理解了,上面Deberta只有token的相对位置,Ernie-layout里设置了3个位置【1D位置、2D x轴、2D y轴】,设置了3个向量来嵌入表示这三个相对位置,分别是:
在looking up embedding表之后,一系列投影矩阵将这些相对位置向量以及内容向量映射为 Q K V,注意力解耦为四个部分:
最后,所有这些注意力分数被求和,得到注意力矩阵 Â。通过缩放和归一化操作
预训练任务
阅读顺序预测
序列化结果由多个文本片段组成,包括一系列单词和2D坐标。该论文提出了阅读顺序预测(ROP),希望注意力矩阵Â携带有关阅读顺序的知识。赋予了Âij额外的含义,即第i个标记的下一个标记是第j个标记的概率。此外,真值矩阵G(就是标注)是一个0-1矩阵,其中1表示两个标记之间存在阅读顺序关系,反之亦然。Loss用交叉熵计算,把attention赋予token j是否是i的下一个阅读顺序。标签是 0-1 矩阵G, 1 为两个token是阅读顺序,反之则为0。
替换区域预测
随机选择10%的图块,并用另一张图像中的图块替换,预测哪些图块是被替换的
其中 Gi 表示被替换补丁的标签,Pi 表示预测的归一化后的概率。
Masked Visual-Language Modeling
和普通的MLM一样,mask 一些token,并预测被mask的token。不同之处在于不mask掉layout信息,这代表着预测mask token时,模型知道位置信息。此外,为了避免视觉信息泄漏mask答案,对原始页面图像上对应于被掩蔽标记的图像区域进行掩蔽
文本-图像对齐
随机选择了一些文本行,并在文档图像上覆盖它们对应的区域。然后,引入了一个分类层来预测每个文本标记是否被覆盖。