「这是我参与2022首次更文挑战的第26天,活动详情查看:2022首次更文挑战」。
最近偶然接触了苏剑林大佬所提的稀疏版的多标签分类交叉熵损失函数,觉得十分有意思,并且github上鲜有代码,于是使用了pytorch进行复现,并将相关学习过程记录在此。
大佬博客:
从单标签到多标签
在上篇文章中已经介绍过了处理常规多分类问题(也就是单标签分类)的基本操作——softmax和交叉熵损失函数,那么什么是多标签分类呢?
单标签分类是从n
个候选类别中选取一个1
个目标类别进行分类,损失函数的优化目标则是使目标类别的得分最大,可以参考上篇文章的交叉熵损失函数;
对于多标签分类,我们从n
个候选类别中选取k
个目标类别(当做正例,即是与不是的问题),换种理解就是我们同时进行n
个二分类任务。
直观上,我们可以直接选择使用sigmoid
激活,使用二分类的交叉熵之和作为loss,然而当n>>k
时,会有很严重的类别不均衡问题,当k极小时,网络只需要简单将结果全部预测为负例也可以得到很小的loss值;但是单标签分类中,k=1并没有这种类别不均衡的问题,因为我们使用了softmax
,使得交叉熵能够不偏不倚的对每个预测获得合适的损失。
因此,一种直觉上的思路是多标签分类的损失函数可以有softmax进行外推,换言之,当k=1时,该损失函数会退化成softmax。
组合softmax
苏剑林大佬首先考虑了k
固定的情形,显然推理时我们只需要输出得分的top-k即可,那么训练时的loss怎么办呢?
类比单标签的n
选1
,我们可以将多标签表示为选1,这样便得到其loss应该为:
上式最难计算的地方便是分母,苏剑林大佬提出利用牛顿恒等式来简便计算,设,可得:
我们不在这里过度纠结,说一些苏剑林大佬没有说的,回到这个loss本身的形式,其与softmax的形式几乎完全一致,只不过对象从一个变为了一组,仔细分析一下就会发现一个问题:
对于softmax,我们希望目标的变的足够大,而其他的足够小,而对上式来说,我们希望这一组的和变的足够大,但是如果其中的一个变得足够大,loss也会变得足够小,这时候优化便停止了。
在此我尝试进行证明:
注意到上式其实是LogSumExp,而LogSumExp是Max函数的光滑近似,因此loss就可以变形为:
因此,当其中的一个变得足够大,即使同一组中其他的都很小,loss也会变得足够小。
不确定的k
通常在多标签分类任务中,其输出的个数往往是不固定的,因此确定了一个最大目标标签数K,使用0标签作为填充,输出的标签数不会多于K,这样loss就变为:
这样的做就是为了过滤掉得分小于S_0的标签,比如我们只需要输出2个标签,最大目标标签数为10,制作标签时我们只需要添加相应的标签,剩下8位使用0标签填充,这是一个无效的标签(但是网络需要预测这个标签,即将num_classes变为num_classes+1,不然推理时依然无法输出不固定个数的标签),允许重复输出,推理时照样输出topK,但是将其中的0标签去除,同样可以使用递归求解,这里不再赘述。
统一的loss形式
苏剑林大佬在验证上述loss的有效性的同时请教了另外一些大佬,发现了Circle Loss(有时间就看)里统一的loss形式,意识到了这个统一形式蕴含了一个更简明的推广方案,并且Circle Loss的作者也曾说过上述方法的错误性:www.zhihu.com/question/38…。
统一的loss形式如下:
上述公式将正例和负例分开进行计算,我们将交叉熵函数也写成类似的形式:
这个公式是不是十分眼熟,这就是前面所提到的LogSumExp函数,Max的光滑近似,先来说说其推导过程吧。
LogSumExp
参考:
www.johndcook.com/blog/2010/0…
当时:
为了近似表示max函数,我们可以先寻找绝对值的近似函数,绝对值函数的导数如下:
我们使用单位阶跃函数来进行近似:
我们可以通过的近似函数来近似max函数。在物理中其常用近似是:
将该式带入(5)式,积分可得:
这样便可以得到max的近似公式:
由于,和趋近于0,可以进一步化简为:
并且上式满足任意实数,同时甚至可以推广到多变量:
但是这里的k应该趋向于正无穷,和LogSumExp有什么关系呢?
在模型中,我们通常将K设置为1,这等价于把KK融合到模型自身之中,让模型自身决定K的大小。
统一loss形式下的交叉熵函数
我们只需注意这个式子,他能说明softmax+交叉熵损失函数为什么有效。
通过上文我们已经知道了上式是max的光滑近似,所以这个式子便等效于求其他非目标类别与目标类别之间的差值的最大值,并且希望让这个最大值能够小于0,因为目标类别的分数减去自身等于0,这样便可以保证目标类别得分都大于非目标类别。
多标签分类
我们在前面已经得到了统一形式下的交叉熵函数,我们仿照其形式将目标分为正例和负例,可得下式:
当k固定式,可直接使用上式,如果k不确定,我们按照之前的方法添加一个额外的0类,希望目标的分数都大于s_0,非目标的分数都小于s_0,可得下式:
如果指定阈值为0,可化简为:
因此这里训练时就不需要额外的添加一个类了,下面给出了代码实现:
def multilabel_categorical_crossentropy(y_true, y_pred):
"""多标签分类的交叉熵
说明:y_true和y_pred的shape一致,y_true的元素非0即1,
1表示对应的类为目标类,0表示对应的类为非目标类。
警告:请保证y_pred的值域是全体实数,换言之一般情况下y_pred
不用加激活函数,尤其是不能加sigmoid或者softmax!预测
阶段则输出y_pred大于0的类。如有疑问,请仔细阅读并理解
本文。
"""
y_pred = (1 - 2 * y_true) * y_pred # 将正例乘以-1,负例乘以1
y_pred_neg = y_pred - y_true * 1e12 # 将正例变为负无穷,消除影响
y_pred_pos = y_pred - (1 - y_true) * 1e12 # 将负例变为负无穷
zeros = torch.zeros_like(y_pred[..., :1])
y_pred_neg = torch.cat([y_pred_neg, zeros], dim=-1) # 0阈值
y_pred_pos = torch.cat([y_pred_pos, zeros], dim=-1)
neg_loss = torch.logsumexp(y_pred_neg, dim=-1)
pos_loss = torch.logsumexp(y_pred_pos, dim=-1)
return neg_loss + pos_loss
稀疏版多标签分类交叉熵
多标签分类交叉熵不仅仅可以用于多标签分类任务,很多任务都可以使用,只要满足是n选k即可,苏剑林大佬给出了一个例子Global pointer,在cv领域,比如说代替目标检测的focal loss。
当某些任务中正负例极不均衡(这里是正例远远小于负例),并且标签尺寸十分巨大时,我们可以更换策略:
负例的loss可以写为全集减去正例,这样制作标签时我们就只需要保存正例的标签,训练时通过正例标签直接索引进行计算即可,作者经过实验发现在Global Pointer上训练速度提高1.5倍并且精度不会下降。
作者给出了TensorFlow的代码,然而网络上却找不到Pytorch版本的代码,因此我尝试进行了复现,并且发布在我的github上:github.com/Asthestarsf…
def sparse_multilabel_categorical_crossentropy(label: Tensor, pred: Tensor, mask_zero=False, reduction='none'):
"""Sparse Multilabel Categorical CrossEntropy
Reference: https://kexue.fm/archives/8888, https://github.com/bojone/bert4keras/blob/4dcda150b54ded71420c44d25ff282ed30f3ea42/bert4keras/backend.py#L272
Args:
label: label tensor with shape [batch_size, n, num_positive] or [Batch_size, num_positive]
should contain the indexes of the positive rather than a ont-hot vector
pred: logits tensor with shape [batch_size, m, num_classes] or [batch_size, num_classes], don't use acivation.
mask_zero: if label is used zero padding to align, please specify make_zero=True.
when mask_zero = True, make sure the label start with 1 to num_classes, before zero padding.
"""
zeros = torch.zeros_like(pred[..., :1])
pred = torch.cat([pred, zeros], dim=-1)
if mask_zero:
infs = torch.ones_like(zeros) * float('inf')
pred = torch.cat([infs, pred[..., 1:]], dim=-1)
pos_2 = batch_gather(pred, label)
pos_1 = torch.cat([pos_2, zeros], dim=-1)
if mask_zero:
pred = torch.cat([-infs, pred[..., 1:]], dim=-1)
pos_2 = batch_gather(pred, label)
pos_loss = torch.logsumexp(-pos_1, dim=-1)
all_loss = torch.logsumexp(pred, dim=-1)
aux_loss = torch.logsumexp(pos_2, dim=-1) - all_loss
aux_loss = torch.clip(1 - torch.exp(aux_loss), 1e-16, 1)
neg_loss = all_loss + torch.log(aux_loss)
loss = pos_loss + neg_loss
if reduction == 'mean':
return loss.mean()
elif reduction == 'sum':
return loss.sum()
elif reduction == 'none':
return loss
else:
raise Exception('Unexpected reduction {}'.format(self.reduction))
对其中的要点进行讲解:
- 当标签需要使用zero padding来对齐时,需要将标签的值加一;
- 指定mask_zero为True,因为会通过label在pred中索引出正例,填充的0值会造成影响,因此在pred最前面concat一个无穷的量,输入LogSumExp进行计算时其结果为0。
- 关于是否要将类别数由num_classes改为num_classes+1,我认为是不需要的,因为该loss已经显式的使用0来表示我们需要的额外类别数的得分,并且通过之前的分析,可以很直观的看到(6)式的目的其实就是为了让正例得分大于0,负例得分小于0,推理时直接输出得分大于0的类别即可。
另外,pytorch没有batch_gather的API,因此根据loss的要求简单实现了一个:
def batch_gather(input: Tensor, indices: Tensor):
"""
Args:
input: label tensor with shape [batch_size, n, L] or [batch_size, L]
indices: predict tensor with shape [batch_size, m, l] or [batch_size, l]
Return:
Note that when second dimention n != m, there will be a reshape operation to gather all value along this dimention of input
if m == n, the return shape is [batch_size, m, l]
if m != n, the return shape is [batch_size, n, l*m]
"""
if indices.dtype != torch.int64:
indices = torch.tensor(indices, dtype=torch.int64)
results = []
for data, indice in zip(input, indices):
if len(indice) < len(data):
indice = indice.reshape(-1)
results.append(data[..., indice])
else:
indice_dim = indice.ndim
results.append(torch.gather(data, dim=indice_dim-1, index=indice))
return torch.stack(results)