[深度学习编程细节-5]:softmax 和logsoftmax 注意事项

96 阅读1分钟

[深度学习编程细节-5]:softmax 和logsoftmax 注意事项

本专题会分享一些我自己的研究,竞赛经验和习惯,只注重于提升模型的准确率, 源自个人的OneNote笔记,没有一些方便阅读的优化,每章内容较少,争取每日一更。补更-19.12.09


今天主要分享一个使用交叉熵(cross entropy)时候容易犯的小错误。

在使用交叉熵之前就已经调用了log_softmax 激活,会导致计算了两次log,使结果变差一点点。与focus loss相反,这种取两次log的计算,减小了对困难样本的惩罚,所以精度略有下降。

正文连接:

1drv.ms/b/s!AmvJMVS…