本专题会分享一些我自己的研究,竞赛经验和习惯,只注重于提升模型的准确率, 源自个人的OneNote笔记,没有一些方便阅读的优化,每章内容较少,争取每日一更。补更-19.12.09
今天主要分享一个使用交叉熵(cross entropy)时候容易犯的小错误。
在使用交叉熵之前就已经调用了log_softmax 激活,会导致计算了两次log,使结果变差一点点。与focus loss相反,这种取两次log的计算,减小了对困难样本的惩罚,所以精度略有下降。
正文连接:
本专题会分享一些我自己的研究,竞赛经验和习惯,只注重于提升模型的准确率, 源自个人的OneNote笔记,没有一些方便阅读的优化,每章内容较少,争取每日一更。补更-19.12.09
今天主要分享一个使用交叉熵(cross entropy)时候容易犯的小错误。
在使用交叉熵之前就已经调用了log_softmax 激活,会导致计算了两次log,使结果变差一点点。与focus loss相反,这种取两次log的计算,减小了对困难样本的惩罚,所以精度略有下降。
正文连接: