[博客迁移][论文笔记] Adversarial Examples Are a Natural Consequence of Test Error

545 阅读1分钟

from Adversarial Examples Are a Natural Consequence of Test Error in Noise


Content

这篇论文主要是来探究adversarial robustness和corruption robustness的关系。

主旨句:Improving adversarial robustness should go hand in hand with improving performance in the presence of more general and realistic image corruptions.

三种训练方式:

  • naturally trained
  • adversarially trained
  • with Gaussian data augmentation

第三部分:

  • 交代了一下如何表示corruption robustness和adversarial robustness。
  • 交代了论文中的模型是如何训练得到的。

第四部分:

  • 从线性模型开始谈起,探索两类鲁棒性之间的关系
  • 从线性模型扩展到神经网络,探究\sigma和d的关系。(\sigma代表corruption robustness,\sigma越大表示模型的corruption robustness越强;d代表adversarial robustness)

第五部分:

  • 寻找对抗鲁棒性的上界

Reference