LeCun:30 年前知道 DeepFake,我还该不该开源 CNN?

163 阅读6分钟

【新智元导读】 深度学习界 “最敢说的人” Yann LeCun 再次放话,不过今天是提问:要是他早先能够预料到如今 CNN 被滥用,比如制作 DeepFake 换脸假视频,他当初还该不该开源 CNN?讲真,AI 研究发表和模型开源,真的该制定一个规范了。

Yann LeCun 今天在 Twitter 上提问:

讲真,要是当初知道卷积神经网络 (CNN) 会催生 DeepFake,我们还要不要发表 CNN?

LeCun 说:“问个严肃的问题:卷积神经网络 (CNN) 被用于 (或开发) 各种各样的应用。很多这样的应用对世界起到了积极影响,例如,医疗影像、汽车安全、内容过滤、环境监控等等。

“但有的应用则可能起到负面的效果,或者说侵犯隐私,例如,公众场所的人脸识别系统、进攻性武器,以及有偏见的 “过滤” 系统……

“那么,假设在上世纪 80 年代那时我们能够预见 CNN 的这些负面影响,我们该不该把 CNN 模型保密不公开呢?

“几点想法:

  • 最终,CNN (或者类似的东西) 还是会被其他人发明出来 (实际上,有些人可以说差不多已经做到了)。其实,福岛邦彦就跟我说,他 80 年代末的时候正在研究一种用 BP 训练的新认知机 (Neocogitron),但看到我们 1989 年发表的神经计算论文 “大感震惊”(shocked),然后停止了他的项目。
  • 开源 CNN 或深度学习软件平台直到 2002 年才出现 (CNN 是 20 世纪 90 年代早期商业软件包 SN 和 2002 年开源的 Lush 软件包的一项功能。20 世纪 90 年代中后期才开始有 OSS 分发)。因此,在某种程度上,CNN 直到 2002 年才完全发表 (released)。但那时基本没有什么人关注 CNN,或者想到用 Lush 来训练 CNN。”

LeCun 的这番话,可以说是为他此前的 “表态” 做出了完美的解释。

是的,这里说的还是关于 OpenAI 模型开源的那件事。

LeCun:担心模型太强大而不开源,干脆别研究 AI

2 月中旬,OpenAI 宣布他们开发了一个通用文本生成模型 GPT-2,拥有 15 亿参数,使用了 800 万网页进行训练,能够同时完成文本生成、回答问题、总结摘要、机器翻译等多项任务,有的时候效果甚至比专门的文本生成 / 问答 / 摘要总结等模型还要好。

接着,OpenAI 用一个又一个的示例,充分展示了 GPT-2 模型有多强大,等到众人迫不及待地要了解设计细节时,突然话锋一转,说他们担心模型 “太过强大”,开源后可能遭人滥用,这次决定不公布具体参数和训练数据集,只是放出一个小很多的样本模型供人参考。

谁料,OpenAI 这一举动引爆了整个 AI 圈,相比 GPT-2 模型本身,对于模型是否该开源的争论在短时间内得到了更多的关注,NLP 领域以外的研究人员和开发者也凑过来,而且 “群众的意见” 几乎是一边倒的反对 OpenAI,简而言之:

担心 AI 过于强大而不开源太矫情,这样还不如一开始就别研究 AI。

当时,LeCun 不仅转发了一条讽刺 OpenAI 的推文,还 “火上浇油” 地写了个段子,大意是:可不能开源在 MNIST 数据集上精度 99.99% 的模型,这可能被人用来篡改邮编,发动垃圾邮件恐怖袭击,那还得了。具体见下:

最终,LeCun 对 OpenAI 不予开源的嘲讽发展到了极致:

“每个新生出来的人都可能造谣、传播流言并影响其他人,那我们是不是该别生孩子了?”

这番言论实在称不上严谨,甚至不能算 “严肃”,但作为 Facebook 首席科学家、卷积神经网络发明人和深度学习三巨头之一,LeCun 在如今的 AI 圈子里拥有巨大的影响力,他的这一表态迅速成为重磅砝码,压在了天平 “反对不开源” 的这边,不仅坚定了此前站出来表示反对的人的信念,还影响了不少后来人的观点。

关于模型开源,我们真正关注的应该是什么?

当然,现在业界的重点已经从最初的口水战聚焦到 AI 研究发表和开源政策的讨论上来。

LeCun 或许也是希望用今天这个 “serious question” 来阐述自己当初过于简单而容易被人误会的表态。

大多数研究人员都同意,OpenAI 决定不开源的出发点是好的,但给出的理由却不尽人意

首先,GPT-2 模型是否真有那么强大? 不公布细节无法证明这一点。这也是一开始口水战的一大焦点,如果不给出细节,谁都可以站出来说我实现了强 AI,但由于 “担心太过强大”,所以我不能发表。

插一句,从 OpenAI 公布的统计数据中可以看出,GPT-2 不仅仅是 “记住了” 数据,而是确实具有更强的泛化性能。

其次,公开了模型设计和训练数据集,是否就会被人拿去在网上 “假言惑众”? 先抛开结果复现程度,但看训练成本 ——OpenAI 并没有介绍训练 GPT-2 模型的时间,但根据知情的研究人员透露,OpenAI 取得了特许,使用谷歌 TPU 来训练模型,1 小时花费 2048 美元。这个费用不是一般人能承担得起的,而能承担起这种费用的,如果真要 “作恶”,有大概率不需要借助开源模型。

最后,关于企业研究机构如何宣传 AI 研究,如何面对公众、媒体和研究人员等不同群体,OpenAI 的做法也有一些争议。DeepMind 在最初介绍 WaveNet,一个能合成与真人语音几乎无二的强大语音生成模型的时候对于潜在危险只字不提,而 OpenAI 不但主动提出并且还想要牵头制定 AI 研究发表的相关政策。这里说不出谁对谁错,但 OpenAI 只给出一个邮箱地址,欢迎 “感兴趣的研究人员” 联系他们的做法是远远不够的。

现在能够肯定的是,关于 AI 研究发表和模型开源,相关的政策真的需要制定了。OpenAI 在担心模型被滥用时举了 DeepFake 为例,DeepFake 是基于 CNN 构建的图像生成模型,由于强大的图像生成能力,能够生成以假乱真的人脸,甚至骗过先进的人脸识别模型。

那么回到 LeCun 一开始问的那个严肃的问题:

要是当初知道卷积神经网络 (CNN) 会催生 DeepFake,我们还要不要发表 CNN 呢?

欢迎留言给出你的意见。


新智元·AI_era

每日推送 AI 领域前沿学术解读、AI 产业最新资讯

戳右上角【+ 关注】↗↗

喜欢请分享、点赞吧