ASU偷用教授课件做AI课程:大学在用AI剥削教师

2 阅读7分钟

故事是这样的。

美国亚利桑那州立大学悄悄上线了一个叫Atomic的AI工具。

它能把教授的讲座视频、课件、作业,自动拆解、重组,变成一套套个性化学习模块。任何人只要每月交5美元,就能用它生成不限数量的课程。

最离谱的是,教授们完全不知道自己在被收割。

他们没有收到通知,没有被征求意见,更没有被告知自己的学术劳动正在被AI批量加工、对外售卖。

直到教授们自己发现这件事,才炸了锅。

他们把Atomic生成的内容调出来一看,直接用了四个字评价:AI slop。

中文翻译过来就是,AI垃圾。


这件事为什么值得聊?

因为它不是某个公司的产品翻车。它是一个系统性事件,揭示了AI时代一个正在被所有人忽略的问题。

当AI能一键复刻你的劳动成果时,谁拥有你创造的东西?

更具体地说,当一个教授花了几十年积累的课件、教学方法、学术理解,被一所大学用一个AI工具打包变现时,教授的权益在哪里?


Inside Higher Ed报道中的ASU Atomic界面截图


先说下背景。

ASU是美国规模最大的公立大学之一,学生超过13万。它一直标榜自己做创新教育。

今年4月,ASU悄悄上线了这个叫Atomic的AI平台。官方说法是帮助学生个性化学习,把教授几小时的讲座视频拆解成短片段,配上AI生成的学习模块,学生可以根据自己的节奏来学习。

听起来挺好的对吧?

但问题出在细节上。

Atomic是软启动上线的,没有通知教授,没有获得教授同意。它的AI模型直接抓取了教授的视频讲座、幻灯片和在线作业,然后自动生成所谓的个性化学习模块。

而且任何人都能用。只要每月5美元。

结果就是,一个教授花了数年准备的课程,可以被一个陌生人在5分钟内复刻,然后拿去教别人。

教授们发现这件事后,Inside Higher Ed、404 Media、KJZZ等媒体都做了报道。Hacker News上也直接冲上24h最热。


说说教授们最在意的几个问题。

第一,知识产权。

教授的课件、教案、学术理解,说到底是一种智力劳动。ASU把它喂给AI,让AI生成新版本,这算不算侵权?

美国高校体系里,教授的知识产权归属一直是个灰色地带。很多学校在入职合同里就规定在职创作归学校。但教授们普遍的感受是,你让我把知识写进课件可以,你不能把我的课件拆碎了喂给一个谁都能用的AI工具。

第二,内容质量。

教授们看了Atomic生成的内容,直言不讳地说是AI slop。

什么意思?

就是你把一个教授精心设计的课程体系,用AI压缩、重组、再翻译一遍。出来的东西表面上看起来像是个课程,但深度、逻辑、教学节奏全乱了。

打个比方,就像你用AI把一本《三体》浓缩成500字的梗概,然后说这包含了《三体》的所有精华。

第三,信任问题。

这是最核心的。

学校对教授说我们要创新,然后背地里用AI替代教授的劳动。这不是技术升级,这是系统性背刺。


说实话,这件事放到AI行业里看,一点都不意外。

过去一年我们看到了太多类似的场景。

AI被用来生成代码,程序员发现自己的工作在消失。AI被用来写文章,编辑发现稿子在变差。AI被用来做设计,设计师发现创意在被稀释。

现在轮到教育了。

但教育有个特殊性。它不是简单的内容生产,它是一种人际互动。

教授讲课,不只是在传递知识,更是在建立一种师生之间的连接。那种我讲你听的互动里,有眼神交流、有即兴发挥、有课堂氛围、有对学生反馈的即时调整。

这些东西,AI复刻不了。

所以Atomic生成的学习模块说到底就是个内容压缩包。它把教授的劳动压缩成了一套标准化的知识点,但失去了教学里最核心的东西,人。


顺着这个话题再聊聊,我觉得这件事背后有一个更大的趋势。

机构正在利用AI对劳动者进行系统性替代,而劳动者的知情权和议价权正在被系统性剥夺。

这不是ASU一家学校的问题。

你看一下AI编程助手,很多公司悄悄让员工用GitHub Copilot,但不会告诉你我们用AI替代了你的工作,只是说你得适应新工具。

你看一下AI客服,很多公司把客服岗位逐步换成AI,但不会提前通知员工,只是让工作量越来越多,直到你自己走。

你看一下AI写作,很多媒体已经开始用AI生成初稿,然后让人工编辑润色。

模式都是一样的,机构先悄悄上AI,然后逐步替代人工,最后告诉你这是行业趋势,你得不适应也得适应。

劳动者的知情权在哪里?

议价权在哪里?


我不是在反对AI在教育中的应用。

我自己在用AI辅助学习,我觉得AI对个性化学习确实有帮助。Socratic式的AI对话能帮学生理解概念,AI翻译能打破语言障碍,AI数据分析能让学校更精准地了解教学成效。

但这些都应该是在透明的前提下。

教授知道学校在用AI。 学生知道哪些内容是AI生成的。 所有人都知道AI在其中的角色是什么。

然后大家一起讨论,AI的边界在哪里?教授的权益怎么保护?学生怎么判断AI生成内容的质量?

而不是像ASU这样做,悄悄上线,悄悄用你的东西,等你发现了再说我们在创新。


这件事最讽刺的地方在于,ASU一直标榜自己是一所以学生为中心的大学。

它的校训是Measureless Learning,无界限学习。

现在他们用AI把教授的劳动打包成一个谁都能用的工具,这确实是无界限了,无界限地突破了学术伦理的底线。


说说我的判断。

第一,ASU这种做法迟早要翻车。不是因为技术上不行,而是因为教授们的反弹会越来越大。一旦有教授联合起来起诉,或者集体抵制使用AI工具,学校的声誉会立刻受损。

第二,这件事会在教育行业引发连锁反应。当ASU的案例被广泛报道后,其他高校一定会重新审视自己的AI使用政策。知识产权、知情同意、质量保障,这些议题会被推到台前。

第三,AI教育的真正挑战不是技术,而是信任。学生需不需要AI课程不重要,重要的是他们信任这个课程。如果一个课程的AI成分不透明,学生怎么知道它在教什么?

第四,长期来看,教授的不可替代性恰恰来自那些AI做不了的东西。不是知识本身,而是知识的组织方式、教学风格、对学生个体差异的敏感度。这些东西AI暂时复刻不了。

所以,教授们不需要恐慌。他们需要的是话语权。


最后说一句。

这件事让我想到一句话,技术本身没有善恶,但使用技术的人有。

ASU用AI的目的是什么?是为了更好地服务学生?还是为了更高效地榨取教授的劳动?

答案不在技术里,在动机里。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~

谢谢你看我的文章,我们,下次再见。

/ 作者:不良人 | 热点情报官