AI绞杀初级编程岗,亦能助其涅槃重生?

35 阅读8分钟

史蒂芬妮·德鲁加警告AI侵蚀技术教育和学徒制,致初级岗减、开源垃圾增。她强调需培养人类批判性思维,倡导开放AI学习,以防公共知识库衰退。人类应保持思考,守护共享知识。

译自:AI Is Killing Entry-Level Programming Jobs. But Could It Also Help Save Them?

作者:Steven J. Vaughan-Nichols

东京——Stefania Druga站在听众和他们的午餐之间。她是Sakana AI的研究科学家,也曾是GoogleDeepMind的人工智能研究科学家。在发表日本开源峰会上最发人深省的演讲之一前,她让会场的气氛紧张起来:她清晰地评估了人工智能如何正在破坏几十年来支撑计算机教育的学徒制、导师制和共享知识系统。

“我们目前正在目睹认知主体的流失,”Druga在主题演讲中警告道。对于不熟悉这个词的人来说,它指的是那些能够形成、评估、修正并根据所学知识采取行动的人,而不是仅仅被动地接收信息。

或者,正如Druga后来在一次采访中解释的那样:“有了人工智能,太多人想坐在乘客席上,而不是驾驶飞机。”

也就是说,他们不想思考如何得到答案,而是想毫无疑问地接受人工智能给出的答案。这是个坏消息。

你看,她的信息不是关于人工智能取代程序员。而是关于更深层次、更危险的东西:人工智能正在侵蚀教导人类如何思考、质疑和建立技术专精的结构。

“消失的技术学徒阶梯”

这种工作转型导致了Druga所说的“消失的技术学徒阶梯”。她引用的一个惊人数字在她说完很久之后仍萦绕在空中:英国的入门级技术招聘下降了46%

与此同时,人工智能工具正在自动化许多初级任务,这些任务曾是新人的垫脚石。“我们需要经验才能找到工作,需要工作才能获得经验,”她说。“如果人工智能要自动化这些入门级任务,那么真实的人该如何学习这些技能呢?”

此外,Druga表示,开源社区,这个历史上一直是早期职业开发者的培训基地,正不堪重负。维护者报告称,低质量的拉取请求激增,其中许多很可能是人工智能生成的。对于开源维护者而言,人工智能垃圾信息是个真实问题。不信就去问Curl维护者Daniel Stenberg。据Druga说,“他们目前实际上并没有因为人工智能而提高生产力。”

她认为,根本问题不在于人工智能编写代码,而在于人类越来越不知道如何阅读、验证或质疑它。

这尤其糟糕,因为正如Druga指出的,人工智能的锯齿状智能:这个由Eureka Labs创始人兼特斯拉人工智能前总监Andrej Karpathy创造的新词,指的是一个简单事实,即人工智能系统在某些任务上表现超人,但在令人惊讶的简单任务上也会失败。

Druga说,让开发者理解这个概念“非常困难……特别是对于初学者。你可能会期望一个在编写数学证明方面很强大的人工智能,但它可能无法数出‘strawberry’中有多少个R。”

开发者为何必须培养新技能

这种不可预测性要求开发者,尤其是新手,培养人工智能无法替代的技能:验证、调试、批判性提问和系统推理。Druga指出,这些能力现在是全球主要计算机科学项目课程改革讨论的重点。

不幸的是,这些正是高级管理层在急于用聊天机器人和代理取代初级程序员时经常忽视的技能。掌握这些技能的唯一方法是,从学习那些能够带来专业知识的简单、基础性工作开始。

“传统上,我们有一条流水线,”Druga观察到。“我们会有初级开发者进来学习基本操作,中级人员指导他们并理解代码中的权衡,然后是高级人员监督架构和流程。现在这些专业知识从何而来呢?”

我们目前还不知道。

Druga认为人工智能可以提供帮助。她展示了关于人工智能辅助学习系统的研究,这些系统旨在促进苏格拉底教学法,而不是简单地标记答案对错。相反,老师或人工智能通过提问来引导学生对某个主题有更深入的理解。

她说,这样的程序“应该帮助他们调试。它应该给予他们肯定,但不能为他们做所有工作。”

Druga举例说,她与合作者Nancy Otero“建立了代数中最常见的55个数学误解基准。我们利用这个误解基准创建了一个数学辅导工具,它不会告诉学生这是对的还是错的答案,因为那对学习没有帮助。它帮助他们纠正他们的思维。”

“如果你得到了错误的答案,那是为什么?也许你还不懂运算顺序,对吧,或者你可能不理解负数或分数。也许你想练习那个概念直到你掌握它。”

“这比告诉你得了多少分,或者这是对的、这是错的,更具激励性;它也对老师有所帮助,让他们知道哪些概念需要多讲,哪些概念孩子们已经掌握了。”

Druga相信可以用同样的方法创建人工智能程序,以帮助入门级程序员快速上手。为了实现这一点,她认为人工智能程序应该更加开放,这样学生就可以尝试去破解它们,从而获得更深入的理解,而不是仅仅接受一个答案。

为了使其有效,开放代码和开放权重是不够的。还需要开放数据。

“我们正在烧毁家具来取暖”

在接受The New Stack采访时,Druga进一步阐述了她主题演讲中的几个观点。她指出了一个令人担忧的趋势:现代人工智能所依赖的在线公共领域的崩溃。

“自ChatGPT发布以来,Stack Overflow的贡献量下降了50%以上,”她说。“我们正在烧毁家具来取暖。”

随着缺乏经验的开发者将思考外包给代码生成器,公共知识库变得稀薄,而基于这些知识训练的人工智能系统也随之退化。Druga同意我的看法,我们可能正在目睹AI模型崩溃的早期迹象,因为递归生成的“垃圾”反馈到新的模型中。

她还批评了流行的[氛围编程]概念,即通过向人工智能工具输入自然语言提示来构建应用程序。“这并不是真正的氛围,”她说。“这就像剥洋葱一样。”

许多任务都能正常工作。直到它们突然失效。对人类来说微不足道的事情,比如放置一个自定义标志,当通过大型语言模型(LLM)进行处理时,会变成半小时的折磨。她表示,此时用户必须“不要害怕查看代码”。

这就是她倡导在工具设计中采用渐进式披露的地方:随着用户信心的增长,逐步向高级用户展示更深层次的技术概念。因此,她相信人工智能工具应该为所有人,而不仅仅是孩子,融入实践学习。她说,太多领导者认为人工智能可以让他们取消初级职位。他们错了。

她鼓励公司用为期半天的内部黑客马拉松取代昂贵的人工智能简报会,让员工能够在真实环境中协作测试、破坏和评估工具。她承认,高级管理层可能会抵制,但那些拥抱这种实践文化的初创公司将是既理解人工智能局限性又理解其潜力的公司。

Druga以同样的信息结束了她的主题演讲和采访:人工智能可能变得越来越聪明,但人类绝不能因此而变笨。如果支撑共享技术知识的社区——开源、导师网络、问答网站、课堂——崩溃,我们不仅会失去未来的开发者,还会失去理解和塑造我们工具的集体能力。

正如她向东京观众提问的那样:“人工智能越来越聪明。但我们必须回答‘我们如何确保我们的共享知识得以保留?’”这个问题。

这是一个非常好的问题,我们希望尽快找到答案。