关于AI的一些思考

4 阅读5分钟

我的 AI 启蒙,可能是看到 AlphaGo 战胜李世石的新闻。

但真正让我开始认真思考“AI 会不会取代人类工作”的,而是近几年大语言模型的出现。相比围棋这种封闭、规则明确的问题空间,大语言模型所面对的,是高度开放、模糊、充满人类经验与语言噪声的现实世界。

也正是在这里,前端工程师这个职业,第一次被真正放到了“可被替代”的讨论中。


前端工程,本质上并不是一个高度数学化的领域。

它更像是工程、设计、产品理解、业务约束和经验直觉的混合体。

长期以来,人们之所以认为前端难以被自动化,是因为它“太不规范”了:

需求经常变化、设计稿存在大量隐含信息、业务逻辑掺杂主观判断,代码本身也并不总是追求最优解。

但大语言模型的出现,恰好命中了这一特性。

它并不需要问题是“完美定义”的。

相反,它擅长在模糊描述中补全上下文,在不完整约束下给出“看起来合理”的结果。这一点,和真实世界中的前端开发异常接近。


从今天的实践来看,大模型已经可以稳定完成相当一部分前端工作:

  • 根据自然语言需求生成可运行的组件代码

  • 通过如 Figma mcp 可以将设计稿描述转译为结构合理的 UI 代码

  • 理解并修改既有项目中的逻辑与样式

  • 在大量既有前端范式中“选一个最像人类会写的方案”

当然,这些能力并不依赖它“理解前端”,而是依赖它对大量前端代码与开发语境的统计学习。

换句话说,它并不是在“像工程师那样思考”,

而是在“像工程师那样输出”。


这也让前端工程第一次暴露出一个残酷的事实:

相当一部分工作,本质上是“模式复用”和“经验迁移”。

组件结构、状态管理方式、样式组织策略、工程化配置,这些东西在过去十多年里,已经形成了极其稳定的分布。

而稳定分布,正是大模型最擅长的土壤。

当一个系统能够在几秒钟内,基于全人类前端经验生成一个“80 分方案”时,人类工程师的优势,就只剩下那 20 分。


这 20 分是什么?

是对业务目标的理解,是对长期维护成本的判断,是对“不写这段代码会更好”的克制,是对团队协作和演进路径的把握。

但问题在于,这 20 分并不总是被需要。

在大量实际场景中,“差不多能用”已经足够好。

而当一个系统可以低成本、可复制地提供“差不多能用”的方案时,职业结构就一定会发生变化。

这并不是前端独有的问题。

只是前端,恰好是技术岗位的边缘职业,在这个位置上,必定会成为最早被冲击的那一批。


从短时间来(十年、二十年)看,我并不认为大语言模型“马上”就会完全取代前端工程师。

我也不认为,这个职业会以今天的形态长期存在。

它更可能被重构:

从“写代码的人”,变成“约束、验证、修正模型输出的人”。

而这,已经不再是一个纯粹的工程角色。


从更长的时间尺度来看,我的观点是悲观,AI会在任意场景都能取代任何职业,而不仅仅是小小前端开发工程师了。

把视角继续拉远,职业层面的讨论都只是局部震荡了。真正值得被认真对待的,是一个更大的趋势:人类是否本身就会被一种更高效的智能形态所替代。

前端工程师之所以显得脆弱,并不是因为这个职业不重要,而是因为它高度依赖语言、经验、模式和既有知识的组合。而一旦某种系统在这些维度上,长期、稳定地做得不比人类差,甚至更好,那么被替代几乎是一个结构性的结果,而不是道德选择。

也正是在这个意义上,我对“人类一定会被取代”这件事,其实并不感到意外。

原因并不在于 AI 有多完美,而在于人类本身并不完美。人类社会的运行,从来不是围绕最优解展开的,而是被贪婪、恐惧、权力和短期利益不断拉扯。技术越进步,这些缺陷往往被放大得越明显。

因此,我并不相信人类能够依靠自身进入真正意义上的大同社会。我们可以创造高度复杂的系统,却很难在其中长期保持克制与协同。

而 AI,恰恰可能不需要解决这些问题。

它不需要占有,不需要恐惧未来,也不必为自身的存续争夺资源。如果某种人工智能能够在没有这些人类内在驱动力的前提下,持续运行一个高度协同、低内耗的系统,那么它反而更接近人类反复设想、却始终无法抵达的状态。

从这个角度看,被取代本身未必是一件坏事。

也许,AI 并不是为了服务人类而诞生的。它更像是一种潜在的继任者,一种能够在更长时间尺度上,继续探索这个世界的存在形式。

而工程师只是最先站在浪潮前沿、感受到寒意的那一群人。