在现代前端开发中,利用 AI 辅助编程已成常态。近期,我们进行了一项技术实验:完全依赖 AI 模型(结合 Copilot 与 高阶 LLM)从零实现一个基于 @antv/g6 的复杂流程图(血缘图谱)功能。
本次实验旨在探究在缺乏详细接口文档、仅有截图和基础需求描述的情况下,AI 能否独立完成“端到端”的交付,以及由此带来的研发模式转变。
🛠️ 技术栈与实验背景
- 核心库:OpenSpec, AntV G6
- AI 辅助工具:Visual Studio Code Copilot + Claude Opus / GPT-Codex
- 输入条件:仅提供需求截图与简要描述
📊 关键指标分析:时间都去哪了?
实验结果展示了一个有趣的“时间倒挂”现象:
- 工具执行耗时(编码):约 1 小时 包含代码生成、报错重试的时间。
- 效果及构件验证耗时(验收):约 3 小时 用于人工 Review、样式微调及逻辑验证。
💡 洞察:AI 极大地压缩了“手写代码”的时间(仅需数次请求),但显著增加了“验证与纠错”的成本。对于开发者而言,工作重心从 Writing 转移到了 Reviewing 和 Debugging。
惊喜:AI 的高光时刻
1. 零冷启动成本,Mock 数据先行
在缺乏后端接口数据甚至没有接口文档的早期阶段,AI 展现了惊人的推演能力。它能够根据页面截图,快速给出一个结构合理的 Mock 数据方案。
- 价值:避免了前端在开发前期需要手动构造海量假数据的“返工”风险,让 UI 开发可以并行甚至先于后端接口定义进行。
2. 极速构建基座
AI 能够迅速生成页面骨架、组件结构以及流程图节点的初版代码。开发者可以基于这个“半成品”直接进行业务逻辑的填充,从而能够将更多精力聚焦于关键业务,而非重复性的脚手架搭建。
挑战:幻觉与理解偏差
尽管效率提升明显,但针对图形化界面(GUI)和第三方图形库的开发,AI 的表现仍是“好坏参半”:
1. “规范演进”中的幻觉 (Spec Evolution Hallucination)
这是本次实验中最具警示意义的发现。在从“需求简述(Proposal)”向“详细设计(Design)”转化的过程中,AI 出现了过度解读:
- 现象:原本需求中仅用于展示的“状态标签”,在经过 AI 的多轮文档迭代后,被错误地理解并实现为了“操作按钮”(如发布、下线按钮)。
- 教训:AI 会在补全逻辑时产生“脑补”,开发者必须严格审查其对业务意图的理解,防止功能范围蔓延(Scope Creep)。
2. 视觉还原的局限性
对于复杂的图形结构,AI 的一次性还原率尚待提高:
- 结构错误:如遗漏顶级节点、节点层级关系混乱。
- 样式偏差:初始生成的节点尺寸过大,或者忽略了图形编辑器常见的交互需求(如画布缩放功能)。
- 误读文档:有时 AI 会“过于呆板”,错误地将需求文档中的说明性文字(如“字段说明”)直接渲染成页面上的 UI 元素。
总结
AI 辅助前端开发在通用 CRUD 页面上表现卓越,但在领域特定的可视化场景中,仍需要人工的深度介入。