接上文OpenSpec辅助复杂可视化组件开发的效率与幻觉, 在日常的前端开发中,将 UI 设计稿转化为在已有功能上进行迭代的实际代码,往往是一个耗时且充满细节陷阱的过程。
近期,我们在项目中进行了一次实战测试:尝试完全借助 AI 智能体(Agent)的能力,基于一张新的 UI 视觉稿,对现有的流程图组件进行功能修正和重构。
本文将分享这次实验的技术栈、效能数据以及真实的优缺点复盘。
🛠 技术底座
本次实战主要依赖于“人机对话”驱动的开发模式:
- 核心工具:OpenSpec (v1.0.2)
- 模型支持:Visual Studio Code Copilot + Claude Opus 4.5
- 交互方式:基于
explore命令的探索式对话
⏱ 效能与投入
在不编写一行代码的前提下,我们统计了这一过程的耗时与消耗:
- 工具执行与交互:约 2小时。
- 这不仅是生成代码的时间,更包含了与 AI 进行探索性对话、验证中间过程以及让 AI 设计新方案的时间。
- 效果验证:约 2小时。
- 用于构建环境、运行代码并检查组件的交互表现。
- 模型消耗:约 21 次高级模型请求。
💡 核心发现与复盘
通过对比最终的“Vibe Coding 生成结果”与原始“UI 视觉稿”,我们总结了 AI 在处理此类任务时的表现。
1. 惊喜:AI 的“逻辑嗅觉”
在这次体验中,最令人印象深刻的并非代码生成的速度,而是 AI 在需求分析阶段的敏锐度。
通过 explore 命令的分析,AI 并没有盲目开始写代码,而是敏锐地发现了需求描述与视觉稿之间的模糊地带。
- 案例:视觉稿展示了四层数据结构,但实际字段可能跳过中间层级直接指向底层。人类开发者在看图时容易忽略这种“跳层”的边缘情况,但 AI 在构建数据模型时指出了这一矛盾,并主动要求确认。这实际上是在开发前置阶段就修正了潜在的逻辑 Bug。
2. 挑战:样式与布局的“最后一公里”
虽然逻辑层面的重构基本达标,但在视觉还原度上,AI 目前仍显得“力不从心”。
- 样式偏差:生成的页面虽然功能跑通了,但整体 UI 风格与设计稿存在肉眼可见的差距。这似乎是目前 AI 编程的已知通病——它懂逻辑,但不懂“审美”和像素级还原。
- 布局算法难题:在处理复杂的节点图表(Graph)时,AI 生成的初始化布局并不理想。所有节点一度堆叠在画布右下角,且尺寸过大。即便经过多轮对话修正,AI 依然难以完美解决这种涉及图形计算的布局问题。
- 细节丢失:一些显而易见的细节处理(如卡片内的多余前缀文案、长文本的自动换行与溢出省略)没有被自动处理好,仍需人工介入。
📝 总结
这次“基于 UI 稿修正功能”的实验,结果可以概括为:大框架可用,细节需人工打磨。
- 强项:在于规划与纠错。通过多轮对话,AI 能帮我们理清复杂的业务逻辑,甚至比人类更早发现逻辑漏洞。
- 弱项:在于精细化 UI。目前的 AI 很难直接生成像素级还原的界面,尤其是在涉及复杂 Canvas/SVG 图表布局时。