OpenSpec辅助研发实战:从 UI 视觉稿到代码落地的“人机协同”体验

6 阅读3分钟

接上文OpenSpec辅助复杂可视化组件开发的效率与幻觉, 在日常的前端开发中,将 UI 设计稿转化为在已有功能上进行迭代的实际代码,往往是一个耗时且充满细节陷阱的过程。

近期,我们在项目中进行了一次实战测试:尝试完全借助 AI 智能体(Agent)的能力,基于一张新的 UI 视觉稿,对现有的流程图组件进行功能修正和重构。

本文将分享这次实验的技术栈、效能数据以及真实的优缺点复盘。

🛠 技术底座

本次实战主要依赖于“人机对话”驱动的开发模式:

  • 核心工具:OpenSpec (v1.0.2)
  • 模型支持:Visual Studio Code Copilot + Claude Opus 4.5
  • 交互方式:基于 explore 命令的探索式对话

⏱ 效能与投入

在不编写一行代码的前提下,我们统计了这一过程的耗时与消耗:

  • 工具执行与交互:约 2小时
    • 这不仅是生成代码的时间,更包含了与 AI 进行探索性对话、验证中间过程以及让 AI 设计新方案的时间。
  • 效果验证:约 2小时
    • 用于构建环境、运行代码并检查组件的交互表现。
  • 模型消耗:约 21 次高级模型请求。

💡 核心发现与复盘

通过对比最终的“Vibe Coding 生成结果”与原始“UI 视觉稿”,我们总结了 AI 在处理此类任务时的表现。

1. 惊喜:AI 的“逻辑嗅觉”

在这次体验中,最令人印象深刻的并非代码生成的速度,而是 AI 在需求分析阶段的敏锐度

通过 explore 命令的分析,AI 并没有盲目开始写代码,而是敏锐地发现了需求描述与视觉稿之间的模糊地带

  • 案例:视觉稿展示了四层数据结构,但实际字段可能跳过中间层级直接指向底层。人类开发者在看图时容易忽略这种“跳层”的边缘情况,但 AI 在构建数据模型时指出了这一矛盾,并主动要求确认。这实际上是在开发前置阶段就修正了潜在的逻辑 Bug。

2. 挑战:样式与布局的“最后一公里”

虽然逻辑层面的重构基本达标,但在视觉还原度上,AI 目前仍显得“力不从心”。

  • 样式偏差:生成的页面虽然功能跑通了,但整体 UI 风格与设计稿存在肉眼可见的差距。这似乎是目前 AI 编程的已知通病——它懂逻辑,但不懂“审美”和像素级还原。
  • 布局算法难题:在处理复杂的节点图表(Graph)时,AI 生成的初始化布局并不理想。所有节点一度堆叠在画布右下角,且尺寸过大。即便经过多轮对话修正,AI 依然难以完美解决这种涉及图形计算的布局问题。
  • 细节丢失:一些显而易见的细节处理(如卡片内的多余前缀文案、长文本的自动换行与溢出省略)没有被自动处理好,仍需人工介入。

📝 总结

这次“基于 UI 稿修正功能”的实验,结果可以概括为:大框架可用,细节需人工打磨。

  • 强项:在于规划与纠错。通过多轮对话,AI 能帮我们理清复杂的业务逻辑,甚至比人类更早发现逻辑漏洞。
  • 弱项:在于精细化 UI。目前的 AI 很难直接生成像素级还原的界面,尤其是在涉及复杂 Canvas/SVG 图表布局时。