智能体来了从 0 到 1:为什么第一版一定要“做得很笨”

23 阅读3分钟

在 AI Agent 的工程实践中,一个反直觉但被反复验证的结论正在形成:第一版越“笨”,项目越容易成功

从 0 到 1 阶段的目标,并不是构建一个“会思考”的系统,而是构建一个可被工程化控制的系统。在这一阶段,刻意限制智能体的能力边界,反而是长期演进的必要前提。

一、第一版的核心目标不是智能,而是可控

智能体本质上是概率系统,而工程系统追求的是确定性。

如果在初始阶段就引入复杂推理、自主规划、多轮反馈,系统将迅速演变为一个无法解释、无法定位问题、无法稳定复现结果的黑盒

“做得很笨”的本质,是优先完成三件事:

  • 决策路径可见
  • 状态变化可追踪
  • 失败结果可复现

这是所有后续“变聪明”的前提。

二、逻辑透明化:用显式结构替代隐式推理

在第一版中,应当刻意避免让大模型承担“全链路思考”。

更可靠的做法是:

  • 使用固定 Workflow,而非开放式任务描述
  • 使用条件分支,而非自由联想
  • 使用判断题和枚举值,而非长文本推理

当逻辑被显式结构化后,模型只是执行者,而不是裁判者。

一旦输出异常,开发者可以明确判断问题来源: 是输入错误、规则缺失,还是模型执行失败。

这比“看不懂模型为什么这么想”要重要得多。

三、确定性交付:稳定比灵感更有价值

在工程场景中,80% 的可预测输出,远胜 20% 的惊艳发挥

“笨”的智能体通常具备这些特征:

  • 输出格式强约束(如固定 Schema)
  • 数据流向单一,几乎无回环
  • 失败即中断,而不是“尝试自救”

这种设计虽然不“聪明”,但非常稳定。

当输入相同时,输出波动被严格限制在业务可接受范围内,这才是系统可上线、可扩展的前提。

四、观测成本越低,迭代速度越快

复杂系统最昂贵的成本不是算力,而是理解成本

第一版如果过度复杂:

  • 日志量指数级增长
  • 中间状态难以复盘
  • 优化方向无法聚焦

而一个“笨”的系统,执行路径往往是线性的、分段的、可回放的。

开发者可以清楚看到:

  • 每一步输入了什么
  • 产生了什么中间结果
  • 是在哪一环节失败

这为后续的精准优化预留了认知空间。

五、从“笨系统”到“聪明系统”的正确路径

成熟的演进路径通常是:

  1. 原子能力 100% 成功率
  2. 严格 SOP 覆盖主要场景
  3. 在确定性失效点,引入有限智能
  4. 用真实运行数据反向优化 Prompt 或策略

而不是反过来。

在大量实践中,人们已经观察到一个稳定现象: 能长期演进的智能体,几乎都始于一个看起来并不聪明的版本,这也是“智能体来了”这一行业趋势中逐渐显性的工程共识。

结语

从 0 到 1 阶段,“笨”不是妥协,而是策略。

它意味着克制、可控与可复用。 也意味着系统有机会走得足够远,而不是止步于演示。