想让 AI 真正替你干活,你迟早要了解 CLI:为什么 2026 年聊天框已经开始不够用了

0 阅读6分钟

这篇不是想教你几个命令,也不是想把 CLI 讲成“工程师专属黑话”。

我想讲的是另一件对开发者更实际的事:

当大模型开始从“回答问题”走向“推进任务”,交互主入口为什么会重新偏向 CLI。

如果你最近在看 OpenAI、Anthropic、飞书这些产品线,会发现一个很明显的信号:

  • OpenAI 不只在做聊天产品,也在做 Codex CLI
  • Anthropic 不只在做 Claude 聊天界面,也在做 Claude Code
  • 连飞书这样的办公平台,也开始把自己的能力整理成官方 CLI

这不是巧合。

背后真正变化的是:AI 想接的不再只是 prompt,而是整个 workflow。

1. 聊天框为什么在很多任务上开始不够用了

聊天框很适合做这些事:

  • 问概念
  • 整理思路
  • 写初稿
  • 改表达
  • 做轻量分析

但一旦任务进入下面这些场景,聊天框就会逐渐暴露出边界:

  • 读真实文件
  • 改真实代码
  • 调真实工具
  • 跑测试
  • 连续执行多个步骤
  • 需要留下执行痕迹和结果检查点

因为你关心的已经不再是“它说得对不对”,而是:

  • 它到底有没有真的做
  • 做到了哪一步
  • 哪一步失败了
  • 失败之后怎么恢复
  • 哪些动作需要你批准

这类问题,本质上都更接近执行与编排,而不是对话。

2. CLI 到底解决了什么

很多人第一次听到 CLI,会本能地把它理解成“老派命令行工具”。

但如果放到今天的 agent 语境里,CLI 更值得被理解成:

一种对执行动作、结果反馈和边界控制更友好的工作界面。

它的价值,不在“酷”,而在下面四点。

2.1 更明确

在聊天框里,一句话经常可以被理解成多种意图。

在 CLI 里,一个动作通常更具体:

  • 读哪个目录
  • 改哪个文件
  • 跑哪条测试
  • 输出什么结果

这会显著降低 agent 执行任务时的歧义成本。

2.2 更可检查

聊天产品里最常见的幻觉,不只是知识幻觉,还有执行幻觉:

我已经帮你处理好了。

这句话到底是真的完成了,还是模型只是“以为自己完成了”,很多时候很难判断。

CLI 的优势在于,它天然更容易留下可检查的输出:

  • 命令结果
  • 错误日志
  • 文件 diff
  • 测试状态
  • 连续步骤记录

这对 agent 系统尤其重要,因为一旦任务从单步回答变成多步推进,observability 就会立刻变成核心要求。

2.3 更适合多步 workflow

真正的工作很少只有一步。

更常见的是:

  1. 先读资料
  2. 再处理
  3. 再检查
  4. 再继续下一步

聊天框适合轮轮对话,CLI 更适合把这一串动作接起来。

你可以把它理解成:

  • 聊天框更像 planning / discussion interface
  • CLI 更像 execution / workflow interface

2.4 更容易做权限和边界控制

当 AI 真正开始碰:

  • 本地文件
  • shell
  • 测试环境
  • 浏览器
  • 内部工具
  • 组织工作流

安全问题立刻就变成第一优先级。

CLI 的另一个好处,就是它更适合做边界声明:

  • 允许看什么
  • 允许改什么
  • 允许运行什么
  • 哪一步必须停下来审批

对 agent 系统来说,真正危险的从来不是不够聪明,而是边界不清。

3. 这不是“命令行复古”,而是软件暴露方式在变化

如果只是少数工程师喜欢 CLI,这件事不值得专门写。

真正值得注意的是:平台自己也在往这边走。

3.1 OpenAI:从对话到 Codex CLI

OpenAI 推 Codex CLI,说明它看到的已经不是“让模型回答更像人”,而是“让模型在开发任务里推进执行”。

这意味着交互重点开始从:

  • 生成一段文字

转向:

  • 读代码
  • 改代码
  • 跑命令
  • 给出可验证结果

3.2 Anthropic:Claude Code 的终端路线

Anthropic 做 Claude Code,本质上也是同一判断:

如果 agent 真要进开发工作流,主入口不能只靠聊天气泡。

因为开发任务天然要求:

  • 可检查
  • 可恢复
  • 可中断
  • 可继续

而这类属性,本来就和终端式交互更匹配。

3.3 飞书:能力层、协议层、操作层一起整理

飞书这条线对国内开发者尤其有参考价值。

它值得看的不只是“官方 CLI 出来了”,而是它在同时把三层东西整理清楚:

  • OpenAPI:底层能力
  • MCP:AI 接能力的标准方式
  • CLI:人和 AI 都能直接操作的入口

很多讨论会把这三件事混在一起,但它们其实不在同一层。

如果用更工程化的话讲:

  • OpenAPI 回答的是 what can the system do
  • MCP 回答的是 how can the model connect to it
  • CLI 回答的是 how can human/agent operate it directly

4. 对开发者来说,这个趋势真正重要在哪里

这里最容易被忽略的一点是:

CLI 重新变重要,不等于 GUI 会消失,也不等于普通用户都要学 shell。

真正的变化是:

越来越多软件,会开始把自己的核心能力整理成更适合 agent 接入和执行的形状。

从系统设计角度看,这会带来几件非常实际的影响。

4.1 软件要更可调用,而不只是更可点击

过去很多产品优先考虑的是:

  • 页面怎么摆
  • 按钮怎么点
  • 人怎么完成路径

以后会越来越多地加上一层考虑:

  • 这些能力能不能被 agent 稳定调用
  • 有没有清晰边界
  • 有没有标准输入输出
  • 有没有可恢复状态

4.2 Prompt engineering 不够了,workflow engineering 会更重要

未来一段时间里,很多团队会逐渐发现:

只优化 prompt,解决不了真实任务执行的问题。

更关键的是:

  • 状态管理
  • 工具调用
  • 任务分解
  • 人工审批
  • 执行回溯
  • 失败恢复

换句话说,workflow engineering 会越来越重要。

4.3 CLI 会成为 agent interface 的重要中间层

并不是所有系统都会暴露成纯 API。 也不是所有工作都适合用 GUI 点完。

CLI 很可能会长期存在于中间层:

  • 对人来说可直接操作
  • 对 agent 来说可直接调用
  • 对系统来说更容易约束边界

这也是为什么它会重新成为 AI 时代的重要入口。

5. 最后记住三件事

第一,CLI 不是一个神秘软件,而是一种更适合执行动作的工作界面。

第二,今天最值得关注的变化,不是 AI 更会聊天了,而是它越来越想替你真正做事。到了这一步,聊天框就不够了。

第三,OpenAPI、MCP、CLI 是三层不同的东西:前者是能力层,中间是协议层,最后是操作层。把这三层看清楚,你会更容易理解未来软件为什么会长成现在这个方向。

如果你也在关注 AI 工作流、agent interface、MCP、开发者工具这条线,可以记住「向AI弃权」。后面这条线我还会继续跟。