把 Claude 放进工作流:从 prompt 到 API 编排的实践思路

4 阅读3分钟

很多团队第一次接 Claude,会从一个漂亮的 prompt 开始。过一周就会发现,prompt 只是最外面那层。企业真正要做的是工作流:谁触发、拿什么数据、调用哪个模型、失败怎么办、结果怎么进系统、成本谁负责。

我比较建议把 Claude 工作流拆成四层。

第一层是任务入口。代码场景可以来自 GitHub issue、PR、CI;客服场景可以来自工单系统;文档场景可以来自知识库检索;运营场景可以来自表格、飞书审批或 CRM。入口越明确,模型越容易稳定输出。

第二层是上下文准备。这里不要偷懒。长文档先切片,代码 diff 先压缩,历史对话先摘要,敏感字段先脱敏。Claude 的长上下文能力很强,Sonnet 4.6 也已经把长上下文和 agent planning 做成重点方向,但这不代表每次都该把所有材料塞进去。上下文越大,延迟和成本越高,噪声也越多。

第三层是模型路由。常规代码解释、PR 摘要、客服质检可以先走 Claude Sonnet 4.6;复杂设计评审、跨系统故障复盘、合同条款冲突分析可以走 Claude Opus 4.7;低风险批量摘要可以考虑更经济的模型。企业最怕的是「所有任务一个模型」,这会同时放大成本和供应商依赖。

第四层是结果处理。模型输出不应该直接发给最终用户。至少要有 schema 校验、置信度标记、人工复核入口、审计日志和失败重试。比如客服质检可以让 Claude 给出分类和理由,但处罚坐席这件事不能只凭模型一句话。

一个可落地的架构大概是:

业务系统 -> 任务队列 -> 上下文构建 -> 模型路由 -> Claude/API 网关
                         |              |
                         v              v
                      缓存层          日志/成本统计
                         |
                         v
                    结果校验 -> 人工复核 -> 回写业务系统

国内团队还会遇到额外问题。Anthropic 官方服务覆盖地区有限,中国大陆团队直接使用 Claude API,常见阻力包括账号开通、网络稳定性、支付方式、企业结算、额度和限流。即使能接上,也要处理 429 重试、超时、日志脱敏和密钥管理。GitHub Actions 里尤其要避免把 Key 写进仓库,应该走 Secrets 和最小权限。

所以我更倾向于把模型访问抽到统一 API 层。词元无忧 API(token5u API)这类聚合服务适合放在「模型路由」这一层:上面保持业务代码不变,下面按任务选择 Claude、GPT、Gemini 或其他模型。它的 OpenAI 兼容接口、按量计费、人民币相关结算和专线优化,对国内团队会比「自己维护一堆海外账号和代理」轻很多。

落地时别急着做大而全。先选一个能量化收益的点:比如 PR 摘要节省 reviewer 时间,客服质检减少抽检人力,文档问答减少内部咨询。跑两周,看三个指标:准确率、人工节省时间、每千次任务成本。指标过关,再扩到更多流程。

Claude 值得接,但不要把它当作单点奇迹。它更适合作为工作流里的一个能力节点。工程上把队列、缓存、路由、审计做好,模型更新才会变成收益,而不是一次次返工。