兄弟们,最近 X 和 GitHub 上关于 Claude Code + AWS Bedrock 的讨论又升温了。
不过这次的画风跟前两周不一样。前两周大家吵的是"配额怎么算""认证怎么刷新"这种运维层面的事。这两天呢?开始聊实际编码体验了:Claude Code 接 Bedrock 到底好不好用、AgentCore 新开放的 shell 命令执行是啥、Prompt 缓存能省多少银子。
说白了,讨论在从"能不能跑通"往"能不能当主力用"转。
AgentCore 能跑 shell 了,这事比听起来大
3 月 17 号,AWS 悄悄更新了一个能力:Bedrock AgentCore Runtime 支持直接执行 shell 命令。
你可能觉得"不就是跑个命令吗",但如果你真做过 AI Agent 的工程化,就知道这一步有多重要。
以前你想让 Agent 做"跑测试→看结果→改代码→再跑测试"这种循环,每一步涉及 shell 命令的部分,都得自己写调度逻辑。区分 Agent 调用和命令执行、管子进程、抓输出、处理超时,代码量不大,但又臭又长,每个团队都在重复造。
现在 AWS 直接给了一个平台级 API:InvokeAgentRuntimeCommand。命令在 Agent 的同一个容器里跑,输出通过 HTTP/2 实时流回来,还带 exit code。而且不会阻塞 Agent 的其他并发调用。
这意味着 Agent 终于可以像一个真正的开发者一样工作了:写代码、跑命令、看结果、继续迭代。这个闭环以前需要你自己手搓,现在 AWS 帮你做了。
Claude Code + Bedrock 用起来到底怎样
目前 Claude Code 支持四种方式接 Bedrock:aws login(SSO)、IAM Identity Center、传统 AK/SK、Bedrock API Key。配好环境变量 CLAUDE_CODE_USE_BEDROCK=1,然后确保 AWS 凭证可用就行。
在 VS Code 里用的话,体验和直连 Anthropic 基本一致:内联 diff、@-mentions 引用文件、多标签对话都有。区别主要在后端走的是 Bedrock,数据不出 AWS,费用走统一账单。
实际体验上,如果你在同一个项目里连续工作(大多数人的场景),Prompt 缓存会自动生效。你的项目上下文在 5 分钟内重复命中缓存的话,输入 token 只收十分之一的价格。
这对 Claude Code 特别友好。因为你一直在同一个代码库里干活,每次变化的只是新指令和新改的文件,大段的项目上下文不用每次重新付费。
粗算一下,连续工作 4-5 小时,输入成本能压低 60-70%。如果你的场景允许用 Batch API 做异步处理(比如批量生成测试用例),还能再打五折。
国内老哥能不能搞
这部分还是得实话实说。
1. 账号和权限
AWS 海外账号 + Bedrock 模型申请,对国内个人开发者来说依然有门槛。Claude Code 需要有效的 AWS 凭证,你得先把这关过了。
2. 网络延迟
Claude Code 的操作是实时交互的。你在终端里下一个指令,Agent 可能要先读文件、再写代码、再跑测试,每一步都有网络往返。国内直连海外 AWS 区域,这个延迟堆叠起来会很影响节奏。
3. AgentCore 没有中国区
目前 shell 命令执行支持 14 个 AWS 区域,亚太有东京、新加坡、悉尼、首尔、孟买,但没有中国。如果你想完整体验 AgentCore 的能力,只能连海外节点。
4. 成本需要认真算
Claude Opus 4.6 的输出 token 是 $25/百万。Prompt 缓存能降输入成本,但输出成本没法缓存。如果你一天生成大量代码,月底账单可能比你想象的高。
我觉得有意思的地方
这波讨论让我觉得有意思的点在于:AI 辅助编程这个方向,正在从"补全工具"变成"协作伙伴"。
以前用 Copilot 那类工具,本质是你写一半,AI 帮你填另一半。现在 Claude Code 能自己拆任务、跑测试、看报错、改代码、再跑,这已经不是"辅助"了,更像是你给它一张工单,它自己去干。
而 AWS 正在做的事,就是把这个"自己去干"所需要的底层能力(运行环境、命令执行、权限、监控、缓存)一层层补上。
GPT-5.4 也好、Claude 4.6 也好,模型能力这场仗以后会越来越同质化。真正拉开差距的,可能就是谁的 Agent 基础设施更完整。