Claude Code 4.7 真正该升级的不是模型,而是你的工作流

0 阅读9分钟

Claude Code 4.7 真正该升级的不是模型,而是你的工作流

2026 年 4 月 16 日,Anthropic 发布了《Best practices for using Claude Opus 4.7 with Claude Code》;4 月 17 日,系统极客又把这次更新的关键变化做了一次中文梳理。很多人第一反应是:Claude 更强了,我是不是把模型一切换、努力级别一拉满,就能自动变快变准?

我现在的判断刚好相反。

这次升级真正值得重视的,不只是“模型更强”,而是 Claude Code 的默认工作方式变了。如果你还沿用 Opus 4.6 时代那套使用习惯,把任务一点点喂、来回追问、默认让它自己决定工具和节奏,那你很可能会遇到一种比报错更麻烦的情况:结果不一定更差,但 token 更贵、过程更慢、输出风格也和你原来的 harness 对不上。

所以这篇我想讲的主张很明确:

从 Opus 4.6 迁到 Opus 4.7,最该迁移的不是模型名,而是你的任务描述方式、努力级别策略和交互节奏。

这次变强,不只是“更会写代码”

先把几组最关键的信息摆出来。

从 Anthropic 官方口径看,Opus 4.7 是目前通用可用版本里最强的一档,尤其偏向编码、企业工作流和长周期 agentic 任务。它比 4.6 更能处理模糊问题,更擅长找 bug、做 code review,也更能在跨会话里保住上下文。

系统极客整理的另一组信息也很重要:这次视觉能力不是小修小补,而是输入分辨率直接上了一个台阶。旧版本图像长边大约在 840px,新版本可以到 2576px,近似分辨率从约 70 万像素提升到约 375 万像素。这个变化表面看像“多模态更强了”,但对 Claude Code 的影响其实很现实: 以后做 UI 对比、图表读取、截图检查、计算机操控类任务时,它能看见的细节更多了,很多过去会漏掉的小组件、小文案、小对齐误差,现在都有机会被识别出来。

还有两组数字不能忽略:

项目Opus 4.6 / 旧习惯Opus 4.7 变化
努力级别常见做法是 high 或手动拉到 maxClaude Code 默认提升到 xhigh
Token 结构旧分词器新分词器,输入 token 可能增加约 1.0~1.35x
图像长边840px2576px
图像分辨率700K 像素3.75M 像素
官方定价输入 $5/百万 token,输出 $25/百万 token与 4.6 持平,但实际消耗可能上升

这张表真正想说明的不是“4.7 更贵”,而是单价没变,但你的使用方式如果不变,账单结构会变。

最典型的误判,就是把“价格没涨”理解成“迁移没有成本”。实际上官方已经明确提醒了两个来源:一是新 tokenizer 会改变 token 计数;二是高 effort 下,尤其在长会话后半段,模型更愿意思考,结果就是后续轮次更容易把 token 用上去。

最大的误判,是还把它当成逐轮盯着走的结对助手

Anthropic 在官方 best practices 里有一句判断我很认同:用 Opus 4.7 时,更像是在把任务交给一个靠谱工程师,而不是像带一个需要你逐行扶着走的 pair programmer。

这句话背后的差别非常大。

过去很多人习惯这样和模型协作:先丢一个模糊目标,等它回一版,再补一点背景;它做一半,你再加一个限制;它再问一句,你再回一句。这个过程在 4.6 时代勉强还能跑,但到 4.7 这里,官方明确说了,交互式场景里每增加一次用户回合,都会增加推理开销。 换句话说,你越喜欢“说一句、等一句、再补一句”,越可能把本来该一次说清的问题,拆成一串更贵的来回往返。

所以更稳的做法是:

  1. 第一轮就把任务说完整:目标、约束、验收标准、相关文件位置一次给够。
  2. 把多个问题合并提,不要把一句话能说完的上下文拆成 5 次追问。
  3. 如果你在 Max 上,长任务里能开 Auto Mode 的就开,让它在安全边界内自己往前推进。
  4. 做完后再统一收 diff、验证命令、风险点,而不是每改一处就手动打断。

很多团队迁移失败,不是因为模型不够聪明,而是因为还在用“高频打断”的方式管理一个更擅长自主推进的模型。最后看起来像是 4.7 变贵了,实际上是你把最贵的互动方式喂给了它。

真正该学的,是 xhigh、adaptive thinking 和成本边界

这次另一个很容易被误读的点,是 effort。

官方把 Claude Code 里 Opus 4.7 的默认 effort 调成了 xhigh。这不是简单多了一个档位,而是它在 highmax 之间补出了一个更实用的甜点位。Anthropic 的建议也很明确:大多数 agentic coding 任务,直接从 xhigh 开始试;如果你是并发开很多会话、或者预算更敏感,就退到 highmediumlow 适合范围小、追求速度或成本控制的工作;max 只留给真正高难、而且你明确愿意为边际收益付钱的任务。

这里最反常识的一点是:不是 effort 越高越值得。

官方直接提醒,max 在特别难的问题上确实还能再挤一点上限,但边际收益会递减,而且更容易 overthinking。换成更直白的话说,如果你把每个任务都开到 max,很可能不是更稳,而是更慢、更贵,甚至因为想太多让执行节奏变拖。

与此同时,Opus 4.7 还有一个关键变化:它不再支持固定预算的 Extended Thinking,而是转向 adaptive thinking。也就是它会按上下文动态决定哪些步骤值得多想,哪些步骤可以快答。这个变化本身是好事,因为它减少了“明明是个简单查询,却还要想半天”的浪费;但它也意味着,如果你对思考深度有明显偏好,不能再只靠旧配置吃老本,而是要在提示词里直接说。

比如:

  • 想让它更谨慎,就明确要求它逐步思考、认真验证;
  • 想省 token,就直接说优先快速响应、不要过度深挖;
  • 长任务担心失控,就配合任务预算(Task Budget)一起用。

这才是 4.7 的真正取舍:它把默认智能性往上抬了,但你得学会主动管理“在哪些任务值得花这份智能成本”。

xw_20260417110443.png

老提示词不一定报错,但会悄悄失效

我觉得这次升级最值得警惕的,不是显性 bug,而是那些“看上去还能跑”的老 prompt。

为什么这么说?因为官方提了几条行为变化,几乎条条都在打旧习惯:

  • 4.7 的指令遵循更严,旧 prompt 里那些模糊写法、含混边界,到了新模型可能会被逐字照办。
  • 它的默认输出没有 4.6 那么啰嗦,简单问题会更短,开放问题才会更长。如果你需要固定风格或固定长度,要显式写出来。
  • 它调用工具更少、自己推理更多。很多情况下这会更好,但如果你的任务必须多读文件、多搜上下文,就别等它自己悟,直接把“什么时候必须调用工具”写进去。
  • 它默认更少启动子代理。如果你的工作流很依赖并行读文件、并行处理多个条目,也要明确告诉它什么时候该 fan out。

这背后的风险是:你以为自己复用了成熟 prompt,实际上只是把旧时代的宽松假设带到了一个执行更严格的新模型上。

最常见的失败迁移,我总结下来有三种:

第一种,任务描述过短,只给目标不给验收。结果模型做出一版“看起来差不多”的东西,但你要的边界条件、异常路径、验证步骤全没写进去。

第二种,默认以为它会多读文件、多搜上下文。结果 4.7 因为更克制地用工具,直接在不够完整的上下文里开始推理,第一版就偏掉。

第三种,遇到难题就无脑 max。最后质量没提升太多,token 和等待时间先上去了。

如果你已经在生产里把 4.6 调得很细,我的建议不是立刻全量替换,而是先拿 3 类任务做小流量验证:一个多文件改动、一个 code review、一个需要截图或图表理解的任务。因为这三类场景最容易把 4.7 的优势和成本边界都暴露出来。

我更推荐的迁移方式:先改 5 个动作,再谈“要不要拉满”

如果你今天就准备把 Claude Code 切到 Opus 4.7,我更建议先改下面 5 个动作。

  1. 重写第一轮任务模板
    把目标、上下文、约束、验收标准、相关文件位置放进第一轮,不要再靠后续补充。

  2. 把默认策略从“边聊边补”改成“一次交代清楚”
    你不是在哄模型工作,而是在做任务委派。一次说清楚,通常比五轮往返更省 token。

  3. xhigh 当默认,不要把 max 当信仰
    先拿 xhigh 跑,看第一轮能走多远;预算敏感或并发多时再退 high;极难任务才上 max

  4. 把工具使用和子代理策略写明白
    如果任务依赖读很多文件、搜索上下文、并行拆分,直接在 prompt 里规定触发条件。

  5. 把验证也写进验收,而不是事后补救
    例如要求它输出验证命令、风险点、影响范围,这比单纯“改完给我代码”更符合 4.7 的能力结构。

我的最终结论还是那句:Opus 4.7 不是一次单纯的模型升级,而是一次工作流升级。

如果你只看“更强”,你会自然把注意力放在 benchmark 和 effort 上;但如果你真想把 Claude Code 用顺,重点应该是怎么减少无效交互、怎么控制 token 结构、怎么把任务一次说清楚。模型能力当然重要,但真正决定你是“更快交付”还是“更贵地来回试错”的,往往还是工作流本身。


我会把这类“AI coding 工具怎么真正落地”的复盘继续写成一个系列。

完整代码和持续更新我会先放在 GitHub: github.com/tingaicompa…