Opus 4.6「百万上下文」全量上线!Claude Code 直接封神
摘要:Anthropic 正式宣布 Opus 4.6 和 Sonnet 4.6 百万 token 上下文窗口全面可用(GA),溢价彻底取消,90 万 tokens 和 9000 tokens 单价一样。MRCR v2 长上下文检索测试中,Opus 4.6 以 78.3% 碾压 GPT-5.4 的 36.6%。Claude Code 用户告别「压缩」噩梦,上下文从 20 万涨到 100 万。
关键词:Claude Opus 4.6 百万上下文、Sonnet 4.6 GA、上下文腐化、MRCR v2 测试、Claude Code 封神、weelinking 中转服务
🔴🔴🔴 国内稳定调用 Claude 全系列模型, 👉 直连无障碍,按量付费,注册即用! 👈
大家好,我是小枫。
先说个题外话,今天早上我差点错过这条消息,正准备关掉推特,结果瞄到一眼——百万上下文 GA 了?
赶紧点进去确认,没眼花,是真的。
Opus 4.6 和 Sonnet 4.6 的百万 token 上下文,从今天开始正式全量放开了。不是 beta,不是内测,是所有人都能直接用的那种。
一、之前到底有多坑
想搞清楚这次为啥值得说,得先知道之前有多难用。
Sonnet 4.5 时代,你要用超过 20 万 tokens 的上下文,输入价格直接翻倍,从 3 美元涨到 6 美元。输出也涨,从 15 美元变成 22.5 美元。而且花钱还不够,你还得在 API 请求里加一个 beta 请求头,还得是 Tier 4 以上的组织账号才行。
Tier 4 是什么概念呢?简单说就是你得先在 Anthropic 那边充了足够多的钱,账号才会自动升级。普通开发者刚注册的那种,大概率到不了。
所以百万上下文这个功能,之前对大多数人来说压根不存在。
这次把这套门槛全拆了。单价不变,从头到尾,第一个 token 和第一百万个 token 收一样的钱。Opus 4.6 就是 5 美元/百万输入、25 美元/百万输出,Sonnet 4.6 就是 3 和 15,没有任何额外费用。
二、「能放进去」和「能记住」是两件事
不过我有个习惯,每次看到大参数、大上下文这种宣传,第一反应都是——说得好听,实际能用吗?
百万上下文有个公开的老问题,叫「上下文腐化」(Context Rot)。
意思就是,窗口虽然标了 1M,但如果你真把 100 万 tokens 的内容塞进去,模型对中间那部分的记忆会变得很差。不是找不到,是找到的准确率下降。你问它第 3 万个 token 附近写了什么,它可能给你一个似是而非的答案。
这个问题各家都有,不独是 Claude。
所以 Anthropic 这次发布的时候,自己就先说了一句很有意思的话:
"A million tokens of context only matters if the model can recall the right details and reason across them."
意思是,百万上下文能不能用,关键不是能不能塞,是塞进去以后还能不能找到、能不能推理。
他们用了两个测试来证明 Opus 4.6 做到了。
第一个叫 MRCR v2,把 8 根针藏在百万 tokens 的对话里,让模型找出指定那一根,准确复述内容。没有取巧空间,要么找到了要么没找到。
Opus 4.6 准确率 78.3%,GPT-5.4 是 36.6%,Gemini 3.1 Pro 是 25.9%。
差了一倍多,这数字我盯着看了好几秒。
第二个叫 GraphWalks BFS,考的是长上下文逻辑推理,结果是 Opus 4.6 得 68.4%,而上一代的 Sonnet 4.5 只拿了 25.6%。
也就是说,Anthropic 自己把自己的上一代打了个三倍的差距出来。
三、用 Claude Code 的人,这次真的赚到了
我用 Claude Code 有一段时间了,最让我抓狂的一个体验就是「压缩」。
做一个稍微大一点的项目,一边让 Claude 搜日志、一边看源码、一边理分支,不知不觉上下文就用掉了大半。然后终端里突然出现一行字:上下文已压缩。
「压缩」这东西原理很简单,就是把之前的对话内容总结成摘要,腾出空间。但问题是,那些细节就没了。你之前花了半小时让它定位到的那个报错、讨论过的那段逻辑,全在摘要里变成了几句话,具体的东西没了。然后你得从头喂它一遍。
那种感觉就像你正在开会,同事突然跟你说:「之前说的我忘了,你重新说一遍吧。」
现在上下文从 20 万涨到 100 万,压缩还会有,但得用很久很久以后才会触发。
Cognition(就是做 Devin 那家公司)用了以后说,之前大型代码 diff 放不进 20 万上下文,只能分段处理,结果跨文件的依赖关系一断,就有东西被漏掉。现在完整的 diff 一次性喂进去,反而连处理逻辑都变简单了。
怎么开? Max、Team 和企业版的 Claude Code 默认就开了,打开以后看到「5x more room, same pricing」就说明生效了。Pro 用户要手动打开 extra-usage。要是还没推送到,可以试试:
claude --model 'opus[1m]'
关掉 Claude Code 之后用这个命令启动,有人确认过有效。
最后顺带提一下,这次还有两个小更新,一个是每次请求支持最多 600 张图或者 600 页 PDF,之前是 100,六倍;另一个是昨天还上线了交互式图表和流程图生成,免费版也能用,有空值得试一下。
🔴🔴🔴 国内稳定调用 Claude 全系列模型, 👉 直连无障碍,按量付费,注册即用! 👈