DeepSeek V3.2突袭上线!
周一下班时分,DeepSeek又双叒叕偷偷摸摸搞了个大动作。DeepSeek又双叒叕偷偷摸摸搞了个大动作。

没开发布会,没找媒体,就在公众号发了一条消息——V3.2上线。
这种“藏着掖着”的性格,跟国内某些恨不得租下整个朋友圈打广告的公司,形成了鲜明对比。
可就是这种低调,往往憋大招。
这次的V3.2,到底强在哪?
先说结论:编码、数学、推理能力,直接对标GPT-5。
在那些让人头皮发麻的国际竞赛题上——IMO数学奥赛、ICPC编程大赛、IOI信息学竞赛,V3.2-Speciale(加强版)能达到人类金牌选手的水平。
你没看错,是人类金牌选手。
这意味着什么?
意味着那些让普通程序员抓耳挠腮三天三夜的算法题,它几分钟就能给你理清思路,写出代码。
但真正让我兴奋的,不是这些跑分数据。
它把"思考"和"干活"合二为一了
过去AI的工作方式很割裂:
- 要么埋头思考,在
<think>标签里自言自语,但“手不动”。 - 要么直接调工具,像个没脑子的机器人,全凭“感觉”操作。
结果就是: 该搜的不搜,不该搜的乱搜一通,拿到工具返回的结果也不知道怎么用,最后给你一个模棱两可的答案。
V3.2干了件事:把思考链和工具链焊死在一起。
现在它的工作流程是这样的:
想一想 → 判断要不要用工具 → 调用工具 → 看结果 → 把结果融入思考 → 再想下一步该干啥 → 继续推进 → 给出答案。
工具调用不再是“随手点个按钮”,而是「经过深思熟虑的策略动作」。
这带来的变化是质的:
每次操作都有理有据,工具返回的信息能即时更新它的判断,整个过程变成了一条可验证的推理链条。
用人话说:它不再瞎猜,而是会“思考着干活”。
无缝接入接入Claude Code
这次V3.2还干了件让人意外的事——原生支持Claude Code。
对于天天跟代码打交道的开发者来说,这简直是天降福音。
配置方法也不复杂,四步搞定:
第一步,去DeepSeek官网创建API密钥(记得充点钱,一块钱就能试水。)
第二步,装个Claude Code(已经装过的跳过)
npm install -g @anthropic-ai/claude-code
第三步,配置几个环境变量(复制粘贴就行)
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropicexport ANTHROPIC_AUTH_TOKEN=你的API密钥export ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-reasoner
⚠️Tips: deepseek-reasoner是「思考模式」;如希望模型响应速度快一些,可将“deepseek-reasoner”换成“deepseek-chat”。
第四步,启动Claude Code,输入“/model”切换到deepseek模型。

大功告成~🎉
实测体验:有惊喜,也有小遗憾
我花了两天进行实测,体验如下:
代码质量:思考过程确实缜密,写出来的Plan很完整,有种“老司机带路”的踏实感。
速度:开启思考模式后,确实慢。那种慢不是卡顿,而是你能感觉到它在“认真想”。
上下文:128k放到2025年末,说实话有点不够看了。尤其开了思考模式,推理过程会吃掉大量token,就更显局促。
价格:几块钱干了不少活,这性价比没得说。
总体来说,V3.2像个认真的实习生。能力在线,速度不快,但胜在靠谱、便宜。
明明可命名V4.0,非要叫V3.2
这才是DeepSeek最让人服气的地方。
你看最近的AI圈:GPT-5来了,Sonnet 4.5来了,Gemini 3.0也来了。
国外那些大厂恨不得把版本号往天上标。
国内呢?说实话,最近这段时间确实有点被拉开差距了。
就在这个节骨眼上,DeepSeek像个不声不响的救火队员,直接把国产AI一把捞回国际一线水准。
这种踏实劲儿,比任何发布会都提气。
有人说,如果国内多一些DeepSeek这种踏实的“扫地僧”,少一点浮夸的PPT发布会,国产AI何愁不崛起?
我深以为然。
V3.2已经上线,想体验的朋友可以去试试,趁现在服务器还没被挤爆!
毕竟,能用几元钱体验到GPT-5级别的编码能力,这买卖不亏。