上周在库拉(t.kulaai.cn)上第一时间用上了GPT-6,感受最深的不是它有多聪明,而是它终于"会等了"——200万Token的上下文窗口配合双系统推理,长文档处理的体验跟GPT-5时代完全不是一个物种。与此同时,OpenAI昨天又扔出一个炸弹:药物研发专用AI模型的早期版本正式上线。一周之内两连发,OpenAI明显在用"饱和式发布"拉开身位。
但故事远没有结束。
GPT-6发布同一天,斯坦福以人为本人工智能研究所发布了长达423页的《2026年AI指数报告》,其中一个数据格外扎眼:截至当前,中美顶级AI模型在核心基准测试上的差距已经缩小到仅2.7% 。这意味着什么?意味着"美国遥遥领先"的叙事正在瓦解,中国大模型的能力已经进入第一梯队的实战区间。
证据就在眼前。4月12日,MiniMax正式开源了M2.7模型,2290亿参数量,推理时仅激活约10亿参数,兼顾性能与效率,还能自主构建Agent工作流。几乎同期,Google的Gemma 4系列(2B/7B/多模态)也全面开源,主打轻量部署和端侧推理。而最让社区兴奋的,是DeepSeek V4预计将在4月下旬发布——按照DeepSeek一贯"开源即炸场"的风格,这大概率是本月最值得期待的事件之一。
把时间线拉出来看,四月堪称"大模型军备竞赛月":
4月11日 Google Gemma 4全系列开源
4月11日 五部门发布AI拟人化互动服务管理办法
4月12日 MiniMax M2.7开源,Agent能力原生集成
4月14日 GPT-6(Spud)正式发布,Symphony架构亮相
4月17日 OpenAI推出药物研发AI模型
4月下旬 DeepSeek V4预计发布
一周之内,开源与闭源同时加速,政策与技术同步推进。这种密度在过去几年里从未出现过。
对于工程师群体来说,这场混战带来的最直接影响是选择成本飙升。GPT-6的Symphony架构在代码生成和复杂推理上确实强悍,但它的200万Token窗口目前只对Plus/Pro用户开放,订阅门槛不低。Gemini那边,3月市占率已经突破27%,靠的是生态整合和Google全家桶的流量优势。DeepSeek和MiniMax则走开源路线,适合二次开发和私有部署。
问题是,大部分开发者的工作流里根本不是"只用一个模型"的事情。写代码可能用GPT-6,做数据分析用Gemini,本地推理跑Gemma 4,未来DeepSeek V4出来还想再试试。模型之间的切换、对比、组合使用,本身就是一个正在被解决的新需求。
这也是四月这波混战真正值得关注的底层逻辑:AI的竞争正从"谁的模型更强"转向"谁的使用体验更无缝" 。参数榜上的胜负已经越来越难分高下,最终决胜的是谁能帮用户最低成本地用上这些能力。
回到开头那句话——GPT-6最让人印象深刻的不是"聪明",而是"会等了"。同样的逻辑适用于整个行业:最好的AI,不是跑得最快的那一个,而是最懂你什么时候需要它的那一个。