CES 2026:DeepSeek、Kimi点燃推理芯片

65 阅读2分钟

2026 CES科技展,黄仁勋选用了DeepSeek V3.2、Kimi K2 Thinking和Qwen来亮相下一代Rubin架构。大型语言模型(LLM),特别是混合专家模型(MoE)的普及和迭代给芯片带来新的机遇:

MoE模型强大的驱动力

当前,超60%的前沿开源模型采用混合专家架构。这种架构的特点是模型总参数规模巨大(如千亿甚至万亿级别),但在处理具体任务时仅激活少量“专家”参数。这对芯片提出了新要求:不仅要具备强大的绝对算力,更需要优化显存带宽和计算效率,以高效处理这种“稀疏激活”的计算模式。英伟达最新的Rubin架构芯片在运行DeepSeek-R1、Kimi K2等MoE模型时能实现10倍性能提升,正是针对这一趋势的优化成果。

image.png

实现“指数级降本增效”

AI芯片发展的核心目标已从单纯追求峰值算力,转向大幅降低推理成本,推动AI进入“平价时代”。在下一代芯片加持下,如Kimi K2的推理吞吐量提升10倍,同时单次推理(token)成本降至原来的1/10。这种成本下降使得运行千亿级参数的复杂模型变得经济可行。

image.png

支撑模型规模的爆发式增长

模型参数规模正以每年10倍的速度增长,从480B的Qwen3到1TB的Kimi K2,模型的复杂度和能力不断提升,对计算芯片的内存容量和带宽的需求是“饥渴”且近乎无限的。这为AI芯片市场创造了一个持续扩张的底层需求。

image.png

模型与计算芯片的协同进化进入新阶段

AI模型与AI芯片正在深度绑定、相互促进。英伟达将性能领先的模型(如中国的DeepSeek、Kimi)作为其硬件的“御用测试平台”。这意味着,未来的芯片架构设计将更紧密地贴合前沿模型的特性(如长上下文、Agent智能体能力),从而形成“更好的芯片→更便宜强大的AI服务→更广泛的应用场景→更大的算力需求”的增长飞轮。

欢迎在评论区分享你的想法!如果觉得有用,请记得点赞、收藏、转发,让更多小伙伴受益~