阿里开源三款Qwen3.5新模型创中等规模性能新高,可在消费级显卡运行

0 阅读3分钟

阿里继除夕开源Qwen3.5-397B-A17B后,再度发布千问3.5系列三款中等规模新模型 —— Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B。此次开源的模型凭借架构与训练突破,不仅创下中等尺寸模型性能新高,还实现消费级显卡可部署,相关托管模型更是将使用成本压至每百万 Token0.2 元,再度刷新大模型开源生态的性价比天花板。

图片

三款新模型实现了 “更小参数、更强性能” 的突破,核心源于技术架构的创新。阿里为其采用混合注意力机制与高稀疏 MoE 架构,并基于更大规模的文本和视觉混合 Token 训练,让新模型以更少的总参数和激活参数量,实现了性能的跨越式提升。在指令遵循、博士级推理、数学推理、多语言知识等多个权威榜单中,Qwen3.5-35B-A3B 与 Qwen3.5-122B-A10B 不仅超越了远大于其规模的上代旗舰模型 Qwen3-235B-A22B 和 Qwen3-VL,还显著优于 GPT-5 mini、gpt-oss-120b 等同类模型。

作为千问 3.5 家族首个密集模型,Qwen3.5-27B 表现尤为亮眼,兼具强悍的 Agent 能力与原生多模态能力。在工具调用、编程等 Agent 评测中它超越 GPT-5 mini,在视觉推理、文档识别、视频推理等多模态榜单上,更是超过 Qwen3-VL 旗舰模型与 Claude Sonnet 4.5,且支持单 GPU 运行,对本地部署的开发者极为友好。

图片

长上下文处理与低门槛部署是此次新模型的两大亮点。三款模型在4 比特量化下仍能保持近乎无损的精度,其中Qwen3.5-27B 支持800K+ 上下文长度,Qwen3.5-35B-A3B更是能在 32GB显存的消费级显卡上实现超 1M的超长上下文,可轻松处理长文档与复杂任务。同时,所有新模型均支持消费级显卡部署,大幅降低了开发者的使用硬件门槛。

伴随模型开源的还有便捷的商用服务,基于Qwen3.5-35B-A3B的托管模型Qwen3.5-Flash已上线阿里云百炼,不仅默认支持1M超长上下文、自带官方工具调用能力,响应速度更优,每百万Token输入成本低至0.2元,适配日常生产生活中的各类AI任务,其基座模型也同步开源。此前上线的Qwen3.5-Plus性能媲美Gemini 3,API价格仅为其5%,形成了高低搭配的服务体系。

此次开源再度引爆全球AI社区,有开发者认为这将加速机器人产业VLA模型发展,催生更多基于Qwen3.5的多模态模型。目前阿里已开源千问模型超400个,全球下载量破10亿次,衍生模型超20万,除夕开源的Qwen3.5-397B-A17B更登顶Hugging Face全球榜首,千问也稳居全球第一开源模型宝座,持续推动大模型技术的平民化与产业化。