今日,智谱新一代旗舰模型
GLM-5.1正式发布。作为智谱GLM系列的最新力作,GLM-5.1的整体能力得到了全面提升,尤其在代码能力上刷新全球最佳成绩,超越GPT-5.4、Claude Opus 4.6。此外,GLM-5.1还在长程任务(Long Horizon Task)处理能力上实现了显著突破,它能够在单次任务中持续、自主地工作长达8小时,在多个评测基准中取得全球模型第三、国产模型第一、开源模型第一,从代码生成进化为真正的“超级工程师”。
当前,百度智能云已完成对GLM-5.1 Day0全栈适配,百度百舸与昆仑芯第一时间完成GLM-5.1的模型适配与集群部署,百度千帆迅速完成GLM-5.1模型的接入上线,视频云、Comate也率先搭载GLM-5.1,为智能视频创作、多模态实时互动、编程开发效率等方面带来全新升级体验。目前,百度智能云已从底层硬件、计算平台、模型服务、上层应用全栈支持GLM-5.1,实现发布即上线。企业客户和开发者可通过百度智能云第一时间体验该模型,加速业务创新与应用落地。
百度百舸+昆仑芯:
全栈协同推动
大模型推理规模化落地
百度百舸基于昆仑芯硬件平台第一时间完成了GLM-5.1的模型适配与集群部署,助力最新开源大模型快速投入生产环境的大规模应用。面向GLM-5.1在AI Agent、Coding场景的长上下文与高并发需求,百度百舸基于Prefill-Decode分离架构,使用CP(Context Parallelism)上下文并行策略,有效降低128K以上序列的计算负载和显存压力。
目前,百度百舸与昆仑芯已具备「极速模型适配-全链路性能提升-高效规模化部署-超大规模集群落地」的完备能力。
-
在
**
模型适配
**
环节,百度百舸联合昆仑芯开发了
vLLM-Kunlun Plugin,便于开发者在昆仑芯平台上快速适配主流开源模型,并可以像使用通用GPU一样便捷地使用昆仑芯。配合精度对齐(torch_xray)与性能分析(PyTorch Profiler)工具,百度百舸为模型效果与性能表现提供全方位保障。
-
在
性能优化
层面,百度百舸从算子、
Kernel Launch、框架到系统开展全链路优化。同时,百度百舸构建了「模型层-框架层-硬件层」端到端量化体系,全面支持INT8/INT4等多种精度量化策略。
-
在
部署能力
层面,百度百舸基于
PD分离架构进一步优化集群推理效能,并提供针对标准8卡与超节点硬件平台的标准化部署方案。百度百舸构建了精细化的KV Cache调度与加速,实现高达80%~90%的缓存命中率,将64K序列TTFT提升6.2倍,保障AI Agent与复杂Coding等高并发长文本场景的稳定响应。同时,通过优化集群弹性扩缩容,将实例启动时间从分钟级压缩至秒级。
-
在集群支撑方面,百度智能云已建成3.2万卡昆仑芯P800集群,百度天池超节点采用32卡点对点全互联架构,通信延迟低至1.5μs,为国产模型创新提供坚实底座。
百度千帆:
开放多元的模型生态,
即开即用
目前,百度千帆已在智谱GLM-5.1发布后第一时间完成接入上线,并以预置服务形式对外开放,开发者无需进行复杂部署和模型调优,即可快速体验并验证大模型能力。
请求示例:
curl --location 'https://qianfan.baidubce.com/v2/chat/completions' \--header 'Content-Type: application/json' \--header 'Authorization: your-api-key' \--data '{ "model": "glm-5.1", "messages": [ { "role": "user", "content": "say hello" } ]}
一直以来,百度千帆依托多维开放的产品能力,持续构建丰富且领先的大模型服务生态。
目前,平台已集成百度自研文心大模型、千帆自研系列模型,以及行业领先的第三方开源模型,提供上百款模型能力,覆盖通用对话、推理、代码、
OCR、多模态等核心场景。
依托独家SOTA模型、行业精选模型及多样化推理能力,百度千帆为企业用户和开发者提供兼具卓越性能、极致成本效率与高效调用体验的模型服务;同时始终致力于打造全流程、一站式AI服务平台,坚持以更开放、更易用、更低成本的平台理念,持续帮助企业和开发者更高效地探索大模型应用,提升创新效率,加速各类AI应用从概念验证走向业务落地,为AI技术在更多行业与场景中的深入拓展持续注入增长动力。
视频云:
视频创作与实时互动
显著提升
百度智能云视频云率先完成智谱GLM-5.1能力接入,
为智能视频创作与多模态实时互动两大核心产品带来全面升级。
在智能视频创作方面,视频云
VOD产品聚焦短剧与电商场景,提供一键成片、解说集锦、高光混剪、智能翻译等高效能力,助力营销投流与视频出海,实现更高ROI。借助GLM-5.1最长可达8小时的长程任务处理能力,视频创作可打通从创意策划、脚本生成到智能剪辑的完整流程,实现端到端自动化,大幅提升内容生产效率。
在多模态实时互动方面,视频云RTC产品面向智能硬件场景,提供拟人化、超实时的交互体验,支持长期记忆、复杂任务处理及多种原子能力,不仅能自然对话,也能高效执行任务。依托GLM-5.1更强的推理与智能体能力,多轮对话更加流畅、理解更准确,还可自主规划并完成复杂任务,真正成为用户工作与生活中的得力助手。
百度Comate:
编程效率再升级
作为行业领先的企业级编程智能体,百度文心快码(Comate)已同步将GLM-5.1
上线为
IDE及插件端内置模型,,供用户开放使用。
依托GLM-5.1顶尖的编程和智能体(Agent)能力,Comate在编程能力和长程复杂任务处理能力上实现显著跃升。在单次任务中,可持续自主工作长达8小时,通过任务拆解、规划执行与多轮迭代,逐步完成从代码生成到结果交付的完整流程。在多个企业工作场景中,持续为用户提供稳定、先进的开发体验。
百度智能云,
全栈能力+开放生态,
驱动模型创新加速
从底层算力、计算平台、再到模型服务与上层应用生态的全链路打通,百度智能云,正以
“全栈能力+开放生态”的双轮驱动,持续为国产模型创新提供坚实底座与加速引擎,加速国产大模型从技术突破走向规模化落地。未来,百度智能云将持续携手模型厂商、生态伙伴与广大开发者,深化协同创新,共建开放共赢的大模型生态体系,推动AI技术在更多真实产业场景中加速落地,让创新更高效、更可持续,持续释放产业升级新动能。