首页
沸点
课程
AI Coding
数据标注
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
百度智能云技术站
掘友等级
云智一体
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
百度智能云技术站
14小时前
关注
百度百舸基于昆仑芯 XPU 完成 GLM-4.x 在 SGLang 与 vLLM 上的适配落地
百度百舸基于 SGLang 与 vLLM 推理框架,完成智谱 GLM-4.x 系列模型(GLM-4.5 / GLM-4.5-Air / GLM-4.6 / GLM-4.7)...
0
评论
分享
百度智能云技术站
11天前
关注
百度沧海·存储 Mantle 系统架构演进之路,SOSP'25 论文背后的故事
在技术深水区,最大的障碍往往不是未知,而是那些我们深信不疑的已知。 这篇文章清晰还原了创新的真实路径:问题从何而来、传统方案为何失效,以及 Mantle 新的系统设计思路是...
0
评论
分享
百度智能云技术站
21天前
关注
让 AI 学会「专家级思考」的 Agent 开发框架 LoongFlow 开源发布
LoongFlow 是百度百舸团队发布的一个开源的、旨在让 AI 学会「专家级思考」的智能体开发框架。我们相信,设计一个能解决复杂问题的专家级 Agent,关键在于其思考模...
0
评论
分享
百度智能云技术站
28天前
关注
基于 vLLM 的大模型推理服务秒级扩缩容的工程优化实践
百度智能云混合云团队基于 vLLM 框架,在扩容和容灾场景下,将推理服务拉起时间压缩到「几秒级」—— 模型权重可在约 2 秒内完成加载,采用预留的守护实例后,不到 5 秒即...
0
评论
分享
百度智能云技术站
28天前
关注
2 天速通小米 MiMo Flash V2,vLLM-Kunlun Plugin 助力昆仑芯高效适配最新大模型
百度百舸和昆仑芯的技术团队基于 vLLM-Kunlun Plugin,仅用 2 天时间便在 vLLM 环境中实现了 MiMo Flash V2 在昆仑芯 P800 XPU ...
0
评论
分享
百度智能云技术站
1月前
关注
最大无本体具身数据集开源!简智机器人联合百度百舸,加速具身智能应用落地
最大无本体具身数据集开源!简智机器人秉持 「具身智能源于人、回归人」 的核心理念,将「RealOmni」数据集第一时间同步在百度百舸平台,便于具身智能行业伙伴快速将数据集应...
0
评论
分享
百度智能云技术站
1月前
关注
百度百舸面向百度天池超节点的大模型推理引擎优化,持续降低昆仑芯 XPU 的 token 成本
结合新硬件架构的特性,AI Infra 团队可以基于对上层模型算法特性的深度理解,进一步做 AI 工程上的软件优化,充分释放硬件潜能,在吞吐量、TTFT、TPOT 等核心指...
0
评论
分享
百度智能云技术站
1月前
关注
规模最大、性能最好,百度百舸助力北京人形打造开源具身多模态大脑模型 Pelican-VL1.0
百度百舸联合北京人形,构建了覆盖「模型提效加速、训练稳定性保障、企业级开发平台」的 AI Infra 具身智能解决方案,加速了 Pelican-VL 模型的落地。...
0
评论
分享
百度智能云技术站
1月前
关注
DeepSeek-V3.2 128K 推理秒开?百度百舸开源 CP 上下文并行方案
百度百舸 AIAK 团队为 DeepSeek V3.2 开发的上下文并行(Context Parallelism, CP)方案已正式合入 SGLang 主分支。...
0
评论
分享
百度智能云技术站
1月前
关注
百度百舸面向 DeepSeek V3 系列模型 AE 分离框架的实战
本文整理自 2025 年 12 月 14 日的「百度百舸 X SGLang Meetup 北京站」的同名主题分享。在公众号回复「AI Infra」,可以获得此次 Meetu...
0
评论
分享
百度智能云技术站
1月前
关注
针对 DeepSeek V3.2 的推理引擎深度优化
本文整理自 2025 年 12 月 14 日的「百度百舸 X SGLang Meetup 北京站」的同名主题分享。...
0
评论
分享
百度智能云技术站
1月前
关注
百度百舸打造大规模分布式推理集群的基础设施
本文整理自 2025 年 12 月 14 日的「百度百舸 X SGLang Meetup 北京站」的同名主题分享。在公众号回复「SGLangV5」,可以获得此次 Meetu...
0
评论
分享
百度智能云技术站
1月前
关注
提升超长上下文本推理吞吐,百度百舸 ESS 技术报告新鲜奉上
长文本推理被「显存墙」卡住 在 32K 至 128K 超长上下文场景中,DeepSeek-V3.2-Exp 的 Decode 阶段需维护一个随序列长度线性增长的 Laten...
0
评论
分享
百度智能云技术站
2月前
关注
百度百舸 X 昆仑芯 | 开源 vLLM-Kunlun Plugin,快速适配新模型、跑出极致性能
百度百舸联合昆仑芯正式推出 vLLM-Kunlun Plugin —— 一款面向百度昆仑芯 XPU 的高性能 vLLM 平台插件,该 Plugin 现已全面开源。...
0
评论
分享
百度智能云技术站
2月前
关注
突破显存瓶颈:基于 DeepSeek-V3.2-Exp 的 Latent Cache 卸载预取方案设计与模拟验证
1. 引言 DeepSeek-V3.2-Exp 所搭载的稀疏化 Attention 计算,在长上下文场景中成功降低了推理延迟。但在 PD 分离架构下,随着序列长度不断...
0
评论
分享
百度智能云技术站
2月前
关注
超节点选型:跳出性能迷局,聚焦稳定与落地价值
在超节点这一创新算力形态的早期发展阶段,企业部署超节点时,唯有跳出性能迷局,聚焦超节点与业务场景的贴合度、与现有基础设施的兼容性,从性能转化、稳定性、可落地性多维度综合考量...
0
评论
分享
百度智能云技术站
2月前
关注
一次快速响应的开源协作,让 DeepSeek-V3.2-Exp 性能满血回归
部署 DeepSeek-V3.2-Exp 时,百度百舸团队发现其长上下文性能明显低于官方报告。经排查,问题源于官方开源的 Inference Demo 中 RoPE 排布方...
0
评论
分享
百度智能云技术站
2月前
关注
面向复杂生产场景的 Token 双流:百度百舸开源贡献至 SGLang 社区
在百度百舸线上真实业务中(约束首 token 延迟 TTFT < 1 秒),单机吞吐最高提升达 30%。在 25 年 8 月百度百舸将 Token 双流核心代码正式贡献至 ...
0
评论
分享
百度智能云技术站
3月前
关注
让存储迈入百万 IOPS 时代,百度智能云用户态网络协议栈 Polar 全景解读
面对云原生时代的网络性能挑战,业界迫切需要一种既能突破传统内核协议栈性能瓶颈,又能保持工程可用性及生态兼容性的解决方案。...
0
评论
分享
百度智能云技术站
3月前
关注
百度智能云 X 十字路口 | 对谈王雁鹏:亲述从大数据时代到 3 万卡集群的中国算力演进史
在 AI 的下半场,算法的创新固然重要,但算力好像正在成为终极的变量,AI 的军备竞赛,已经从代码和模型,延伸到了芯片、电力和数据中心这些更底层的物理世界。...
0
评论
分享
下一页
个人成就
文章被点赞
6
文章被阅读
15,335
掘力值
1,074
关注了
0
关注者
12
收藏集
0
关注标签
5
加入于
2024-06-05