首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
百度智能云技术站
掘友等级
云智一体
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
针对 DeepSeek V3.2 的推理引擎深度优化
本文整理自 2025 年 12 月 14 日的「百度百舸 X SGLang Meetup 北京站」的同名主题分享。
百度百舸打造大规模分布式推理集群的基础设施
本文整理自 2025 年 12 月 14 日的「百度百舸 X SGLang Meetup 北京站」的同名主题分享。在公众号回复「SGLangV5」,可以获得此次 Meetup 上半场的 4 个演讲主题
提升超长上下文本推理吞吐,百度百舸 ESS 技术报告新鲜奉上
长文本推理被「显存墙」卡住 在 32K 至 128K 超长上下文场景中,DeepSeek-V3.2-Exp 的 Decode 阶段需维护一个随序列长度线性增长的 Latent Cache
百度百舸 X 昆仑芯 | 开源 vLLM-Kunlun Plugin,快速适配新模型、跑出极致性能
百度百舸联合昆仑芯正式推出 vLLM-Kunlun Plugin —— 一款面向百度昆仑芯 XPU 的高性能 vLLM 平台插件,该 Plugin 现已全面开源。
突破显存瓶颈:基于 DeepSeek-V3.2-Exp 的 Latent Cache 卸载预取方案设计与模拟验证
1. 引言 DeepSeek-V3.2-Exp 所搭载的稀疏化 Attention 计算,在长上下文场景中成功降低了推理延迟。但在 PD 分离架构下,随着序列长度不断增长,Decode 阶段的吞
超节点选型:跳出性能迷局,聚焦稳定与落地价值
在超节点这一创新算力形态的早期发展阶段,企业部署超节点时,唯有跳出性能迷局,聚焦超节点与业务场景的贴合度、与现有基础设施的兼容性,从性能转化、稳定性、可落地性多维度综合考量,才能让超节点真正落地。
一次快速响应的开源协作,让 DeepSeek-V3.2-Exp 性能满血回归
部署 DeepSeek-V3.2-Exp 时,百度百舸团队发现其长上下文性能明显低于官方报告。经排查,问题源于官方开源的 Inference Demo 中 RoPE 排布方式的一处细微错配。
面向复杂生产场景的 Token 双流:百度百舸开源贡献至 SGLang 社区
在百度百舸线上真实业务中(约束首 token 延迟 TTFT < 1 秒),单机吞吐最高提升达 30%。在 25 年 8 月百度百舸将 Token 双流核心代码正式贡献至 SGLang 开源社区。
让存储迈入百万 IOPS 时代,百度智能云用户态网络协议栈 Polar 全景解读
面对云原生时代的网络性能挑战,业界迫切需要一种既能突破传统内核协议栈性能瓶颈,又能保持工程可用性及生态兼容性的解决方案。
百度智能云 X 十字路口 | 对谈王雁鹏:亲述从大数据时代到 3 万卡集群的中国算力演进史
在 AI 的下半场,算法的创新固然重要,但算力好像正在成为终极的变量,AI 的军备竞赛,已经从代码和模型,延伸到了芯片、电力和数据中心这些更底层的物理世界。
下一页
个人成就
文章被点赞
6
文章被阅读
19,514
掘力值
1,200
关注了
0
关注者
13
收藏集
0
关注标签
5
加入于
2024-06-05