首页
AI Coding
AIDP
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
异构计算
百度智能云技术站
创建于2024-06-05
订阅专栏
百度智能云异构计算专栏
暂无订阅
共8篇文章
创建于2024-06-05
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
百度百舸 X 昆仑芯 | 开源 vLLM-Kunlun Plugin,快速适配新模型、跑出极致性能
百度百舸联合昆仑芯正式推出 vLLM-Kunlun Plugin —— 一款面向百度昆仑芯 XPU 的高性能 vLLM 平台插件,该 Plugin 现已全面开源。
突破显存瓶颈:基于 DeepSeek-V3.2-Exp 的 Latent Cache 卸载预取方案设计与模拟验证
1. 引言 DeepSeek-V3.2-Exp 所搭载的稀疏化 Attention 计算,在长上下文场景中成功降低了推理延迟。但在 PD 分离架构下,随着序列长度不断增长,Decode 阶段的吞
一次快速响应的开源协作,让 DeepSeek-V3.2-Exp 性能满血回归
部署 DeepSeek-V3.2-Exp 时,百度百舸团队发现其长上下文性能明显低于官方报告。经排查,问题源于官方开源的 Inference Demo 中 RoPE 排布方式的一处细微错配。
面向复杂生产场景的 Token 双流:百度百舸开源贡献至 SGLang 社区
在百度百舸线上真实业务中(约束首 token 延迟 TTFT < 1 秒),单机吞吐最高提升达 30%。在 25 年 8 月百度百舸将 Token 双流核心代码正式贡献至 SGLang 开源社区。
百度智能云 X 十字路口 | 对谈王雁鹏:亲述从大数据时代到 3 万卡集群的中国算力演进史
在 AI 的下半场,算法的创新固然重要,但算力好像正在成为终极的变量,AI 的军备竞赛,已经从代码和模型,延伸到了芯片、电力和数据中心这些更底层的物理世界。
基于 veRL 多模态混训的视频上下文并行,百度百舸提升具身智能强化学习效能
在客户场景的实际测试中,相比社区原有方案,百度百舸的方案经过合理的切分配置,单段视频支持的帧数上限提升超过 2 倍,单帧最大分辨率上限提升超过 2.6 倍,可以大幅缩短训练时间。
百度百舸平台的大模型训练最佳实践
本次我的分享主题在技术上算是对前面内容的综合,将围绕百舸在大模型训练过程的稳定性设计和加速实践展开,包括以下 3 个部分: 大模型时代的百舸异构计算平台; 大模型训练稳定性实践;大模型训推加速实践。
一次性讲明白,百度百舸如何搞定一个可以支持多芯混合训练的 AI 集群
由于外部环境的变化,适用于大模型训练任务的 GPU 整体规模无法继续增长。这些存量 GPU 组成的集群,仍然是当前加速大模型训练的主要 AI 算力来源。