首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
百度智能云技术站
掘友等级
云智一体
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
百度智能云技术站
3小时前
关注
百度智能云推出 OpenClaw 安全解决方案,让每一次执行都可控
在 OpenClaw 中,一个常见却不容易被察觉的情况是: 它可以顺利完成任务, 但你并不总是清楚,它在过程中具体做了什么。 而另一类问题,则发生在执行本身, 你的意图,在...
0
评论
分享
百度智能云技术站
3小时前
关注
vLLM-Kunlun 框架性能极致优化,充分释放昆仑芯硬件性能
本文整理自 26 年 3 月 15 日 vLLM-Kunlun Meetup 北京站活动的同名主题演讲。在公众号回复「vLLM-Kunlun」,可以获得此次 Meetup ...
0
评论
分享
百度智能云技术站
5天前
关注
vLLM-Kunlun:高性能、易开发、全生态兼容的国产芯适配
本文整理自 26 年 3 月 15 日 vLLM-Kunlun Meetup 北京站活动的同名主题演讲。在公众号回复「vLLM-Kunlun」,可以获得此次 Meetup ...
0
评论
分享
百度智能云技术站
11天前
关注
像 L4 自动驾驶一样,用 Agent 破局网络变更之痛
对网络工程师而言,「变更」这两个字天生带着重量。变更重点在于「变」字,网络有个朴素的规律:不动,就不坏。重大活动封网期间往往是故障最少的日子,这几乎是行业共识。但业务不会静...
0
评论
分享
百度智能云技术站
16天前
关注
百度百舸 x 昆仑芯,打造全栈协同量化体系,释放推理极致性能
百度百舸基于昆仑芯算力平台构建了一套覆盖「模型量化 - 量化推理 - 硬件加速」的端到端量化支持体系,实现模型层、框架层与硬件层的全栈协同优化。...
0
评论
分享
百度智能云技术站
24天前
关注
因熟知而忽视:底层系统里,藏着 20% 未被挖掘的算力成本
在企业的技术运营中,一条被广泛验证的降本增效路径早已形成共识:采购时通过规模优势压低硬件单价,使用时借助调度、混部和潮汐算力提升资源利用率...
0
评论
分享
百度智能云技术站
1月前
关注
百度百舸 Day0 完成昆仑芯和智谱 GLM-5 适配,实现「发布即可用」
将主流大模型「发布即可用」常态化,让开发者和用户在模型上线第一时间就能切实享受到国产 AI 芯片带来的高效加速体验。...
0
评论
分享
百度智能云技术站
1月前
关注
百度百舸基于昆仑芯 XPU 完成 GLM-4.x 在 SGLang 与 vLLM 上的适配落地
百度百舸基于 SGLang 与 vLLM 推理框架,完成智谱 GLM-4.x 系列模型(GLM-4.5 / GLM-4.5-Air / GLM-4.6 / GLM-4.7)...
0
评论
分享
百度智能云技术站
1月前
关注
百度沧海·存储 Mantle 系统架构演进之路,SOSP'25 论文背后的故事
在技术深水区,最大的障碍往往不是未知,而是那些我们深信不疑的已知。 这篇文章清晰还原了创新的真实路径:问题从何而来、传统方案为何失效,以及 Mantle 新的系统设计思路是...
0
评论
分享
百度智能云技术站
2月前
关注
让 AI 学会「专家级思考」的 Agent 开发框架 LoongFlow 开源发布
LoongFlow 是百度百舸团队发布的一个开源的、旨在让 AI 学会「专家级思考」的智能体开发框架。我们相信,设计一个能解决复杂问题的专家级 Agent,关键在于其思考模...
0
评论
分享
百度智能云技术站
2月前
关注
基于 vLLM 的大模型推理服务秒级扩缩容的工程优化实践
百度智能云混合云团队基于 vLLM 框架,在扩容和容灾场景下,将推理服务拉起时间压缩到「几秒级」—— 模型权重可在约 2 秒内完成加载,采用预留的守护实例后,不到 5 秒即...
0
评论
分享
百度智能云技术站
2月前
关注
2 天速通小米 MiMo Flash V2,vLLM-Kunlun Plugin 助力昆仑芯高效适配最新大模型
百度百舸和昆仑芯的技术团队基于 vLLM-Kunlun Plugin,仅用 2 天时间便在 vLLM 环境中实现了 MiMo Flash V2 在昆仑芯 P800 XPU ...
0
评论
分享
百度智能云技术站
2月前
关注
最大无本体具身数据集开源!简智机器人联合百度百舸,加速具身智能应用落地
最大无本体具身数据集开源!简智机器人秉持 「具身智能源于人、回归人」 的核心理念,将「RealOmni」数据集第一时间同步在百度百舸平台,便于具身智能行业伙伴快速将数据集应...
0
评论
分享
百度智能云技术站
2月前
关注
百度百舸面向百度天池超节点的大模型推理引擎优化,持续降低昆仑芯 XPU 的 token 成本
结合新硬件架构的特性,AI Infra 团队可以基于对上层模型算法特性的深度理解,进一步做 AI 工程上的软件优化,充分释放硬件潜能,在吞吐量、TTFT、TPOT 等核心指...
0
评论
分享
百度智能云技术站
2月前
关注
规模最大、性能最好,百度百舸助力北京人形打造开源具身多模态大脑模型 Pelican-VL1.0
百度百舸联合北京人形,构建了覆盖「模型提效加速、训练稳定性保障、企业级开发平台」的 AI Infra 具身智能解决方案,加速了 Pelican-VL 模型的落地。...
0
评论
分享
百度智能云技术站
2月前
关注
DeepSeek-V3.2 128K 推理秒开?百度百舸开源 CP 上下文并行方案
百度百舸 AIAK 团队为 DeepSeek V3.2 开发的上下文并行(Context Parallelism, CP)方案已正式合入 SGLang 主分支。...
0
评论
分享
百度智能云技术站
3月前
关注
百度百舸面向 DeepSeek V3 系列模型 AE 分离框架的实战
本文整理自 2025 年 12 月 14 日的「百度百舸 X SGLang Meetup 北京站」的同名主题分享。在公众号回复「AI Infra」,可以获得此次 Meetu...
0
评论
分享
百度智能云技术站
3月前
关注
针对 DeepSeek V3.2 的推理引擎深度优化
本文整理自 2025 年 12 月 14 日的「百度百舸 X SGLang Meetup 北京站」的同名主题分享。...
0
评论
分享
百度智能云技术站
3月前
关注
百度百舸打造大规模分布式推理集群的基础设施
本文整理自 2025 年 12 月 14 日的「百度百舸 X SGLang Meetup 北京站」的同名主题分享。在公众号回复「SGLangV5」,可以获得此次 Meetu...
0
评论
分享
百度智能云技术站
3月前
关注
提升超长上下文本推理吞吐,百度百舸 ESS 技术报告新鲜奉上
长文本推理被「显存墙」卡住 在 32K 至 128K 超长上下文场景中,DeepSeek-V3.2-Exp 的 Decode 阶段需维护一个随序列长度线性增长的 Laten...
0
评论
分享
下一页
个人成就
文章被点赞
6
文章被阅读
18,123
掘力值
1,143
关注了
0
关注者
13
收藏集
0
关注标签
5
加入于
2024-06-05