从愿景到落地:openFuyao 的技术定位与演进路线

46 阅读11分钟

openFuyao 到底在做什么?从愿景到落地的完整路线

openFuyao 的目标其实很直接,在通算加上智算的混合场景里,给工程团队一套能跑、能管、能持续演进的基础软件。

它既不想做又一个 Kubernetes 发行版,也不做只适配单一硬件的窄平台。

它尝试把容器编排、资源治理、算力释放、以及场景化套件这些东西,揉成一张能落地的工程地图。

这篇文章会从高处俯瞰 openFuyao,围绕愿景与定位、技术框架、版本与里程碑、生态路线与典型落地路径,回答三个问题:为什么需要它、它解决了什么、怎么选型落地。

为什么要有 openFuyao

过去几年,算力的供给和负载的形态都在快速变化。

NPU、GPU、CPU 多样化并行存在,业务侧既有 Prefill 和 Decode 结构化的 AI 推理,也有昼夜波动巨大、吞吐敏感的大数据作业。

传统思路通常各自为阵,AI 团队拼装推理链路,大数据团队调参引擎,平台团队维持一个尽量通用的 K8s。问题是,复杂度总和不会凭空消失,它只是在不同人群之间迁移。

比如我之前遇到过一个场景,一家公司的集群里同时跑着 CPU 推理、GPU 推理、NPU 推理三种任务。

每个团队都觉得自己的任务最重要,调度策略全是各自拍脑袋定的。

结果就是经常有只需要 CPU 的任务跑到 GPU 节点上,而真正需要 GPU 的推理请求在那儿排队。

这种问题在很多地方都存在:

异构激增,CPU、GPU、NPU、FPGA、DPU 并存,资源碎片化、调度复杂、性价比难以稳定复用。

业务多形态,离线批处理、实时流、AI 训练推理、多模态与图计算等,编排层与数据层协同成本高。

运维难题,集群规模上千节点后,多集群治理、故障域、弹性扩缩、月度升级的工程复杂度爆炸。

openFuyao 的主张很简单,算力释放优先,以 NUMA 亲和、高密容器、在离线混部、分布式 KVCache、作业调度等能力为核心抓手,先解锁底层算力效率,再向上托举业务。

场景驱动,围绕 AI 推理和大数据两大高频场景,提供可直接上架的算力亲和应用货架

工程化开源,社区发行节奏明确、文档完善、问题单与 CVE 管理透明,降低试点到推广的不确定性。

技术框架是怎么搭起来的

如果把 openFuyao 想象为一张城市蓝图,最底层是道路与红绿灯,也就是增强发行的 Kubernetes,拓扑感知、NUMA 亲和、多集群治理、认证鉴权、一键安装与灰度升级等能力保证车流可控。

其上是一左一右的两大功能区,AI 推理套件与大数据套件。前者聚焦智能路由、PD 分离与分布式 KVCache,后者提供 Spark 和 Flink 亲和模板、NFD 驱动的节点特征发现以及 IO 网络限流方案。

再往上是算力释放的城市设施,多样化算力池化、在离线混部与高密容器、分布式作业调度、以及即插即用的 AI 推理一体机形态。

这不是把名词摆满就完了,关键在于它们以发行加货架加组件的结构化方式相互咬合。

应用用货架模板即拿即用,平台以组件可插拔演进,风险控制靠发行节奏加灰度回滚落地。

具体到容器与调度基座这一层,openFuyao 在 Kubernetes 增强发行的基础上,做了日志告警监控、认证鉴权、多集群管理、扩展组件管理的工程化封装。

编排层增强方面,对 K8s 调度器做了 NUMA 感知、拓扑与亲和、超大规模调度优化。

运维内建了一键安装部署、镜像签名、灰度升级、集群体检。

AI 推理加速套件包含智能路由、PD 分离、分布式 KVCache、NPU 和 GPU 以及 NIC 资源协调。

大数据场景套件提供 Spark、Flink、Hive、HBase 等的算力亲和化模板,含节点特征发现 NFD、IO 网络限流策略。

算力释放创新组件涵盖 NUMA 亲和、高密容器、在离线混部、分布式作业调度、超大规模集群、轻量一体机、AI 推理加速。

多样化算力池化与调度通过 KAE-Operator、NPU-Operator、弱口径统一抽象与跨设备编排实现。

开发者视角看到的是更稳定的算力抽象与策略选择,而不是和每种硬件肌肉对接。

和传统方案有什么不同

传统做法强调各线自理,AI 推理链路由业务端拼装,路由、KV、弹性各自实现。

大数据靠引擎调参,平台只确保容器基础设施稳定。

遇到波峰就加机器,升级回滚靠脚本与经验,跨团队的知识复用很难沉淀。

openFuyao 选择把复杂度工程化,把多算力抽象成池化共管的资源,以 Operator 屏蔽硬件差异。

把编排策略做成 NUMA 拓扑感知与在离线混部的组合拳。

把 AI 推理的智能路由加 PD 分离加分布式 KVCache 做成场景三件套。

把大数据的经验固化为亲和模板。把版本说明、CVE 公示、灰度策略纳入发行体系。

换句话说,它不是功能更多,而是把必需的功能变成标准化的工程资产。

举个例子,有个团队之前的推理服务,Prefill 和 Decode 挤在同一批实例上。

Prefill 是计算密集型,Decode 是访存密集型,就像让短跑运动员和马拉松选手在同一赛道上比赛,谁都发挥不出来。

用了 openFuyao 的 PD 分离之后,把推理集群拆成两个资源池,Prefill 池部署在 GPU 算力更强的节点上,Decode 池部署在显存更大的节点上。

调度器根据节点的 NFD 标签自动把 Pod 放到合适的池子里,不需要手写复杂的 nodeSelector 或 affinity 规则。

这就是传统方案和 openFuyao 的区别,前者需要你自己去拼装、去调试、去踩坑,后者把这些经验沉淀成了标准化的能力。

版本与里程碑

工程化的可信度来自版本节奏加变更可见加风险可控。

openFuyao 以季度节奏发布,早期版本完成容器平台增强与亲和组件的首发,随后逐步完善多算力池化与 NFD 画像,接着把 AI 推理三件套打磨到可复制,然后再去做灵衢超节点、多集群治理与 SLO 产品化。

每个版本说清楚新增什么、修复什么、已知问题是什么,并配套可回滚的灰度策略。

这听起来平平无奇,但真正在企业里跑通,能极大降低升级恐惧,也让协作团队对变化有合理预期。

下述节点用于文章叙述与路线展示,具体以官方文档为准:

v25.03 社区首发,确立容器平台加算力亲和组件基本盘。

v25.06 多样化算力池化能力完善,NPU、GPU、SmartNIC 协同与 NFD 特征发现打通。

v25.09 AI 推理场景全链路打磨,智能路由、PD 分离、KVCache、流量保护。

后续会做灵衢超节点生态深化、跨地域多集群治理、观测与 SLO 策略产品化。

工程化信号包括文档中心、发行说明、问题单与 CVE 公示、常见迁移升版手册逐步完备。

生态协作与开源路线

openFuyao 的生态主张是在熟悉的工具链里增强而非替换,在容器世界里亲和 Kubernetes,在数据世界里亲和 Spark 和 Flink,在 AI 推理里拥抱社区主流做法,比如 PD 分离、KV 管理,同时与硬件厂商通过 Operator 打通设备画像。

开源节奏上,坚持代码逐步开放加文档先行加发行背书,避免仓库空心化。

协作的关键在能被他人复用,模板、脚本、案例、度量口径都要可移植。

生态伙伴可以很快把经验搬到自己的集群里,而不是重新走一遍踩坑之路。

社区协同方面,对上游 K8s、CNI 和 CSI 生态保持兼容,Operator 化承接底层硬件特性。

硬件共建方面,面向多样化算力厂商开放接口,KAE 和 NPU Operator 与设备能力对接。

开发者生态方面,应用货架成为入口,沉淀可复用的场景模板加指南加参数建议。

典型落地路径

实践上,最稳妥的路径是先小后大。

第一周只选一个场景试点,AI 推理或大数据都可以,拉起所需组件,尽量做增量改造。

第三天开始就收集度量,用前后对比盯住 P95、P99、Tok/s、装箱率与成本。

第五天以后把参数与脚本固化成应用货架模板,为下一批团队拷贝。

规模推广阶段,配合 NFD 与 Operator 统一设备画像,发行灰度一次只点亮一个指标,延迟、吞吐、成本,问题单要可追溯、能闭环。

你会发现,真正的门槛不是东西能不能跑,而是能不能被反复复用。

openFuyao 要做的,就是把这种复用变成理所当然的日常。

路径 A:AI 推理加速,最快感知收益

场景是线上推理,QPS 和时延敏感,模型频繁热更,成本需可控。

做法是引入容器平台增强发行,复用现有 K8s 基座。使用 AI 推理加速套件,开启智能路由,路由策略按 PP、PD、DP 自动分发。

打开分布式 KVCache 与 PD 分离,Prefill 和 Decode 解耦,提高显存利用与吞吐。

打开 NUMA 亲和加高密容器。收集 P95、P99 延迟、Tok/s、显存利用变化,做 AB 对比。

预期是延迟尾部更稳、资源利用率上升、可并发能力提升 20% 到 50%,依具体模型与硬件而定。

路径 B:大数据场景算力亲和化

场景是日批加实时同集群,IO、网络、CPU 互相干扰。

做法是引入 NFD 节点特征发现,给节点打上存储、网络、NUMA 标签。

使用货架模板为 Spark 和 Flink 作业启用亲和反亲和与 IO 限流。

打开在离线混部与高密容器,逐步提高平均装箱率。

预期是批处理峰谷更平滑,资源回收与复用明显提升,成本逐期下降。

路径 C:多算力池化统一调度

场景是 GPU 和 NPU 同域共存,希望按性价比优先选择执行单元。

做法是部署 KAE-Operator 和 NPU-Operator,注册设备能力。在编排层为工作负载开启设备画像匹配,优先某类算力、超时回退策略。在弹性策略中加入跨设备迁移与回退的预案,确保 SLO。

预期是减少把贵算力当通用算力用的浪费,以策略换成本。

选型清单

目标清晰,先定优先 AI 推理、大数据、多算力池化的主线,不要一口吃成胖子。

增量改造,优先与现有 K8s、监控、日志对齐,不动业务侧接口。

收益可量化,SLO 指标,延迟尾部、吞吐、装箱率、成本每千次先对齐再上车。

算力画像,通过 NFD 与 Operator 形成统一设备视图,避免口口相传式运维。

亲和策略,NUMA 拓扑感知、在离线混部、高密容器按模板启用,循序渐进。

AI 套件优先,有推理业务先跑智能路由加 KVCache 加 PD 分离三件套。

灰度与回滚,以发行版为单位灰度,一周一个小目标,可退可进。

跨团队协作,编排、模型、数据、网络、硬件联合推进,有问题单闭环。

文档与培训,自有货架模板在内部沉淀,参数、版本、坑点可追溯。

开源共建,把定制能力回馈到社区模块,减少后续维护成本。

生态协作的参与姿势

提交使用案例与参数模板,把某场景跑通的组合拳沉淀为货架项。

扩展 Operator,给新硬件新能力补齐 CRD 加控制器。

共建调度策略,围绕 NUMA、混部、弹性扩缩,提供真实工作负载数据与复现实验。

文档脚本,补开箱即用的一键脚本、CI 流程与健康检查。

总结

openFuyao 的价值,在于让多样化算力加复杂场景重新变得可预测、可复制、可治理。

与其把时间耗在一遍遍体力活上,不如把工程化能力沉淀成货架,把调度策略做成开关,让算力释放回归业务本身。

下一步选一条你最迫切的主线,推理加速、大数据亲和、多算力池化,用一周时间做一个小闭环,感知收益、形成模板、再规模化推广。

到时候openFuyao 就不只是一套概念框架了,而是你生产环境里最耐打的底座。