首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
llama.cpp 分布式RPC模型推理
重启的码农
创建于2025-08-19
订阅专栏
llama.cpp 内置了一个实验性质的分布式RPC模型推理,可以把模型加载到多个不同的机器上运行,本专栏主要分析介绍llama.cpp分布式运行的原理
等 1 人订阅
共8篇文章
创建于2025-08-19
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
llama.cpp 分布式推理介绍(7) 远程后端缓冲区 (RPC Buffer)
在本章中,我们学习了 `ggml-rpc` 远程内存管理的核心——**远程后端缓冲区 (RPC Buffer)**。
llama.cpp 分布式推理介绍(6) 张量序列化 (rpc_tensor)
在本章中,我们深入探讨了 `ggml-rpc` 实现远程计算的关键一步——**张量序列化**,通过张量序列化,我们把A机器中的张量信息传递到rpc-server进行处理。
llama.cpp 分布式推理介绍(5) RPC 通信协议
在本章中,我们揭开了 `ggml-rpc` 客户端和服务器之间沟通的秘密——**RPC 通信协议**。
llama.cpp 分布式推理介绍(4) RPC 服务器 (rpc_server)
在本章中,我们揭开了 `ggml-rpc` 系统另一半的神秘面纱——**RPC 服务器 (rpc_server)**。
llama.cpp 分布式推理介绍(3) 远程过程调用后端 (RPC Backend)
在本章中,我们认识了 `ggml-rpc` 的核心交互工具——**远程过程调用后端 (RPC Backend)**。
llama.cpp 分布式推理介绍(2) 后端注册机制 (Backend Registration)
在本章中,我们深入了解了 GGML 强大且灵活的后端注册机制。通过图示和代码函数结合,帮助大家理解rpc的后端注册机制。
llama.cpp 分布式推理介绍(1) 远程计算设备 (RPC Device)
本章介绍ggml-rpc 的核心入门概念——远程计算设备 (RPC Device)。它是一个对远程服务器的本地抽象或代理,目的是让远程计算资源的使用像本地硬件一样简单。
llama.cpp 分布式推理介绍(0) 整体介绍 ggml-rpc
`llama.cpp` 的分布式推理功能,是基于`ggml`内置的`ggml-rpc`功能来实现的。本文介绍ggml-rpc 整体工作原理。