🦀 用 OpenClaw 实现一个 C++ 复刻版 QuantClaw

0 阅读2分钟

GitHub: github.com/QuantClaw/Q… | Apache 2.0 | C++17 | 324 tests ✅

最近在 Discord 上和 OpenClaw 聊得比较多,越聊越想把它搬到 C++ 上实现。于是花了些时间,通过在 Discord 上与 OpenClaw 聊天的方式用 C++ 17 从零复刻了一个版本——带 WebSocket 网关、Web 控制台以及 Discord/Telegram 接入。

image.png

目前 324 个单元测试已全部跑通。今天正式开源。

quantclaw-logo.png


🗣️ 故事的起点:在 Discord 上和 OpenClaw 聊天

OpenClaw 是一个挺有意思的开源 AI 项目,新年期间我一直在折腾它。日常就是在 Discord 里和机器人对话——理需求、聊想法,或者让它帮忙写点代码。

聊久了,职业病就犯了:OpenClaw 基于 TypeScript,功能很全,但运行时开销确实不小。我开始想:如果用 C++ 复刻一个,性能能压榨到什么程度?能不能跑在一台 2GB 内存的廉价小服务器上?

于是有了 QuantClaw——一个在对话中诞生,用 C++17 复刻的 OpenClaw。


🤔 为什么要用 C++ 复刻?

目前市面上的 AI 助手框架基本是 Python 或 TypeScript 的天下。开发效率虽高,但运行时占用的内存也多——一个空闲的 Node.js 进程通常要吃掉 50-80MB 内存,Python 甚至更多。

如果你打算在一台 2GB 内存的云服务器上 7x24 挂着私人 AI 助手,这部分内存开销就成了不得不考虑的资源成本。

QuantClaw 的做法是:全量 C++17 实现。

Node.js (OpenClaw)C++ (QuantClaw)
空闲内存~60MB~8MB
启动时间~2s<200ms
GC 停顿
分发形式庞大的依赖包单文件二进制

原生二进制运行,没有解释器开销和 GC 停顿,启动即就绪。内存占用降到了同类方案的 1/8 左右。

image.png

上图是我运行 QuantClaw 后的资源占用情况,其资源消耗极少。


📐 QuantClaw 是什么

QuantClaw 是 OpenClaw 生态的一个 C++ 原生实现。它兼容 OpenClaw 的工作空间标准(SOUL.md / USER.md / MEMORY.md)、技能系统(SKILL.md)以及 WebSocket RPC 协议,可以直接对接原有的前端和客户端。

简单说:这是一个更轻量、更高性能的私人 AI 助手后端。


🏗️ 架构一览

image.png 核心组件纯 C++ 实现,频道适配器(如 Discord)作为独立进程通过 WebSocket RPC 接入网关,保持了和 OpenClaw 一致的解耦设计。


🚀 启动:一行命令

git clone https://github.com/QuantClaw/QuantClaw.git
cd QuantClaw && mkdir build && cd build
cmake .. && make -j$(nproc)
./quantclaw gateway

网关启动很快,你可以看到各组件初始化的日志:

quanclaw-log.png

从 MemoryManager 到 GatewayServer 初始化完成,整个过程不到 1 秒。


🖥️ Web 控制台

网关自带了一个简单的 Web 控制台。浏览器访问 localhost:18790 即可与助手对话:

quantclaw-dashboard-chat.png

顶部显示实时连接数、运行时间等状态信息。下方聊天界面支持 Markdown 渲染。

quantclaw-dashboard-status.png

后台提供了 12 个 REST API 端点,方便通过 curl 或其他工具集成到自动化流里。


🎮 Discord 频道接入

这是 QuantClaw 诞生的初衷。在配置里填入 Token,网关会自动拉起适配器进程:

{
  "channels": {
    "discord": {
      "enabled": true,
      "token": "YOUR_DISCORD_BOT_TOKEN"
    }
  }
}

接入后的对话效果:

quanclaw-discord-chat.jpg

消息流转逻辑如下:

sequenceDiagram
    participant U as 👤 Discord 用户
    participant DA as Discord Adapter
    participant GW as Gateway :18789
    participant LLM as LLM Provider

    U->>DA: @bot 你好
    DA->>GW: chat.send (WS RPC)
    GW->>LLM: Chat Completion (streaming)
    LLM-->>GW: text_delta...
    GW-->>DA: text_delta events
    DA-->>U: 流式回复 ✨

日志会记录每一轮 RPC 调用的链路,方便排查消息流转状态:

quantclaw-discord-chat-log.png


🔌 多模型支持

QuantClaw 支持通过 provider/model-name 前缀进行路由:

{ "model": "openai/Qwen3-32B" }
{ "model": "openai/gpt-4o" }
{ "model": "anthropic/claude-sonnet-4-6" }

兼容 OpenAI 格式的接口基本都能无缝接入。


📦 功能清单

模块说明
🔄 AgentLoop支持多轮对话与工具调用,支持流式响应
💾 Session 持久化JSONL 格式记录,完整保存上下文
🧩 Skill 系统兼容 OpenClaw 规范,支持环境隔离
🛠️ Tool 系统文件、Shell、消息发送,内置沙箱安全校验
🔗 MCP 支持接入外部 Model Context Protocol 工具服务器
♻️ 热重载配置修改后自动生效
🐳 Docker提供多阶段构建镜像,一键部署

目前 324 个单元测试全绿通过 ✅


🔧 技术栈

纯 C++17 实现,核心依赖如下:

依赖用途引入方式
spdlog日志系统包
nlohmann/jsonJSON 处理系统包
libcurlHTTP 请求系统包
IXWebSocketWebSocket 协议CMake FetchContent
cpp-httplibHTTP 服务CMake FetchContent

⚡ 快速上手

Ubuntu / Debian:

sudo apt install build-essential cmake libssl-dev \
  libcurl4-openssl-dev nlohmann-json3-dev libspdlog-dev zlib1g-dev

git clone https://github.com/QuantClaw/QuantClaw.git
cd QuantClaw && mkdir build && cd build
cmake .. && make -j$(nproc)
./quantclaw_tests   # 跑一遍测试
./quantclaw gateway # 启动

✍️ 写在最后

QuantClaw 的想法起得很简单——在 Discord 里聊着聊着,就想写个更轻、更快的 C++ 版本。从第一行代码到 324 个测试跑通,这个过程也是一次有趣的 AI 协同实践。

目前的版本是 v0.2.0,核心功能已经跑通。如果你也在找一个轻量、低开销的私人 AI 后端,欢迎尝试。

GitHub: github.com/QuantClaw/Q…

License: Apache 2.0.