32K Star!港大开源Nanobot:4000行代码打造最轻量OpenClaw平替

0 阅读10分钟

一个香港大学实验室的开源项目,用 4000 行 Python 代码实现了 OpenClaw 的核心 Agent 能力——支持 11+ 大模型供应商、10+ 聊天平台、MCP 协议、长期记忆,代码量减少 99%。发布仅一个月,GitHub Star 从 0 飙到 32K。这就是 HKUDS 团队开源的 Nanobot。


一、这个项目到底是干嘛的?

图片

一句话概括:Nanobot 是一个超轻量级的开源个人 AI 助手框架,用不到 OpenClaw 1% 的代码量,实现了核心 Agent 能力。

你可以把它理解为——OpenClaw 的"极简平替",但不是阉割版,而是精华版。

OpenClaw 有多火不用多说——它是 2025-2026 年最现象级的 AI 助手项目,可以接管你的电脑、帮你写代码、发邮件、管日程。但问题也很明显:43 万行代码、推荐 4GB 以上内存、多项安全审计发现社区技能存在大量安全隐患、多个 Critical 级 CVE 漏洞——对于很多开发者和研究者来说,这台"AI 战斗机"实在太重了。

Nanobot 做的事情就是:用 ~4000 行清晰的 Python 代码重建 OpenClaw 的核心能力——Agent 循环、长期记忆、技能加载、多平台接入——只保留最关键的部分。

项目地址:github.com/HKUDS/nanob…

Star 数:32K+ | Fork 数:5.3K+ | 协议:MIT 语言:Python(≥3.11)| 核心代码:~4,000 行 | 发布时间:2026.02.02


二、核心亮点:凭什么一个月冲到 32K Star?

1. 极致轻量——99% 的代码瘦身

先看一组对比数据:

对比维度OpenClawNanobot差距
代码行数430,000+ 行~4,000 行减少 99%
资源占用重量级,需要较高配置极轻量,官方称 "minimal footprint"数量级差距
代码可读性代码量大,理解成本高一个下午读完

4000 行代码意味着什么? 意味着你可以在一个下午把整个项目从头到尾读完、理解透、改得动。对于研究者来说,这是学习 AI Agent 架构很好的参考;对于开发者来说,这是一个真正可以掌控的框架。

2. 四大核心模块——麻雀虽小,五脏俱全

Nanobot 的架构被精炼为四个核心模块,每一个都是 AI Agent 的关键零件:

┌─────────────────────────────────────────────────┐
│                   Nanobot 核心架构                │
├─────────────────────────────────────────────────┤
│                                                  │
│  ┌──────────────┐    ┌──────────────────────┐   │
│  │  Agent Loop  │    │    Memory Module     │   │
│  │  智能体循环    │    │    记忆系统           │   │
│  │              │    │                      │   │
│  │ · 推理决策    │    │ · MEMORY.md 长期记忆  │   │
│  │ · 工具调用    │    │ · YYYY-MM-DD.md 日记  │   │
│  │ · 上下文管理  │    │ · 会话持久化          │   │
│  └──────┬───────┘    └──────────┬───────────┘   │
│         │                       │                │
│  ┌──────▼───────┐    ┌──────────▼───────────┐   │
│  │ Skill Loader │    │    Message Bus       │   │
│  │ 技能加载器    │    │    消息总线           │   │
│  │              │    │                      │   │
│  │ · MCP 工具    │    │ · Telegram / Discord │   │
│  │ · 自定义技能  │    │ · WhatsApp / 飞书    │   │
│  │ · 动态加载    │    │ · 钉钉 / Slack / QQ  │   │
│  └──────────────┘    │ · Email / Matrix     │   │
│                      └──────────────────────┘   │
└─────────────────────────────────────────────────┘

Agent Loop(智能体循环) :核心推理引擎,接收用户输入 → 决策是否调用工具 → 执行动作 → 返回结果。这就是 AI Agent 的"大脑"。

Memory Module(记忆系统) :Nanobot 不是"金鱼记忆"。它用 MEMORY.md存储长期记忆(你的偏好、项目信息、常用指令),用 memory/YYYY-MM-DD.md记录每日笔记。越用越了解你。

Skill Loader(技能加载器) :支持两种技能扩展方式。一是 MCP 协议,接入外部工具服务器——浏览网页、管理文件、数据库查询等;二是自定义 SKILL.md,在 workspace/skills/下建个目录写一个 Markdown 描述文件,nanobot 启动后自动加载,适合快速添加轻量技能(翻译、文档阅读、数据分析等)。

Message Bus(消息总线) :统一的多平台接入层,一套 Agent 逻辑同时服务 10+ 聊天平台,WebSocket / Socket.IO / HTTP 轮询 / IMAP 全覆盖。

这四个模块背后的设计理念:通道抽象(平台差异在 Message Bus 层消化,上层逻辑不感知)、可插拔供应商(新增 LLM 供应商只需实现统一接口)、Markdown 记忆(不依赖向量数据库,直接用 Markdown 文件存储,LLM 自己读就能"回忆")、MCP 优先(技能扩展基于标准协议,直接复用 MCP 生态中已有的工具服务器)。

3. 11+ 大模型供应商——不绑定任何一家,亚太市场特别全

Nanobot 采用模型无关架构,支持的供应商覆盖面很广:

供应商类别支持的服务
国际主流OpenAI / Anthropic Claude / Mistral
国内主流DeepSeek / Qwen(通义千问)/ Moonshot(Kimi)/ MiniMax
云服务Azure OpenAI / VolcEngine(火山引擎)/ DashScope / OpenRouter
本地部署vLLM / 任何 OpenAI 兼容端点(LM Studio、llama.cpp 等)

Nanobot 底层使用 LiteLLM,理论上支持所有 LiteLLM 兼容的供应商。上表是 README 中明确列出的。对国内用户来说,通义千问、Kimi、DeepSeek、火山引擎都原生支持,不需要额外适配。

而且,Nanobot 支持完全离线运行。 接上 vLLM 等本地模型服务,数据完全不出你的设备,适合隐私敏感的使用场景。

4. 10+ 聊天平台——从 Telegram 到钉钉,一个 Agent 全覆盖

平台连接方式支持能力
TelegramWebSocket文字 / 图片 / 文件 / 语音 / 草稿流式输出
DiscordWebSocket文字 / 多频道
WhatsAppHTTP文字 / 媒体消息
飞书(Feishu)WebSocket文字 / 媒体 / 企业集成
钉钉(DingTalk)Stream(WebSocket)文字 / 媒体消息
SlackWebSocket文字 / 多频道
QQWebSocket文字 / 群聊支持
EmailIMAP/SMTP邮件收发 / 自动回复
MatrixHTTP去中心化协议
MochatSocket.IOClaw IM 客户端

5. MCP 协议支持——接入无限工具

2026 年 2 月 14 日,Nanobot 正式加入了 MCP(Model Context Protocol)支持。这意味着所有 MCP 兼容的工具服务器都可以直接接入 Nanobot:

  • 浏览器操控(Playwright MCP)
  • 文件系统管理
  • 数据库查询
  • API 调用
  • 搜索引擎
  • ……

MCP 就是 AI Agent 的 USB 接口——一个标准协议,插什么工具都能用。

6. 更多实用能力

能力说明
Prompt CachingAnthropic 优化,重复上下文不重复计费,省钱
思考模式(Thinking Mode)实验性支持,让 Agent 展示推理过程
Cron 定时任务自然语言设置定时任务:"每天早上 9 点给我发天气预报"
多模态文件处理跨平台处理图片、文档、语音文件
会话持久化重启不丢失对话历史
流式输出Telegram 支持草稿流式输出,打字效果实时可见

三、与 OpenClaw 对比:该怎么选?

这是每个想搭建个人 AI 助手的人最关心的问题。我们掰开了说:

选 OpenClaw 的理由

维度OpenClaw 优势
伴侣应用macOS / iOS / Android 原生 App,支持语音唤醒、推送通知
技能生态庞大的社区技能市场,覆盖浏览器、日历、Trello 等数百种能力
语音交互原生支持 always-on 语音唤醒和 push-to-talk
成熟度更长的开发周期,更多的边界情况处理

选 Nanobot 的理由

维度Nanobot 优势
代码可控4000 行代码,你能完全理解和掌控每一行
资源占用极轻量,官方称 minimal footprint
安全性代码量小 = 攻击面小,可完全离线运行,无 CVE 漏洞记录
亚太友好原生支持通义千问 / Kimi / DeepSeek / 飞书 / 钉钉 / QQ
研究价值很好的 AI Agent 架构学习教材
可定制性代码简单清晰,改起来毫无心智负担

一句话总结

  • 想要"拿来即用"的全功能 AI 管家→ OpenClaw(但请用 Docker 隔离,注意安全风险)
  • 想要"吃透原理"的可控 AI 助手→ Nanobot(尤其适合开发者、研究者、隐私敏感用户)
  • 国内用户、需要接入飞书/钉钉/QQ→ Nanobot(OpenClaw 对国内生态支持弱)

四、安全性:这可能是选 Nanobot 最硬的理由

这一点必须单独拿出来说,因为它太重要了。

OpenClaw 在 2026 年初被曝出多个严重安全问题:

安全隐患具体表现
CVE 漏洞2026 年初六周内披露 82 个漏洞(CNNVD),含多个 CVSS 9.0+ 的 Critical 级 CVE(如 CVE-2026-28446、CVE-2026-28484)
恶意技能Snyk 审计发现 ClawHub 上 7%+ 的技能含严重安全缺陷,36% 含 prompt 注入漏洞;Koi Security 发现约 12% 的技能为恶意投毒
API Key 明文存储密钥以明文保存在本地配置文件中,Snyk 报告 280+ 个技能存在凭据泄露风险
Prompt 注入风险单一 LLM 上下文同时处理不可信数据和特权命令,Microsoft、CrowdStrike、Cisco 均发布了详细分析

而 Nanobot 的安全优势是"结构性"的:

  1. 代码量 = 攻击面:4000 行代码的攻击面天然比 43 万行小两个数量级
  2. 完全可审计:一个下午读完全部代码,安全团队可以彻底 Review
  3. 第三方依赖少:相比 OpenClaw 庞大的社区技能市场(ClawHub),Nanobot 主要通过 MCP 协议和本地 SKILL.md 扩展能力,第三方代码引入的风险面更可控
  4. 权限最小化:不需要也不请求系统 root 权限

安全不是功能,是底线。 对于企业用户和隐私敏感用户来说,这可能是选择 Nanobot 最硬核的理由。


五、团队背景:港大数据智能实验室

Nanobot 不是个人开发者的周末项目,它来自一个有深厚学术积累的研究团队。

项目详情
所属机构香港大学数据智能实验室(HKUDS,Data Intelligence Lab @ HKU)
GitHub 组织github.com/HKUDS,旗下多个高星项目
其他知名项目LightRAG、AutoAgent、MiniRAG 等(均可在 HKUDS GitHub 组织页查看)

这个实验室有一个显著特点:出品的开源项目在社区中反响很好。 LightRAG 聚焦 RAG 的图结构检索,Nanobot 聚焦 OpenClaw 的轻量化替代,都在短时间内获得了大量关注。


六、迭代速度:一个月内从 0 到 32K Star 的背后

Nanobot 在 2026 年 2 月 2 日正式发布,此后保持了很快的迭代节奏:

时间版本核心更新
02.02v0.1.0正式发布,核心框架上线
02.14v0.1.3MCP 协议支持,接入外部工具生态
02.17v0.1.4进度流式输出、新增 LLM 供应商、多平台修复
02.24v0.1.4.post2可靠性大版本:重新设计心跳机制、Prompt 缓存优化、供应商兼容性加固。合并 32 个 PR,来自 14 位新贡献者
02.27实验性思考模式、钉钉媒体消息、飞书/QQ 修复
03.05Telegram 草稿流式输出、MCP SSE 支持
03.07Azure OpenAI 供应商、WhatsApp 媒体、QQ 群聊

一个月内迭代了 10+ 个版本,合并了来自数十位社区贡献者的 PR。


七、快速上手:3 步拥有你的私人 AI 助手

Step 1:安装

# 推荐:使用 pip
pip install nanobot-ai

# 更快:使用 uv
uv tool install nanobot-ai

# 最新开发版:从源码安装
git clone https://github.com/HKUDS/nanobot.git
cd nanobot
pip install -e .

Step 2:初始化并配置

nanobot onboard

初始化完成后,编辑 ~/.nanobot/config.json配置你的 LLM 供应商和 API Key。国内用户推荐 DashScope 接入通义千问,也可以选择 DeepSeek、Kimi 等。

Step 3:启动你的 AI 助手

nanobot agent

就这么简单。 三条命令,你的私人 AI 助手就上线了。

想要离线运行?

# 用 vLLM 跑本地模型
vllm serve meta-llama/Llama-3.1-8B-Instruct --port 8000

在 config.json 中将 provider 指向本地端点,数据完全不出本机。

想要接入 MCP 工具?

在 config.json 中添加 MCP 服务器即可,配置格式兼容 Claude Desktop / Cursor:

{
  "tools": {
    "mcpServers": {
      "filesystem": {
        "command""npx",
        "args": ["-y""@modelcontextprotocol/server-filesystem""/path/to/dir"]
      }
    }
  }
}

八、当前局限

局限说明
无伴侣应用没有 macOS / iOS / Android 原生 App,纯命令行 + 聊天平台接入
技能生态小不像 OpenClaw 有庞大的社区技能市场,扩展主要依赖 MCP
无语音唤醒不支持 always-on 语音交互
无企业级功能没有 RBAC、审计日志、SSO 等企业级特性
文档仍在完善项目才一个月,文档覆盖不够全面

这些局限中,部分可以通过 MCP 生态补齐。项目仍在快速迭代中,后续发展值得关注。


九、总结

Nanobot 做对了一件事:它证明了 AI Agent 不需要 43 万行代码才能工作。

多数 AI Agent 框架越做越重,Nanobot 反过来做减法:把 Agent 还原到四个核心模块(循环、记忆、技能、通信),用最少的代码实现最核心的能力。

项目地址github.com/HKUDS/nanob…

HKUDS 实验室github.com/HKUDS