——与OpenClaw、Claude Code全方位对比,以及本地模型支持深度解析
一、最近GitHub最火的项目
如果要说2026年开年以来,AI圈最炸裂的事情,Hermes Agent绝对排得上号。
2026年2月25日,Nous Research在GitHub上悄悄扔出了这个项目。
谁也没想到,短短俩月后,它的Star数就突破了12万+,成为GitHub Trending连续霸榜的存在。
连Anthropic都被爆出在"借鉴"它的功能——你能想象一个开源项目强到什么程度,才会引得行业巨头来抄作业?
Hermes到底是什么?值得专门聊一聊。
二、一个会"记事儿"的AI助手
说白了,Hermes就是一个会跟着你一起"长大"的AI。
普通AI助手是什么德性?聊完就忘,下次见面跟陌生人似的。你上周告诉它你做JavaScript,它转头就忘了;你让它帮你写过一次的脚本,下次换个需求它又从头教你。
Hermes不一样。它真正厉害的地方在于记忆系统。
用专业的话说,它有完整的三层记忆架构:短期会话记忆、持久记忆、技能记忆。每次你让它干活,它不仅把事儿办了,还会自动分析这次有效的工作方式,把经验沉淀下来。下次遇到类似的活儿,它自己就能上手。
简单讲:别的AI是金鱼,Hermes是记事本。
你跟它说过的事儿,它全给你记着。用得越久,它越懂你——不是营销话术,是真有一套闭环学习机制在跑。
三、两个月10万Star,凭什么
光说"会学习"三个字,可能有点虚。咱们来点实在的:
GitHub数据说话:上线首月2.2万Star,两个月破10万,增速堪称恐怖。
Only you ...
技术上也确实有两把刷子:
- 内置GEPA算法(遗传-帕累托提示进化),技能生成全自动
- FTS5全文检索,记忆想找就能找
- 支持200+模型一键切换,OpenRouter、Ollama、OpenAI、Claude全兼容
- Telegram、Discord、Slack等14+平台随便接
- 部署成本低到离谱,5美元VPS就能跑
安装也简单到离谱:
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash
一行命令,完事儿。
四、和OpenClaw比怎么样
说到AI Agent,OpenClaw是绕不过去的坎儿。毕竟坐拥34万Star,算是这个赛道的老大哥了。
那问题来了:选Hermes还是OpenClaw?
先说结论:不是一个物种,没法直接比。
OpenClaw是万能工具箱。你想接Telegram?装个Skill。想管邮件?装个Skill。社区贡献了13000+ Skills,功能多到你用不完。但这些能力需要你手动去装、去配置——它本身不会自己学。
Hermes是自进化系统。你不用折腾啥,装上就能用。它会自动提炼技能、自动积累经验。你告诉它的事情它会记住,你做过的任务它会总结,下次同样的需求它自己搞定。
用大白话讲:
OpenClaw就像一个啥都能装的百宝箱,但里面的东西得你自己往里填。
Hermes就像一个会自学的实习生,你带两回它就能独当一面。
详细对比:
| 维度 | Hermes | OpenClaw |
|---|---|---|
| 学习方式 | 自动进化 | 手动配置 |
| 记忆系统 | 三层持久记忆 | 基础上下文 |
| 技能来源 | 自动生成 | 社区Skills |
| 上手难度 | 低 | 中 |
| 生态规模 | 快速增长 | 成熟丰富 |
| 部署成本 | $5 VPS起 | 免费自托管 |
选Hermes:你想省心,想让AI适应你,不想折腾配置。
选OpenClaw:你想折腾,想完全掌控每一个细节,需要接入大量第三方平台。
五、和Claude Code比怎么样
Claude Code是Anthropic亲生的,代码能力没话说,业界标杆级别的存在。
那它支持本地模型吗?
支持,但得绕路。
官方文档写得很清楚:你得手动配置三个环境变量,告诉Claude Code去找Ollama的接口。具体怎么配?大概是这个样子:
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL=http://localhost:11434
# 启动时还得手动指定模型
claude --model qwen3.6:27b
看着挺简单的对吧?但实际用起来,问题就来了。
第一个坑:上下文窗口。
Claude Code自己需要很大的上下文窗口,官方建议至少64k tokens。你本地跑的模型,得支持这么大的上下文才能顺滑。不是什么模型都能用的。
第二个坑:速度感人。
本地模型推理本来就比云端慢,加上Claude Code动不动就要处理大段代码、多个文件,那速度...怎么说呢,你能感受到什么叫"岁月静好"。
第三个坑:兼容性不稳定。
毕竟是绕路走的,谁知道哪天Ollama更新了版本,Claude Code更新了版本,俩能不能继续愉快地玩耍。
所以Claude Code对本地模型的态度,总结起来就是:能用,但别指望好用。 它自己也没把这当核心功能来优化。
对比一下就很清楚了:
| 功能 | Hermes | OpenClaw | Claude Code |
|---|---|---|---|
| 原生集成 | ✅ 一条命令 | ⚠️ 需配置 | ❌ 绕路 |
| 使用方便度 | ollama/qwen3:30b | 环境变量 | 三个变量+参数 |
| 上下文支持 | ✅ 自动适配 | ⚠️ 手动调 | ⚠️ 需64k+ |
| 完整工具链 | ✅ 全功能 | ⚠️ 部分 | ⚠️ 受限 |
| 性能优化 | ✅ 专门优化 | ⚠️ 一般 | ❌ 很慢 |
Hermes对Ollama的态度完全不同。
Ollama v0.21.0专门加了Hermes联动支持,hermes model ollama/qwen3.6:27b直接用,不需要任何环境变量配置,本地模型跑起来跟云端模型体验差不多。
六、Ollama优化配置(针对Hermes)
既然说到Ollama,给你一套经过验证的优化参数,用Hermes跑本地模型更流畅:
永久配置(推荐):
# 编辑配置文件
vim ~/.zshrc
# 添加以下内容
export OLLAMA_KEEP_ALIVE=24h # Hermes频繁调用,常驻更流畅
export OLLAMA_NUM_PARALLEL=4 # Hermes子Agent并行时需要
export OLLAMA_MAX_LOADED_MODELS=1 # 只跑一个模型,节省内存
export OLLAMA_FLASH_ATTENTION=1 # 启用加速
export OLLAMA_KV_CACHE_TYPE=q8_0 # 量化缓存,省显存
# 生效
source ~/.zshrc
M1 Pro 32G推荐配置:
export OLLAMA_KEEP_ALIVE=24h
export OLLAMA_NUM_PARALLEL=4
export OLLAMA_FLASH_ATTENTION=1
验证配置生效:
ollama ps
curl http://localhost:11434/api/tags
七、啰嗦
三个AI Agent,三种风格:
OpenClaw像教练——你越用心调教,它越强。
Hermes像老板——你下命令,它自己进化。
Claude Code像大师——代码无敌,但只认云端。
结论也很简单:
- 想省心、想让AI自己长本事 → Hermes
- 想折腾、完全掌控每一个细节 → OpenClaw
- 专职写代码、不在乎API费用 → Claude Code
行了,就这么多。两个月破12万Star,连大厂都来抄,不关注一下说不过去。