两个月破10万+Star:Hermes Agent 有哪些过人之处

51 阅读6分钟

——与OpenClaw、Claude Code全方位对比,以及本地模型支持深度解析

image_1777426588190.png img

一、最近GitHub最火的项目

img

如果要说2026年开年以来,AI圈最炸裂的事情,Hermes Agent绝对排得上号。

2026年2月25日,Nous Research在GitHub上悄悄扔出了这个项目。

谁也没想到,短短俩月后,它的Star数就突破了12万+,成为GitHub Trending连续霸榜的存在。

连Anthropic都被爆出在"借鉴"它的功能——你能想象一个开源项目强到什么程度,才会引得行业巨头来抄作业?

Hermes到底是什么?值得专门聊一聊。

二、一个会"记事儿"的AI助手

说白了,Hermes就是一个会跟着你一起"长大"的AI。

普通AI助手是什么德性?聊完就忘,下次见面跟陌生人似的。你上周告诉它你做JavaScript,它转头就忘了;你让它帮你写过一次的脚本,下次换个需求它又从头教你。

Hermes不一样。它真正厉害的地方在于记忆系统

用专业的话说,它有完整的三层记忆架构:短期会话记忆、持久记忆、技能记忆。每次你让它干活,它不仅把事儿办了,还会自动分析这次有效的工作方式,把经验沉淀下来。下次遇到类似的活儿,它自己就能上手。

简单讲:别的AI是金鱼,Hermes是记事本。

你跟它说过的事儿,它全给你记着。用得越久,它越懂你——不是营销话术,是真有一套闭环学习机制在跑。

三、两个月10万Star,凭什么

光说"会学习"三个字,可能有点虚。咱们来点实在的:

GitHub数据说话:上线首月2.2万Star,两个月破10万,增速堪称恐怖。

Only you ...

img

技术上也确实有两把刷子

  • 内置GEPA算法(遗传-帕累托提示进化),技能生成全自动
  • FTS5全文检索,记忆想找就能找
  • 支持200+模型一键切换,OpenRouter、Ollama、OpenAI、Claude全兼容
  • Telegram、Discord、Slack等14+平台随便接
  • 部署成本低到离谱,5美元VPS就能跑

安装也简单到离谱

curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash

一行命令,完事儿。

四、和OpenClaw比怎么样

img

说到AI Agent,OpenClaw是绕不过去的坎儿。毕竟坐拥34万Star,算是这个赛道的老大哥了。

那问题来了:选Hermes还是OpenClaw?

先说结论:不是一个物种,没法直接比。

OpenClaw是万能工具箱。你想接Telegram?装个Skill。想管邮件?装个Skill。社区贡献了13000+ Skills,功能多到你用不完。但这些能力需要你手动去装、去配置——它本身不会自己学。

Hermes是自进化系统。你不用折腾啥,装上就能用。它会自动提炼技能、自动积累经验。你告诉它的事情它会记住,你做过的任务它会总结,下次同样的需求它自己搞定。

用大白话讲:

OpenClaw就像一个啥都能装的百宝箱,但里面的东西得你自己往里填。

Hermes就像一个会自学的实习生,你带两回它就能独当一面。

详细对比

维度HermesOpenClaw
学习方式自动进化手动配置
记忆系统三层持久记忆基础上下文
技能来源自动生成社区Skills
上手难度
生态规模快速增长成熟丰富
部署成本$5 VPS起免费自托管

选Hermes:你想省心,想让AI适应你,不想折腾配置。

选OpenClaw:你想折腾,想完全掌控每一个细节,需要接入大量第三方平台。

五、和Claude Code比怎么样

img

Claude Code是Anthropic亲生的,代码能力没话说,业界标杆级别的存在。

那它支持本地模型吗?

支持,但得绕路。

官方文档写得很清楚:你得手动配置三个环境变量,告诉Claude Code去找Ollama的接口。具体怎么配?大概是这个样子:

export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL=http://localhost:11434

# 启动时还得手动指定模型
claude --model qwen3.6:27b

看着挺简单的对吧?但实际用起来,问题就来了。

第一个坑:上下文窗口。

Claude Code自己需要很大的上下文窗口,官方建议至少64k tokens。你本地跑的模型,得支持这么大的上下文才能顺滑。不是什么模型都能用的。

第二个坑:速度感人。

本地模型推理本来就比云端慢,加上Claude Code动不动就要处理大段代码、多个文件,那速度...怎么说呢,你能感受到什么叫"岁月静好"。

第三个坑:兼容性不稳定。

毕竟是绕路走的,谁知道哪天Ollama更新了版本,Claude Code更新了版本,俩能不能继续愉快地玩耍。

所以Claude Code对本地模型的态度,总结起来就是:能用,但别指望好用。 它自己也没把这当核心功能来优化。

对比一下就很清楚了

功能HermesOpenClawClaude Code
原生集成✅ 一条命令⚠️ 需配置❌ 绕路
使用方便度ollama/qwen3:30b环境变量三个变量+参数
上下文支持✅ 自动适配⚠️ 手动调⚠️ 需64k+
完整工具链✅ 全功能⚠️ 部分⚠️ 受限
性能优化✅ 专门优化⚠️ 一般❌ 很慢

Hermes对Ollama的态度完全不同。

Ollama v0.21.0专门加了Hermes联动支持,hermes model ollama/qwen3.6:27b直接用,不需要任何环境变量配置,本地模型跑起来跟云端模型体验差不多。

六、Ollama优化配置(针对Hermes)

既然说到Ollama,给你一套经过验证的优化参数,用Hermes跑本地模型更流畅:

永久配置(推荐)

# 编辑配置文件
vim ~/.zshrc

# 添加以下内容
export OLLAMA_KEEP_ALIVE=24h      # Hermes频繁调用,常驻更流畅
export OLLAMA_NUM_PARALLEL=4     # Hermes子Agent并行时需要
export OLLAMA_MAX_LOADED_MODELS=1 # 只跑一个模型,节省内存
export OLLAMA_FLASH_ATTENTION=1  # 启用加速
export OLLAMA_KV_CACHE_TYPE=q8_0  # 量化缓存,省显存

# 生效
source ~/.zshrc

M1 Pro 32G推荐配置

export OLLAMA_KEEP_ALIVE=24h
export OLLAMA_NUM_PARALLEL=4
export OLLAMA_FLASH_ATTENTION=1

验证配置生效

ollama ps
curl http://localhost:11434/api/tags

七、啰嗦

三个AI Agent,三种风格:

OpenClaw像教练——你越用心调教,它越强。

Hermes像老板——你下命令,它自己进化。

Claude Code像大师——代码无敌,但只认云端。

结论也很简单

  • 想省心、想让AI自己长本事 → Hermes
  • 想折腾、完全掌控每一个细节 → OpenClaw
  • 专职写代码、不在乎API费用 → Claude Code

img

行了,就这么多。两个月破12万Star,连大厂都来抄,不关注一下说不过去。