Ollama王炸更新!一行命令部署HermesAgent,本地AI秒变智能助手
(新手零门槛・5 分钟搞定・全程无坑)
今天上午 Ollama 一条推文直接炸了 AI 圈 ——Ollama 0.21 版本原生支持 Hermes Agent!我刚转发完原贴,后台就被私信刷爆了,全是问 "怎么部署?会不会很难?"
说实话,以前搭 AI Agent 能把人搞疯:环境配置、依赖冲突、API 对接、网关设置,没个两三个小时根本搞不定。但这次 Ollama 直接把门槛砍到了地板上,真・一行命令一键完成,零基础小白也能 5 分钟拥有自己的全平台 AI 助手。
话不多说,直接上保姆级教程,跟着复制粘贴就行。
前置条件:就这一条,多一个算我输
必须安装 Ollama 0.21 及以上版本
没装过 Ollama 的朋友直接去官方下载页,全平台支持:
macOS/Linux 用户更简单,终端直接跑:
安装完成后,先检查版本号:
低于 0.21 的请先升级,不然用不了 Hermes 集成功能。
第一步:真・一行命令启动所有
打开终端,复制粘贴这行命令,然后回车:
ollama launch hermes
[1/4] Checking Hermes installation...
[2/4] Select a model
[3/4] Configuring Ollama provider...
[4/4] Connect a messaging platform? (optional)
就这么简单!Ollama 会自动按顺序帮你搞定四件事:
检查 Hermes 是否安装,没装的话自动下载安装
弹出模型选择界面
自动配置 Ollama 本地 API 端点
引导你连接消息平台(可选)
没装过 Hermes 的话,第一步会提示确认安装,直接按 Enter 就行,剩下的交给 Ollama 自动处理。
官方入门
第二步:选模型,性能不够云端凑
安装完成后会自动弹出模型选择界面,这里给大家划重点:
模型类型 | 推荐型号 | 适用场景 | 资源要求 |
云端模型 | kimi-k2.5:cloud | 多模态推理、子任务拆解 | 无本地资源要求 |
云端模型 | qwen3.5:cloud | 代码编写、视觉理解 | 无本地资源要求 |
本地模型 | qwen3.5 | 本地推理、隐私保护 | 约 11GB VRAM |
本地模型 | gemma4 | 代码生成、逻辑推理 | 约 16GB VRAM |
新手强烈建议直接选云端模型:速度快、不占本地资源、不用等漫长的下载过程。选好之后,Ollama 会自动配置好 API 地址,指向本地的http://127.0.0.1:11434/v1,不需要你手动填任何东西,连 API 密钥都不用输。
第三步:接入消息平台(这才是 Hermes 的灵魂)
Hermes 最牛的地方不是能聊天,而是能接入你所有常用的聊天软件,让 AI 在你每天用的地方工作。
配置也极其简单,运行:
hermes gateway setup
目前支持:Telegram、Discord、Slack、WhatsApp、Signal、邮件,选你最常用的那个跟着引导走就行。
想象一下:以后不用打开各种 AI 网页,直接在 Telegram 里给你的私人 AI 发消息,它就能帮你写代码、查资料、写邮件、安排日程,甚至自动回复消息。
第四步:启动对话,开始使用
全部配置完成后,终端会问:
Launch hermes chat now? [Y/n]:
输入Y回车,Hermes 就启动了,直接在终端里就能开始聊天。
以后想再用的时候,直接运行ollama launch hermes就行,不用重新配置。
常见问题 & 避坑指南
Q:模型下载很慢或者卡住不动?
A:挂代理再试,或者直接选云端模型跳过本地下载,体验几乎没差别。
Q:提示 "URL 拼写可能存在错误,请检查"?
A:确保 Ollama 服务正在运行,并且版本是 0.21 以上。Ollama 会自动配置http://127.0.0.1:11434/v1这个端点,不需要手动修改。
Q:想重新配置消息平台怎么办?
A:随时运行hermes setup gateway重新设置。
官方完整文档:
最后说几句
Ollama 这次更新真的是里程碑式的。以前 AI Agent 是开发者的玩具,现在普通人也能一键拥有。Hermes 的自动技能创建、跨会话记忆、全平台接入能力,再加上 Ollama 的一键部署,真正让 AI 助手走进了普通人的生活。
赶紧去试试吧,你会发现一个全新的 AI 世界。
如果这篇教程对你有帮助,欢迎 关注 + 收藏 + 转发
关注我,持续分享新手友好的教程和 AI 工具使用心得