OpenClaw 对接 Ollama 本地模型完整配置教程
本文为 OpenClaw 2.6.6 版本对接 Ollama 本地模型的图文教程,全程步骤清晰、无需复杂操作,可快速实现本地模型调用,提升数据安全与使用灵活性。
一、前置准备
- 完成 OpenClaw 2.6.6 版本安装,确保程序可正常打开
- 确认 OpenClaw 顶部 Gateway 状态为在线
- 设备保持联网,可正常访问 Ollama 相关服务
- 磁盘空间充足,本地模型文件体积较大,建议提前规划存储位置
- 确定需要使用的模型名称,如 gemma4:e4b、qwen3-coder:30b 等
二、Ollama 下载与安装
- 访问 Ollama 官网:ollama.com/
- 点击页面右上角 Download 进入下载页面
- 选择 Windows 平台,点击 Download for Windows 获取安装包
- 双击安装程序,在弹窗中点击 Install,等待安装完成
三、Ollama 基础配置
- 启动 Ollama,点击左侧菜单 Settings 进入设置界面
- 找到 Model location 选项,点击 Browse 修改模型存储路径
- 可将路径设置为非系统盘,如 E:\models,避免占用系统盘空间
- 保持 Ollama 后台运行,不要关闭程序
四、本地模型拉取
- 右键点击开始菜单,打开 Windows 终端(PowerShell)
- 输入模型运行命令,格式:
ollama run 模型名称 - 示例:
ollama run gemma4:e4b - 第一次执行该命令会自动下载模型文件,等待终端显示 success 即完成
- 返回 Ollama 客户端,确认目标模型已显示在模型列表中
五、OpenClaw 配置 Ollama 对接
- 打开 OpenClaw 2.6.6,点击右上角 设置
- 进入左侧 模型配置,找到 Ollama 选项
- 在地址栏输入默认本地地址:
http://127.0.0.1:11434 - 点击 测试 按钮,验证连接状态
- 测试成功后,填写可使用的模型名称,多个模型用逗号分隔
- 点击 保存全部配置,完成参数设置
六、模型选择与使用测试
- 进入 OpenClaw 聊天页面
- 在模型选择框中搜索已下载的模型
- 选择带有 ollama 标签的模型项
- 在输入框发送测试消息,如 “你好,你是什么模型”
- 能正常返回回复,即代表对接成功
七、接入完成自检清单
- Ollama 已安装并保持运行
- 已修改模型存储路径(可选)
- 已通过终端命令完成模型下载
- OpenClaw 内 Ollama 地址配置正确
- 连接测试显示有效
- 已保存配置并选中对应模型
- 可正常收发消息
八、常见问题与解决方法
- Ollama 连接地址填写错误本机默认地址:
http://127.0.0.1:11434 - 测试后无法识别模型检查 Ollama 是否运行、模型是否下载完成、地址是否正确、安全软件是否拦截
- 第一次运行模型加载缓慢属于正常现象,第一次需要加载模型权重,后续运行速度会提升
- 模型占用空间过大提前修改模型存储路径至大容量磁盘,再执行下载命令
- 【点击链接直接下载最新版openclaw安装包】