【新人必看】小白易懂 OpenClaw 对接 Ollama 配置教程(含openclaw安装包)

0 阅读3分钟

OpenClaw 对接 Ollama 本地模型完整配置教程

【点击链接直接下载最新版openclaw安装包】

本文为 OpenClaw 2.6.6 版本对接 Ollama 本地模型的图文教程,全程步骤清晰、无需复杂操作,可快速实现本地模型调用,提升数据安全与使用灵活性。

一、前置准备

  1. 完成 OpenClaw 2.6.6 版本安装,确保程序可正常打开
  2. 确认 OpenClaw 顶部 Gateway 状态为在线
  3. 设备保持联网,可正常访问 Ollama 相关服务
  4. 磁盘空间充足,本地模型文件体积较大,建议提前规划存储位置
  5. 确定需要使用的模型名称,如 gemma4:e4b、qwen3-coder:30b 等

二、Ollama 下载与安装

  1. 访问 Ollama 官网:ollama.com/
  2. 点击页面右上角 Download 进入下载页面
  3. 选择 Windows 平台,点击 Download for Windows 获取安装包
  4. 双击安装程序,在弹窗中点击 Install,等待安装完成

三、Ollama 基础配置

  1. 启动 Ollama,点击左侧菜单 Settings 进入设置界面
  2. 找到 Model location 选项,点击 Browse 修改模型存储路径
  3. 可将路径设置为非系统盘,如 E:\models,避免占用系统盘空间
  4. 保持 Ollama 后台运行,不要关闭程序

四、本地模型拉取

  1. 右键点击开始菜单,打开 Windows 终端(PowerShell)
  2. 输入模型运行命令,格式:ollama run 模型名称
  3. 示例:ollama run gemma4:e4b
  4. 第一次执行该命令会自动下载模型文件,等待终端显示 success 即完成
  5. 返回 Ollama 客户端,确认目标模型已显示在模型列表中

五、OpenClaw 配置 Ollama 对接

  1. 打开 OpenClaw 2.6.6,点击右上角 设置
  2. 进入左侧 模型配置,找到 Ollama 选项
  3. 在地址栏输入默认本地地址:http://127.0.0.1:11434
  4. 点击 测试 按钮,验证连接状态
  5. 测试成功后,填写可使用的模型名称,多个模型用逗号分隔
  6. 点击 保存全部配置,完成参数设置

六、模型选择与使用测试

  1. 进入 OpenClaw 聊天页面
  2. 在模型选择框中搜索已下载的模型
  3. 选择带有 ollama 标签的模型项
  4. 在输入框发送测试消息,如 “你好,你是什么模型”
  5. 能正常返回回复,即代表对接成功

七、接入完成自检清单

  • Ollama 已安装并保持运行
  • 已修改模型存储路径(可选)
  • 已通过终端命令完成模型下载
  • OpenClaw 内 Ollama 地址配置正确
  • 连接测试显示有效
  • 已保存配置并选中对应模型
  • 可正常收发消息

八、常见问题与解决方法

  1. Ollama 连接地址填写错误本机默认地址:http://127.0.0.1:11434
  2. 测试后无法识别模型检查 Ollama 是否运行、模型是否下载完成、地址是否正确、安全软件是否拦截
  3. 第一次运行模型加载缓慢属于正常现象,第一次需要加载模型权重,后续运行速度会提升
  4. 模型占用空间过大提前修改模型存储路径至大容量磁盘,再执行下载命令
  5. 【点击链接直接下载最新版openclaw安装包】