OpenClaw+Ollama+Qwen新AI三剑客,让AI智能体在有限成本下无限进化

0 阅读4分钟

目前养龙虾有个非常明显的痛点 大模型厂商的 API Token 成本消耗太高,而且对复杂任务的成本不可控

基于OpenClaw+Ollama+Qwen新AI三剑客组合,让你的小龙虾 OpenClaw AI智能体在有限成本下无限进化。在这个组合中

  • Qwen是“大脑”,是一个强大的大语言模型。
  • Ollama是“大脑”的“运行环境”,是一个让你能在自己电脑上轻松运行Qwen这类模型的工具。
  • OpenClaw是给“大脑”装上的“手脚”,是一个让AI能直接操作电脑替你干活的智能体框架。

之所以选择这样的组合是因为 Qwen 模型具有较为全面的尺寸,适合在不同的设备上运行,有可用于体验的模型,也有用于生产的模型。选择 Ollama 是因为他具有良好的跨平台兼容性,在使用体验上也较为友好。

在前面的文章中,已经介绍了在Ollama快速入门中运行Qwen模型,以及基于OpenClaw In Docker快速运行一个隔离的 OpenClaw 智能体。

所以,本文主要是介绍如何将Ollama(含Qwen)和OpenClaw组合起来,实现一个无限进化的AI智能体

并且,在文章结尾会展示我的硬件环境下的测试效果,以及我的主观评价,以供参考。

OpenClaw 与 Ollama 集成

OpenClaw 部署完成后,需要添加模型相关配置 。

可以通过 Web UI 编辑配置,或者直接 vim/nano 修改节点上 ~/.openclaw/openclaw.json./data/openclaw01/openclaw.json(基于OpenClaw-in-Docker方式部署时) 文件。

在 Web UI 中 OpenClaw 提供了可视化的配置界面,模型修改位置如下

OpenClaw可视化配置

目前个人感觉可视化配置项管理界面不够友好,好在也提供了在页面直接修改原始 json 配置功能

OpenClaw页面修改JSON

可视化配置与原始 json 配置修改最终效果一致,生成具有模型配置的 openclaw.json 配置文件

添加模型主要修改了 openclaw.json 文件中 2个地方,分别是 models 节点下的 providersagents 节点下的 defaults 节点下的 model

注意:下文配置项是在 OpenClaw v2026.3.13 版本的配置项,未来的版本可能有变化,请自行查看。

models 节点下的 providers 配置参考:

models 用来配置模型提供有哪些,以及这些模型的连接与认证等配置。

最终在 json 文件中如下配置


  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://host.docker.internal:11434/v1",
        "apiKey": "ollama-local",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3.5:9b",
            "name": "qwen3.5:9b",
            "api": "openai-completions",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 8192
          }
        ]
      },
    }
  },

// ... ... 其他配置内容

主要配置项说明,其他保持默认即可:

  • baseUrl: Ollama 服务器的地址,默认为 http://localhost:11434/v1。如果是基于 OpenClaw-in-Docker 方式部署时,请修改为 http://host.docker.internal:11434/v1,域名默认会解析为宿主机节点的 IP 地址。
  • apiKey: Ollama 服务器的 API Key,默认为不需要填写,可以为任意值。
  • models.idmodels.name: 配置为模型 ID 和模型名称,通过 Ollama 的API接口 http://localhost:11434/api/tags 查询。

agents 节点下的 defaults 节点下的 model 配置参考

agents 用来配置智能体的默认模型,以及智能体执行任务时使用的模型。

  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen3.5:9b",
        "fallbacks": [
          "vllm/Qwen/Qwen2.5-VL-3B-Instruct"
        ]
      },
      "compaction": {
        "mode": "safeguard"
      }
    }
  },
// ... ... 其他配置内容

主要配置项说明,其他保持默认即可:

  • agents.defaults.model.primary: 配置为 ollama/模型ID,其中 ollama/ 是固定前缀,模型ID 为上一步配置的 models.providers.ollama.models[0].id
  • agents.defaults.model.fallbacks: 是备用模型列表。它的核心作用是当主模型(primary)因各种原因无法正常工作时,OpenClaw 会自动按顺序尝试列表里的备用模型,确保智能体服务不中断。

测试验证

配置完成后,注意要保存配置。默认 OpenClaw 会自动加载新配置,如果遇到特殊情况也可以手动重启 OpenClaw 容器或容器内的服务。

然后使用 OpenClaw Web UI 聊天窗口测试下是否生效

OpenClaw Hello

设备与效果

我在 MacBook Pro M4 16G 使用 Ollama 会因为内存不足无法运行 qwen3.5:27b。可运行 qwen3.5:9b 模型,直接在 Ollama 中对话 Token 输出速度还算可以。

设备

在发起一轮对话时,内存会迅速上升占用如下:

Mac资源监控

这里的 Docker Desktop 基于 OpenClaw-In—Docker 运行着 OpenClaw 容器,而 Mac 中 Docker Desktop 是包含虚拟化的,所以 Docker Desktop 内存占用也会高一些。

整体将 Ollama + Qwen 集成到 OpenClaw 之后,与 OpenClaw 对话响应短则几十秒,长则几分钟。

对于我的这种设备来说,整体流程可以跑通体验,但是效果不能接受。如果有更高的硬件配置,效果应该会更好一些。