免费大模型可在桌面接入WinClaw实现无限使用,附类似OpenClaw安装教程。

1 阅读5分钟

用免费大模型(如Qwen系列)接入WinClaw(作为OpenClaw的Windows友好版本)时,核心配置修改集中在AI模型提供商、API端点、模型标识以及必要的认证信息上。

由于OpenClaw/WinClaw的设计初衷是作为连接大语言模型(LLM)与本地系统操作的“智能网关”,其配置必须准确匹配目标大模型的API协议和参数。

以下是将WinClaw的AI“大脑”从默认的OpenAI服务切换到免费/开源模型(以阿里云通义千问Qwen3.5-9B的本地部署为例)所需修改的关键配置项、具体操作步骤及代码示例。

一、核心配置项修改详解

WinClaw的配置通常存储在一个YAML或JSON格式的配置文件中(如 config.yaml)。接入免费大模型,你需要修改配置文件中与AI模型相关的部分。主要涉及以下几个模块:

配置项默认值(如OpenAI)接入Qwen等免费模型需修改为说明与注意事项
ai_model.provideropenaicustomopenai-compatible指明使用的是自定义或兼容OpenAI API协议的第三方服务。
ai_model.api_keyOpenAI的 sk-...你的API Key或占位符对于本地部署的Qwen,API Key可能非必需或可填写任意值;对于DashScope(阿里云)在线API,需填写其提供的API Key。
ai_model.modelgpt-4o-mini具体模型ID,如 qwen3.5-9b必须与后端服务提供的模型标识完全一致,否则调用会失败。
ai_model.base_urlhttps://api.openai.com/v1模型服务的API基础地址这是最关键的修改。需指向你的Qwen模型服务地址,如本地Ollama的 http://127.0.0.1:11434/v1 或DashScope的 https://dashscope.aliyuncs.com/compatible-mode/v1
ai_model.api_typechat-completionschat-completionsopenai-completions需根据后端服务支持的API路径选择。OpenClaw网关通常适配 /v1/chat/completions 端点。
ai_model.context_window例如 `
16384`模型的实际上下文长度,如 `
32768`需与模型能力匹配,以确保长对话的稳定性。

二、具体配置步骤与示例

假设你已经在本地通过 Ollama 部署了 qwen3.5:9b 模型(服务运行在 http://127.0.0.1:11434),以下是修改WinClaw配置的完整流程。

步骤1:定位并编辑配置文件 WinClaw的配置文件通常位于其安装目录或用户配置文件夹下,如 %APPDATA%\WinClaw\config.yaml。用文本编辑器(如VS Code、Notepad++)打开它。

步骤2:修改AI模型配置节 找到配置文件中关于AI模型设置的段落,并将其修改为对接本地Ollama服务的Qwen模型。

# 修改前的默认配置(对接OpenAI)
ai_model:
  provider: "openai"
  api_key: "sk-your-openai-key-here" # 你的OpenAI API密钥
  model: "gpt-4o-mini"
  base_url: "https://api.openai.com/v1"
  api_type: "chat-completions"
  context_window: 16384

# 修改后的配置(对接本地Ollama的Qwen3.5-9B)
ai_model:
  provider: "custom" # 或 “openai-compatible”,表示使用兼容OpenAI API的自定义服务
  api_key: "ollama" # 本地Ollama通常不需要有效的API Key,可填写任意非空字符串,如”ollama“
  model: "qwen3.5:9b" # 必须与 `ollama run qwen3.5:9b` 中的模型名称一致
  base_url: "http://127.0.0.1:11434/v1" # Ollama默认的OpenAI兼容API端点
  api_type: "chat-completions" # Ollama使用标准的chat completions端点
  context_window: 32768 # Qwen3.5-9B支持32K上下文

步骤3:配置OpenClaw网关(如适用) 如果WinClaw内部集成了OpenClaw网关,可能还需要确保网关配置正确,特别是端口和转发规则。OpenClaw网关默认使用 18789 端口,需确保防火墙允许该端口的入站连接。

# 在Windows PowerShell(管理员)中运行,放行OpenClaw网关端口
New-NetFirewallRule -DisplayName "OpenClaw Gateway" -Direction Inbound -LocalPort 18789 -Protocol TCP -Action Allow

步骤4:保存并重启WinClaw 保存配置文件后,完全退出并重新启动WinClaw应用程序,以使新的配置生效。

三、使用阿里云DashScope在线API的配置示例

如果你希望使用阿里云提供的免费额度在线调用Qwen模型(如 Qwen3.5-Plus),配置方式有所不同。你需要注册阿里云账号并开通DashScope服务以获取API Key。

# 配置对接阿里云DashScope在线API的Qwen模型
ai_model:
  provider: "custom"
  api_key: "sk-your-dashscope-api-key-here" # 从阿里云DashScope控制台获取
  model: "qwen3.5-plus" # 或 “qwen3.5-9b”,具体模型名参考DashScope文档
  base_url: "https://dashscope.aliyuncs.com/compatible-mode/v1" # DashScope的OpenAI兼容模式专用地址
  api_type: "chat-completions"
  context_window: 32768

四、验证与测试

配置修改并重启后,建议通过一个简单的任务来测试连接是否成功。

  1. 在WinClaw的Web界面或聊天框中,输入一个简单的、不涉及系统操作的纯聊天指令,例如:“请用一句话介绍你自己。”
  2. 观察AI的回复。如果回复内容符合Qwen模型的风格(例如,开头可能是“我是通义千问…”),并且没有出现“模型不可用”、“API错误”等提示,则说明配置成功。
  3. 随后,可以尝试一个简单的文件操作指令,如:“请在桌面创建一个名为‘test_qwen.txt’的文件,并写入‘Hello from Qwen!’。” 观察其是否能够正确规划并执行。

五、常见问题与排查

  • 错误:模型调用失败或超时

    • 检查服务状态:确保你的模型服务(Ollama)正在运行。可以在浏览器中访问 http://127.0.0.1:11434/api/tags 来验证Ollama是否正常响应。
    • 检查 base_url:确认 base_url 地址和端口完全正确,且包含正确的API路径前缀(如 /v1)。
    • 检查防火墙:确认防火墙没有阻止WinClaw或本地服务端口(如11434, 18789)的通信。
  • 错误:模型名称无效

    • 核对 model 字段:确保其与后端服务中的模型标识一字不差。Ollama的模型名可通过 ollama list 命令查看。
  • 错误:API密钥错误

    • 对于本地部署,api_key 可以是一个占位符,但字段不能为空。
    • 对于在线API(如DashScope),请确保API Key有效且未被禁用。

通过以上配置修改和步骤,你就可以成功地将免费的Qwen大模型接入WinClaw,从而在享受本地AI自动化便利的同时,免除了使用商业API的费用。这种组合特别适合对数据隐私有要求、希望深度定制或进行技术学习的用户。