用免费大模型(如Qwen系列)接入WinClaw(作为OpenClaw的Windows友好版本)时,核心配置修改集中在AI模型提供商、API端点、模型标识以及必要的认证信息上。
由于OpenClaw/WinClaw的设计初衷是作为连接大语言模型(LLM)与本地系统操作的“智能网关”,其配置必须准确匹配目标大模型的API协议和参数。
以下是将WinClaw的AI“大脑”从默认的OpenAI服务切换到免费/开源模型(以阿里云通义千问Qwen3.5-9B的本地部署为例)所需修改的关键配置项、具体操作步骤及代码示例。
一、核心配置项修改详解
WinClaw的配置通常存储在一个YAML或JSON格式的配置文件中(如 config.yaml)。接入免费大模型,你需要修改配置文件中与AI模型相关的部分。主要涉及以下几个模块:
| 配置项 | 默认值(如OpenAI) | 接入Qwen等免费模型需修改为 | 说明与注意事项 |
|---|---|---|---|
ai_model.provider | openai | custom 或 openai-compatible | 指明使用的是自定义或兼容OpenAI API协议的第三方服务。 |
ai_model.api_key | OpenAI的 sk-... | 你的API Key或占位符 | 对于本地部署的Qwen,API Key可能非必需或可填写任意值;对于DashScope(阿里云)在线API,需填写其提供的API Key。 |
ai_model.model | gpt-4o-mini | 具体模型ID,如 qwen3.5-9b | 必须与后端服务提供的模型标识完全一致,否则调用会失败。 |
ai_model.base_url | https://api.openai.com/v1 | 模型服务的API基础地址 | 这是最关键的修改。需指向你的Qwen模型服务地址,如本地Ollama的 http://127.0.0.1:11434/v1 或DashScope的 https://dashscope.aliyuncs.com/compatible-mode/v1。 |
ai_model.api_type | chat-completions | chat-completions 或 openai-completions | 需根据后端服务支持的API路径选择。OpenClaw网关通常适配 /v1/chat/completions 端点。 |
ai_model.context_window | 例如 ` | ||
| 16384` | 模型的实际上下文长度,如 ` | ||
| 32768` | 需与模型能力匹配,以确保长对话的稳定性。 |
二、具体配置步骤与示例
假设你已经在本地通过 Ollama 部署了 qwen3.5:9b 模型(服务运行在 http://127.0.0.1:11434),以下是修改WinClaw配置的完整流程。
步骤1:定位并编辑配置文件
WinClaw的配置文件通常位于其安装目录或用户配置文件夹下,如 %APPDATA%\WinClaw\config.yaml。用文本编辑器(如VS Code、Notepad++)打开它。
步骤2:修改AI模型配置节 找到配置文件中关于AI模型设置的段落,并将其修改为对接本地Ollama服务的Qwen模型。
# 修改前的默认配置(对接OpenAI)
ai_model:
provider: "openai"
api_key: "sk-your-openai-key-here" # 你的OpenAI API密钥
model: "gpt-4o-mini"
base_url: "https://api.openai.com/v1"
api_type: "chat-completions"
context_window: 16384
# 修改后的配置(对接本地Ollama的Qwen3.5-9B)
ai_model:
provider: "custom" # 或 “openai-compatible”,表示使用兼容OpenAI API的自定义服务
api_key: "ollama" # 本地Ollama通常不需要有效的API Key,可填写任意非空字符串,如”ollama“
model: "qwen3.5:9b" # 必须与 `ollama run qwen3.5:9b` 中的模型名称一致
base_url: "http://127.0.0.1:11434/v1" # Ollama默认的OpenAI兼容API端点
api_type: "chat-completions" # Ollama使用标准的chat completions端点
context_window: 32768 # Qwen3.5-9B支持32K上下文
步骤3:配置OpenClaw网关(如适用)
如果WinClaw内部集成了OpenClaw网关,可能还需要确保网关配置正确,特别是端口和转发规则。OpenClaw网关默认使用 18789 端口,需确保防火墙允许该端口的入站连接。
# 在Windows PowerShell(管理员)中运行,放行OpenClaw网关端口
New-NetFirewallRule -DisplayName "OpenClaw Gateway" -Direction Inbound -LocalPort 18789 -Protocol TCP -Action Allow
步骤4:保存并重启WinClaw 保存配置文件后,完全退出并重新启动WinClaw应用程序,以使新的配置生效。
三、使用阿里云DashScope在线API的配置示例
如果你希望使用阿里云提供的免费额度在线调用Qwen模型(如 Qwen3.5-Plus),配置方式有所不同。你需要注册阿里云账号并开通DashScope服务以获取API Key。
# 配置对接阿里云DashScope在线API的Qwen模型
ai_model:
provider: "custom"
api_key: "sk-your-dashscope-api-key-here" # 从阿里云DashScope控制台获取
model: "qwen3.5-plus" # 或 “qwen3.5-9b”,具体模型名参考DashScope文档
base_url: "https://dashscope.aliyuncs.com/compatible-mode/v1" # DashScope的OpenAI兼容模式专用地址
api_type: "chat-completions"
context_window: 32768
四、验证与测试
配置修改并重启后,建议通过一个简单的任务来测试连接是否成功。
- 在WinClaw的Web界面或聊天框中,输入一个简单的、不涉及系统操作的纯聊天指令,例如:“请用一句话介绍你自己。”
- 观察AI的回复。如果回复内容符合Qwen模型的风格(例如,开头可能是“我是通义千问…”),并且没有出现“模型不可用”、“API错误”等提示,则说明配置成功。
- 随后,可以尝试一个简单的文件操作指令,如:“请在桌面创建一个名为‘test_qwen.txt’的文件,并写入‘Hello from Qwen!’。” 观察其是否能够正确规划并执行。
五、常见问题与排查
-
错误:模型调用失败或超时
- 检查服务状态:确保你的模型服务(Ollama)正在运行。可以在浏览器中访问
http://127.0.0.1:11434/api/tags来验证Ollama是否正常响应。 - 检查
base_url:确认base_url地址和端口完全正确,且包含正确的API路径前缀(如/v1)。 - 检查防火墙:确认防火墙没有阻止WinClaw或本地服务端口(如11434, 18789)的通信。
- 检查服务状态:确保你的模型服务(Ollama)正在运行。可以在浏览器中访问
-
错误:模型名称无效
- 核对
model字段:确保其与后端服务中的模型标识一字不差。Ollama的模型名可通过ollama list命令查看。
- 核对
-
错误:API密钥错误
- 对于本地部署,
api_key可以是一个占位符,但字段不能为空。 - 对于在线API(如DashScope),请确保API Key有效且未被禁用。
- 对于本地部署,
通过以上配置修改和步骤,你就可以成功地将免费的Qwen大模型接入WinClaw,从而在享受本地AI自动化便利的同时,免除了使用商业API的费用。这种组合特别适合对数据隐私有要求、希望深度定制或进行技术学习的用户。