背景:
最近OpenClaw的热度非常高,我自己也在空闲期间搭了一个本地项目,在选择LLM大模型的时候优先选择了国内的Qwen大模型,并且完成了Oauth认证,但在我使用了两三个小时之后就开始没有应答反应,查询日志发现报错qwen-portal/coder-model: 429 Free allocated quota exceeded.,是Qwen Oauth的免费额度使用超限,所以今天来教大家如何来给自己OpenClaw配置自己想使用的LLM大模型,以及如何在额度超限时让OpenClaw自己切换使用新的LLM大模型
Qwen
我们在第一次安装OpenClaw的时候可以发现,OpenClaw可以允许我们使用Qwen大模型,但是是使用Oauth的进行验证登录,并且只能使用qwen-portal/coder-model,qwen-portal/vision-model这两种大模型;
但是在阿里云百炼的模型广场上,我们可以看到很多Qwen的模型,比如qwen3-max-2026-01-23新的千问Max模型,qwen-flash千问3的Flash模型,qwen3-vl-plus千问3的视觉模型,以及qwen-voice-design千问的声音模型等等多模态模型,而在OpenClaw中是没有这些模型让我们可以选择的,并且这些多模态通常使用的是API Key进行认证和token付费的,而不是OpenClaw提供给我们的Oauth;
添加Qwen3 LLM大模型
所以我们可以自行在openClaw的配置文件配置Qwen的模型,由于我们Qwen3模型和系统Qwen模型都属于Qwen,但认证方式又不相同,所以可以将这些模型统称为Qwen3,与系统Qwen模型做为区分;
然后我们找到.openclaw/openclaw.json这个文件,这个文件就是我们OpenClaw的所有配置项了,点开可以看到我们的models这个列表,这个列表就是我们引入的所有模型
我这边引入了Deepseek和系统自带的qwen-portal模型,其中qwen-portal的APIKey可以看到认证方式是通过qwen-oauth,然后我们可以在后面添加我们所需的qwen3模型,配置内容可以与我下方一致,只需将apiKey更换成阿里百炼中自己的ApiKey即可。
"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"apiKey": "{{your-apiKey}}",
"api": "openai-completions",
"models": [
{
"id": "qwen-turbo",
"name": "Qwen3 Turbo",
"reasoning": false,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 8192
},
{
"id": "qwen-plus",
"name": "Qwen3 Plus",
"reasoning": false,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 8192
},
{
"id": "qwen-max",
"name": "Qwen3 Max",
"reasoning": false,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 8192
},
{
"id": "qwen-flash",
"name": "Qwen3 Flash",
"reasoning": false,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 8192
},
{
"id": "qwen-max-2026-01-23",
"name": "Qwen3 Max 2026-01-23",
"reasoning": false,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 8192
}
]
},
添加模型回退队列
有时候默认使用的模型用着用着余额就被token消耗完了,这时候openClaw就像挂了一样,无论怎么发送消息都无法正确回复,只能通过openclaw onboard指令进行重装,然后选择一个新的LLM大模型,所以我们可以在配置中添加一个模型回退队列,让OpenClaw在默认的模型返回异常时,自动选择队列中的模型进行请求;
配置方法
1.OpenClaw的配置与上方一样,找到.openclaw/openclaw.json这个文件
2.在models相同缩进的下方,找到Agents,然后修改配置与我下方相似,在agents/defaults/model下方增加一个fallbacks队列,由上往下就是失败后依次会尝试的模型队列,primary是我们默认使用的LLM模型
3.models就是引进的所有LLM Model,这里使用自己的配置中的models无需和我一致
4.workspace使用自己openclaw的工作空间,无需和我一致
5.其他配置可以均与我保持一致
这样就完成了默认的LLM额度超限后会自动调用回退队列中的LLM大模型继续进行会话访问。
"agents": {
"defaults": {
"model": {
"primary": "xiaomi/mimo-v2-flash",
"fallbacks": [
"xiaomi/mimo-v2-flash",
"qwen3/qwen-turbo",
"qwen3/qwen-plus",
"qwen3/qwen-max",
"qwen3/qwen-max-2026-01-23",
"deepseek/deepseek-coder",
"qwen-portal/coder-model",
"qwen-portal/vision-model"
]
},
"models": {
"qwen3/qwen-turbo": {
"alias": "qwen3-turbo"
},
"qwen3/qwen-plus": {
"alias": "qwen3-plus"
},
"qwen3/qwen-max": {
"alias": "qwen3-max"
},
"qwen3/qwen-max-2026-01-23": {
"alias": "qwen3-max-2026"
},
"qwen3/qwen-flash": {
"alias": "qwen3-flash"
},
"qwen-portal/coder-model": {
"alias": "qwen"
},
"qwen-portal/vision-model": {},
"deepseek/deepseek-chat": {
"alias": "deepseek-chat"
},
"deepseek/deepseek-coder": {
"alias": "deepseek-coder"
},
"xiaomi/mimo-v2-flash": {
"alias": "Xiaomi"
}
},
"workspace": "/Users/clawd",
"compaction": {
"mode": "safeguard"
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
结尾
如果这篇文章对你有帮助的话,麻烦各位大佬帮忙点个小赞;如果你也对OpenClaw感兴趣的话,欢迎关注我
下期给大家介绍如何使用飞书与我们的OpenClaw进行无阻碍对话,让它成为我们真正的24小时助手!