OpenClaw 免费使用 Qwen 3.6 Plus Preview 完整指南
引子:AI 工具 token 消耗太快,如何省钱?
如果你和我一样,每天都在和各种 AI 模型打交道,一定深有体会:token 消耗速度简直像开水龙头一样停不下来。尤其是使用 Claude、GPT-4 这类高端模型时,一次复杂的代码审查或长文档分析,轻松就能烧掉几块钱甚至几十块钱。
作为 OpenClaw 的长期用户,我一直在寻找既能保持强大功能,又能控制成本的方案。直到最近,我发现了一个绝佳的选择:Qwen 3.6 Plus Preview —— 通过 OpenRouter 提供,完全免费,还拥有惊人的 1M context window。
这篇文章将带你从零开始配置 OpenClaw 使用 Qwen 3.6,并深入讲解如何合理分配 thinking 的 high 和 low 模式,让你在享受强大 AI 能力的同时,把成本控制在最低限度。
Qwen 3.6 Plus Preview 介绍
为什么选择 Qwen 3.6?
Qwen 3.6 是阿里巴巴通义千问系列的最新旗舰模型,在多个基准测试中表现优异。而 qwen3.6-plus-preview 版本更是通过 OpenRouter 平台向开发者免费提供,具有以下核心优势:
- 完全免费:目前阶段零成本使用,无需担心 token 费用
- 1M Context Window:支持超长上下文,轻松处理整本书籍、大型代码库或长会议记录
- 强大的推理能力:在代码生成、数学推理、多语言理解等方面表现出色
- OpenRouter 集成:通过标准化的 API 接口,可以轻松集成到 OpenClaw 等工具中
OpenRouter 是什么?
OpenRouter 是一个 AI 模型聚合平台,它统一了多家 AI 提供商的 API 接口。你只需要一个 OpenRouter API key,就可以访问数十种不同的模型,包括免费和付费选项。对于 OpenClaw 用户来说,这意味着:
- 单一配置管理多个模型
- 灵活切换不同模型而不需要修改代码
- 透明的定价和用量统计
详细配置步骤
第一步:注册 OpenRouter 账号
- 访问 OpenRouter 官网
- 点击右上角的 "Sign Up" 注册账号
- 可以使用 GitHub、Google 账号快速登录,也可以用邮箱注册
- 完成邮箱验证后,你就拥有了一个 OpenRouter 账号
提示:注册过程完全免费,不需要绑定信用卡。
第二步:获取 API Key
- 登录后,进入 Keys 页面
- 点击 "Create Key" 创建新的 API key
- 给你的 key 起个名字,比如 "OpenClaw-Qwen36"
- 复制生成的 key,格式类似:
sk-or-v1-xxxxxxxxxxxxxxxxxxxxxxxx
安全提示:这个 key 相当于你的密码,不要分享给他人,也不要提交到公开的代码仓库中。
第三步:配置 OpenClaw 模型设置
OpenClaw 的模型配置通常位于 ~/.openclaw/config.yaml 或类似位置。你需要添加或修改以下配置:
models:
# 默认模型设置为 Qwen 3.6 Plus Preview
default: "openrouter/qwen/qwen3.6-plus-preview:free"
# 可选:配置其他备用模型
fallback:
- "openrouter/qwen/qwen3.5-plus"
- "openrouter/anthropic/claude-3.5-sonnet"
# OpenRouter API 配置
openrouter:
api_key: "sk-or-v1-xxxxxxxxxxxxxxxxxxxxxxxx" # 替换为你的实际 key
base_url: "https://openrouter.ai/api/v1"
# Thinking 模式配置
thinking:
default_mode: "low" # 默认使用 low 模式
high_mode_triggers: # 自动切换到 high 模式的条件
- "complex_reasoning"
- "code_review"
- "math_problem"
配置说明:
default: 设置默认使用的模型,这里我们使用免费的 Qwen 3.6api_key: 填入你从 OpenRouter 获取的 API keythinking.default_mode: 设置默认的 thinking 模式为low,节省资源thinking.high_mode_triggers: 定义哪些场景自动使用high模式
第四步:重启 OpenClaw Gateway
配置完成后,需要重启 OpenClaw 的 gateway 服务使配置生效:
# 停止 gateway
openclaw gateway stop
# 等待几秒后重新启动
openclaw gateway start
# 或者直接重启
openclaw gateway restart
验证配置是否成功:
# 查看 gateway 状态
openclaw gateway status
# 测试模型连接(如果 OpenClaw 支持)
openclaw model test
如果一切正常,你现在就可以开始使用 Qwen 3.6 了!
Thinking 模式详解:High vs Low
OpenClaw 的 thinking 模式决定了模型在处理任务时的推理深度和资源分配。理解这两种模式的区别,对于优化性能和成本至关重要。
High vs Low 对比表
| 特性 | Low 模式 | High 模式 |
|---|---|---|
| 推理深度 | 浅层推理,快速响应 | 深度推理,逐步分析 |
| 响应速度 | 快(通常 < 2 秒) | 较慢(可能 5-30 秒) |
| Token 消耗 | 低 | 高(可能是 low 的 2-5 倍) |
| 准确率 | 适合简单任务 | 复杂任务更准确 |
| 适用场景 | 日常对话、简单查询 | 代码审查、数学证明、复杂分析 |
| 资源占用 | 低 | 高 |
| 建议频率 | 日常使用 | 关键任务使用 |
模式选择决策树
开始
│
├─ 是简单问答/闲聊? ──→ 使用 Low 模式
│
├─ 需要代码生成/审查? ──→ 使用 High 模式
│
├─ 涉及数学/逻辑推理? ──→ 使用 High 模式
│
├─ 处理长文档总结? ──→ Low 模式(除非需要深度分析)
│
├─ 执行自动化任务(cron jobs)? ──→ High 模式(确保可靠性)
│
└─ 不确定? ──→ 先用 Low,结果不满意再切换 High
实际场景分析
场景 1:日常对话和简单查询
任务:询问天气、查询定义、简单翻译
推荐模式:low
理由:这些任务不需要深度推理,low 模式足以提供准确答案,而且响应更快,token 消耗更少。
# 示例配置
task: "今天上海天气怎么样?"
thinking_mode: "low"
场景 2:代码审查和生成
任务:审查 Pull Request、生成复杂函数、调试代码
推荐模式:high
理由:代码任务需要理解上下文、识别潜在 bug、考虑边界情况,high 模式的深度推理能显著提高代码质量。
# 示例配置
task: "审查这个 PR 的代码变更"
thinking_mode: "high"
files:
- "src/utils/parser.ts"
- "tests/parser.test.ts"
场景 3:长文档分析
任务:总结会议记录、提取关键信息、对比多份文档
推荐模式:视情况而定
- 简单总结 →
low - 深度分析 + 提取洞见 →
high
# 简单总结
task: "总结这份会议记录的主要决定"
thinking_mode: "low"
# 深度分析
task: "分析这份会议记录中的决策逻辑,识别潜在风险"
thinking_mode: "high"
场景 4:自动化任务(Cron Jobs)
任务:定时数据处理、自动报告生成、监控告警分析
推荐模式:high
理由:自动化任务通常没有人工监督,需要更高的准确性和可靠性。即使消耗更多 token,也值得确保任务正确执行。
# 示例:每日报告生成 cron job
schedule: "0 8 * * *"
task: "生成昨日运营报告"
thinking_mode: "high"
output: "/reports/daily-{{date}}.md"
最佳实践:合理分配 High/Low 模式
原则 1:日常对话用 Low
对于以下场景,始终优先使用 low 模式:
- 闲聊和寒暄
- 事实性查询("Python 的列表推导式怎么写?")
- 简单翻译
- 快速头脑风暴
- 格式化/转换文本
预期效果:响应速度快,token 消耗低,用户体验流畅。
原则 2:复杂任务用 High
以下场景建议使用 high 模式:
- 代码审查和生成
- 数学问题和逻辑推理
- 复杂的数据分析
- 需要多步推理的任务
- 关键业务决策支持
预期效果:虽然响应较慢,但结果更可靠,减少返工成本。
原则 3:Cron Jobs 默认用 High
自动化任务的特点是没有人工干预,错误可能累积放大。因此:
# 推荐的 cron job 配置模板
jobs:
- name: "daily-report"
schedule: "0 8 * * *"
thinking_mode: "high" # 确保报告质量
retry_on_failure: true
max_retries: 3
- name: "code-quality-check"
schedule: "0 2 * * *"
thinking_mode: "high" # 代码审查需要深度分析
notify_on_issues: true
原则 4:动态切换策略
OpenClaw 支持根据任务特征自动切换模式。你可以配置智能规则:
thinking:
auto_switch:
enabled: true
rules:
- if: "task_contains_any(['审查', '分析', '证明', '优化'])"
then: "high"
- if: "file_count > 5"
then: "high"
- if: "estimated_complexity > 7"
then: "high"
- default: "low"
原则 5:监控和调整
定期回顾你的使用情况,调整模式分配策略:
# 查看 token 使用统计(如果 OpenClaw 支持)
openclaw stats --period=week
# 分析 high/low 模式的使用比例和效果
openclaw thinking analyze
根据统计数据,你可以:
- 发现过度使用 high 模式的场景,改为 low
- 识别 low 模式效果不佳的任务,升级为 high
- 优化整体成本结构
成本对比:Free vs Paid
让我们算一笔账,看看使用免费的 Qwen 3.6 能省多少钱:
假设场景:每日使用量
- 日常对话:50 次(low 模式,平均 500 tokens/次)
- 复杂任务:10 次(high 模式,平均 3000 tokens/次)
- 自动化任务:5 次(high 模式,平均 5000 tokens/次)
每日总 token 消耗:
(50 × 500) + (10 × 3000) + (5 × 5000) = 25,000 + 30,000 + 25,000 = 80,000 tokens
月度成本对比:
| 模型 | 单价(每 1M tokens) | 月消耗 | 月成本 |
|---|---|---|---|
| Qwen 3.6 (Free) | $0 | 2.4M | $0 |
| Claude 3.5 Sonnet | 15 (input/output) | 2.4M | ~$36 |
| GPT-4 Turbo | 30 (input/output) | 2.4M | ~$96 |
年度节省:使用 Qwen 3.6 相比 Claude 可节省约 1152/年。
这还不包括 Qwen 3.6 的 1M context window 带来的额外优势——处理长文档时不需要分段,进一步提升了效率。
常见问题解答
Q1: 免费的 Qwen 3.6 有使用限制吗?
A: 目前 OpenRouter 对免费模型有一定的速率限制(rate limit),通常是每分钟几十次请求。对于个人用户和小型团队来说完全够用。如果遇到限制,可以:
- 降低请求频率
- 使用缓存减少重复请求
- 考虑升级到付费套餐(仍然比直接使用 Claude/GPT 便宜)
Q2: 1M context window 真的有用吗?
A: 非常有用!想象这些场景:
- 一次性上传整本技术书籍进行问答
- 分析完整的项目代码库
- 处理数小时的会议转录稿
- 对比多份长文档的异同
传统模型的 128K 或 200K context 在这些场景下显得捉襟见肘,而 1M context 让你真正实现了"把整个上下文丢给 AI"。
Q3: High 模式会消耗更多 token 吗?
A: 是的。High 模式会让模型进行更深入的推理,通常会生成更多的中间思考步骤,因此 token 消耗会增加。但在免费模型下,这个成本可以忽略不计。如果使用付费模型,建议谨慎使用 high 模式。
Q4: 配置后模型没有生效怎么办?
A: 按以下步骤排查:
- 检查
config.yaml语法是否正确(YAML 对缩进敏感) - 确认 API key 没有复制错误
- 重启 gateway 服务
- 查看 gateway 日志:
openclaw gateway logs - 测试网络连接:
curl https://openrouter.ai/api/v1
Q5: 可以同时配置多个模型吗?
A: 可以!OpenClaw 支持配置多个模型,并根据任务自动选择。例如:
models:
default: "openrouter/qwen/qwen3.6-plus-preview:free"
profiles:
coding: "openrouter/anthropic/claude-3.5-sonnet"
creative: "openrouter/openai/gpt-4o"
fast: "openrouter/qwen/qwen3.5-plus"
然后在具体任务中指定:
task: "生成创意文案"
model_profile: "creative"
总结与展望
通过本文的配置,你现在可以:
✅ 在 OpenClaw 中免费使用强大的 Qwen 3.6 Plus Preview
✅ 享受 1M context window 带来的超长上下文处理能力
✅ 通过合理的 high/low 模式分配,优化性能和成本
✅ 建立可持续的 AI 使用策略,避免 token 浪费
未来展望
AI 模型的发展日新月异。随着更多免费或低成本模型的出现,我们可以期待:
- 更多免费高质量模型:Qwen 3.6 只是一个开始,未来会有更多选择
- 更智能的模式切换:AI 自动判断何时使用 high/low 模式
- 更好的成本优化工具:实时监控、预警、自动调整策略
- 本地模型集成:结合本地运行的小模型,进一步降低成本
行动建议
- 立即配置:按照本文步骤,花 10 分钟完成 OpenRouter 和 OpenClaw 的配置
- 测试验证:用几个不同类型的任务测试 high/low 模式的效果
- 建立习惯:养成根据任务类型选择合适模式的习惯
- 持续优化:每月回顾使用情况,调整配置策略
AI 工具的价值不在于最贵或最强,而在于最适合你的需求。Qwen 3.6 + OpenClaw + 合理的模式分配,这套组合拳能让你在保持高效的同时,把成本控制在最低限度。
现在,打开你的 OpenClaw,开始免费使用 Qwen 3.6 吧!🚀
参考资料:
关于作者:KEN 是 OpenClaw 的长期用户和贡献者,专注于 AI 工具的成本优化和效率提升。欢迎在 Feishu 上交流讨论。