Cherry Studio一键解锁OpenClaw部署

0 阅读3分钟

最近,AI 圈子里最火的项目非 OpenClaw 莫属。

为什么它能刷屏?因为 OpenClaw 不再是一个只会陪聊的 Bot,它是一个真正的 Agent(智能体)。它能联网精准搜索、能整理复杂资料、甚至能多渠道部署(飞书、Telegram、Slack、Discord...),简直就是可以本地私有化的“贾维斯”雏形。

但现实是骨感的:

想要用上 OpenClaw 并不容易。复杂的环境配置、Docker 部署、Python 依赖库……这些技术门槛把无数想尝鲜的用户挡在了门外。

Cherry Studio 说:这就交给我吧。

在最新的 v1.7.24 版本中,我们带来了一键式 OpenClaw 部署方案。你不需要懂编程,不需要配置环境。我们把最复杂的安装过程封装进了软件里,只需点几下鼠标,就能把 Cherry Studio 里配置好的各项强力模型(如 Kimi 2.5、Gemini 3-Pro、Claude-opus-4.5 等)接入 OpenClaw,立即起飞。  

🛠️ 准备工作

在开始之前,确保你已经下载安装了 Cherry Studio 最新版本(v1.7.16 及以上)。

🚀 正式开始:4 步完成 OpenClaw 一键部署 + 选择模型启动

Step1:配置模型服务

OpenClaw 是“手脚”,它需要一个强大的模型作为“大脑”来驱动。Cherry Studio 支持多种模型源,这里我们以体验最丝滑的 CherryIN 为例。

  1. 打开 Cherry Studio,点击左下角的 「设置 (Settings)」 图标。
  2. 在模型服务列表中找到 CherryIN
  3. 点击 「Auth 关联 CherryIN 账号」。 (系统会自动跳转并完成鉴权,免去了手动复制粘贴 API Key 的繁琐)

accesswximg.gif

Step 2:添加你的主力模型

关联账号后,我们需要指定具体使用哪个模型来指挥 OpenClaw。

  1. 在 CherryIN 设置页下方,点击 「管理 (Manage)」 按钮。
  2. 在模型列表中添加你喜欢的模型。如添加 Kimi 2.5 、DeepSeek V3.2 或 GLM-4.7 甚至今天新发布的 Claude-Opus-4.6 等 ,这几款模型目前在逻辑推理和长文本处理上表现极其出色性价比较高,非常适合配合 OpenClaw 执行复杂任务。

accesswximg (1).gif

PS: 可以点击模型的管理按钮寻找一些免费的模型,然后点击【+】按钮添加。   image.png

Step 3:进入 OpenClaw 专属面板

这是最关键的一步。忘掉命令行吧,看好了:

  1. 回到 Cherry Studio 主界面,在侧边栏/ 顶部添加页面新建一个标签页。
  2. 在工具栏找到 「OpenClaw」 图标并点击。
  3. 点击  “安装 OpenClaw”
  4. 等待安装完成(这段时间 Cherry Studio 会自动准备环境并安装 OpenClaw)

accesswximg (2).gif

Step 4: 开始你的 Agent 之旅

安装完成后,配置界面会自动解锁。

  1. 在 Model 选项中,选择我们在 Step 2 中配置好的模型(如 CherryIN/Kimi-K2.5)。
  2. 点击底部的 「启动 (Start)」 按钮。

accesswximg (3).gif

当看到页面启动成功,恭喜你,你的专属 AI 员工 OpenClaw 已经正式入职了!现在你可以让它去联网搜索行业报告,或者帮你写一段复杂的自动化脚本。

image.png

高能预警:使用前必看

虽然 Cherry Studio 极大简化了使用门槛,但 OpenClaw 本质上是一个高权限工具,使用时请务必注意以下两点:

 

1. 💸 关于钱包 (Token 消耗)

OpenClaw 为了解决复杂任务(比如联网搜索后再总结),会在后台进行多轮思考和工具调用。

现象

  • 你只问了一句话,但这背后可能消耗了几千个 Token。

建议

  • 请密切关注你的 API 服务商账户余额,避免欠费。

 

2. 🔒 关于安全 (数据风险)

OpenClaw 具备本地文件读写和系统操作权限。

警告

  • 它可能会修改你的本地文件。

建议

  • 谨慎授权!  不要让它随意删除文件,建议在非敏感的文件夹路径下测试其能力。