OpenClaw本地"养虾"全攻略:数据真·不出电脑,本地大模型+飞书自动化方案

0 阅读16分钟

本地部署OpenClaw,数据就一定安全吗?

不一定。很多人以为"本地部署"就是隐私保障,结果接了个云端API,数据照样传出去。真正的本地隐私,需要框架本地+模型本地,两头都关在自己电脑里。

这就是这套方案的核心:OpenClaw跑在虚拟机里,大模型用Ollama本地运行,对话内容完全不离开硬盘。如果需要更强的模型能力,也可以灵活接入云端API,但这时候数据流向是明确的——你自己做主。

所以这篇教程分两套方案:

  • 方案A:完全离线,本地跑大模型,数据绝对不出电脑(需要好显卡)
  • 方案B:折中方案,本地OpenClaw+云端API,但明确知道数据流向

整个过程跟着命令行敲就行,不需要懂编程。

这篇教程很长,但每一步都有详细说明,建议收藏后跟着做。


一、先搞清楚:你的数据到底去哪了?

很多人混淆了三个概念:

部署方式OpenClaw在哪大模型在哪你的数据去哪了
纯云端对方服务器对方服务器全部上传
本地OpenClaw+云端API你的电脑对方服务器请求内容上传
完全本地你的电脑你的电脑哪都不去

只有第三种,才是真正的"数据隐私" 。前两种只是"框架隐私",你的聊天记录、上传的文件,还是会通过API发送到模型提供商那里。

所以如果你要处理的是敏感文件、商业机密、个人隐私,必须用本地大模型。后面我会详细讲怎么搭。


二、准备工作:检查你的电脑能不能"虚拟化"

OpenClaw原生运行在Linux系统上。为了不和你的Windows冲突,我们用虚拟机给它隔离出一个独立空间。

1. 检查CPU支不支持虚拟化:

右键任务栏 → 任务管理器 → 性能 → CPU,看右下角有没有"虚拟化"字样。

  • 显示"已启用":直接跳到第三节
  • 显示"已禁用":需要进BIOS开启,看下面
  • 没有这选项:电脑太老了,只能直接本地安装或者用云端版

2. 怎么进BIOS开启?

重启电脑,开机时狂按 Del键 或 F2键(具体看开机画面底部的提示)。进了BIOS后,不同品牌菜单位置不一样,教你个偷懒的办法:用手机拍一张BIOS界面,发给任意AI助手,问"怎么开启CPU虚拟化",它会指给你看。

华硕一般在"高级→北桥"里,微星一般在"OC→CPU特征"里。但真的,问AI比翻说明书快多了。


三、下载两个必备软件

你需要准备:

  1. VirtualBox(虚拟机软件,完全免费)
  2. Ubuntu 24.04桌面版(操作系统,完全免费)

1. VirtualBox下载

官网 virtualbox.org → 点"Download" → 选"Windows hosts"。

安装时一路点"下一步",如果提示缺Microsoft Visual C++,就去微软官网搜"Visual C++ Redistributable",下载X64版本装上。

图片

2. Ubuntu下载

官网 ubuntu.com → 点"Download Ubuntu" → 选24.04 LTS桌面版。文件大概5.9GB,建议找个WiFi稳定的地方下载。


四、安装Ubuntu系统

打开VirtualBox,点击蓝色的"新建"按钮:

基础设置:

  • 名称:随便写,比如"Ubuntu24.04"
  • 文件夹:默认位置就行,或者改到空间充裕的盘
  • ISO镜像:浏览选中你下载的Ubuntu那个.iso文件
  • 关键一步:取消勾选"继续进行无人值守安装"(我们要手动装,更可控)

硬件配置:

  • 内存:建议给4GB,最低不能低于2GB,但也别超过你物理内存的一半
  • CPU:给4核,最低2核,别超过实际核心数
  • 虚拟硬盘:30GB够用,不用太大

点"完成",右键刚创建的虚拟机,选择"启动" → "用图形界面启动"。

图片

重要提示:鼠标点进虚拟机窗口后,你会发现光标"被困住了"——按键盘右侧的Ctrl键就能切出来。记住这个操作,后面会经常用到。

图片

启动后看到黑色界面,选第一个"Try or Install Ubuntu",然后:

  • 语言选"中文简体"

  • 键盘布局选"汉语"

  • 网络选"使用有线连接"(默认就行)

  • 安装更新选"跳过"(装完系统再更新)

  • 安装类型选"擦除磁盘并安装Ubuntu"(别怕,擦的是虚拟硬盘,不是你真硬盘)

  • 用户名和密码一定记牢,后面每一步都要用,取消登录时需要密码。然后点下一步、下一步,然后开始安装,这里安装需要耐心等待一段时间。

安装过程大概10-20分钟,取决于电脑性能,可以去泡杯茶。


五、打通虚实:让虚拟机和主机自由传文件

默认情况下,虚拟机和外面是"隔绝"的。我们要安装"增强功能",实现复制粘贴互通、文件直接拖拽。

第一步:在虚拟机窗口顶部菜单,点击 设备 → 共享粘贴板 → 双向,然后 设备 → 拖放 → 双向

第二步:打开终端(点左下角应用列表,找到"终端"图标),输入:

sudo apt install bzip2 tar

回车,输入你的密码(输的时候屏幕不显示,正常),然后输入 y 回车确认。

第三步:点击 设备 → 安装增强功能。这时候桌面侧边栏会多出一个光盘图标,点开它,点右上角的"运行软件"按钮。

等它跑完,重启虚拟机。现在你就可以:

  • 直接把文件从本地电脑桌面拖进虚拟机
  • 在本地电脑中复制文字,虚拟机里直接粘贴
  • 按 右Ctrl+F 全屏运行,体验跟真机几乎没区别


六、安装龙虾OpenClaw:核心步骤来了

重启进入Ubuntu桌面后,我们开始安装OpenClaw。

1. 更新系统并安装基础工具

点左下角"显示应用",找到终端图标打开,然后执行命令:

sudo apt update && sudo apt upgrade -y

注意,在Ubuntu系统中,粘贴的快捷键是Shift+Insert或鼠标右键

运行时需要我们输入密码,然后回车。

等待一会后,我们再输入第二行命令

sudo apt install -y curl git build-essential

2. 安装Node.js

这里我们重新打开一下终端,然后开始安装Node.js,我们将下载命令复制粘贴到终端,然后回车。

curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash - && sudo apt install -y nodejs

输入密码,等待安装完成。接着我们输入node -v来验证安装。

# 查看node版本
node -v

# 查看npm版本
npm -v

如下图所示,输出了版本号,即为安装成功。

3. 安装OpenClaw

根据OpenClaw官方文档,执行安装命令。

curl -fsSL https://openclaw.ai/install.sh | bash

I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue?Yes / ● No

这是在问:

“我理解这个默认是个人使用的,如果要用在多用户/共享环境,需要进行安全加固。继续吗?”
  • Yes = 我理解了安全风险,继续运行/安装
  • No = 取消

选 Yes 后回车即可(通过方向键左右移动来选中)。

这一步会让我们对龙虾进行配置,选择QuickStart后回车 (通过方向键上下移动来选中)

就只就是模型选择,这里我们选择Qwen,因为Qwen可以白嫖一定的免费额度。

如果这一步出现报错,可以直接截图给到Kimi或者DeepSeek去提问,让它给出解决方案。

最好是每执行一步报错后都问一下AI,直到最后解决为止。

正常没有报错时,它会弹出一个授权页面,这里我们进行注册登录。

如果网页没有自动打开的话,可以将命令行中https到code为止的这段地址,复制到浏览器中打开。

这个地方如果认证成功后,命令一直停留在授权中,可以先终止,再执行下面的命令来重新配置和选择模型。

openclaw onboard --install-daemon

授权成功后将会看到下图显示的界面:

这里选择Keep current,保持当前。

这里是选择用什么聊天软件跟龙虾沟通,这里我们选择Skip for now,先跳过,一会再来配置。

再就是搜索引擎这里也选择Skip for now,先跳过。

配置技能这里也先跳过,选择No

最后,hooks这里不要跳过,这是当遇到问题时如何处理的方式,我们通过按空格的形式把它都选上。

这是让你选择用什么方式来继续配置你的 AI 机器人,先跳过,以后再配置。

以上表示OpenClaw安装完成了。

4. 验证安装

输入:

openclaw --version

能看到版本号,说明安装成功。

5. 启动OpenClaw

根据官方指引启动网关服务:

openclaw gateway start

打开 Web 控制界面

openclaw dashboard

如果浏览器没自动打开,可以手动访问:http://localhost:3000

(具体端口看官方文档),能看到OpenClaw的Web界面,说明跑起来了。


七、方案A:真正的隐私——本地部署大模型(完全离线)

前提条件:你的电脑需要有独立显卡,显存至少8GB(推荐12GB以上)。如果只有核显或低端显卡,这个方案跑不动,只能看方案B。

之前写过一篇 Ollama + DeepSeek 如何本地私有化部署的文章,也可以作为详细教程参考:

快上车!3 步搞定 DeepSeek 本地部署,小白也能轻松逆袭!

1. 安装Ollama(本地大模型管理工具)

Ollama是目前最简单的本地大模型运行方案,官网:ollama.com

安装命令:

curl -fsSL https://ollama.com/install.sh | sh

安装完成后,验证:

ollama --version

2. 下载并运行本地模型

根据你的显存大小选择模型:

显存8GB:选Llama 3.1 8B 或 Qwen 3.5 9B

ollama pull llama3.1:8b

显存12GB+ :可以跑Llama 3.1 70B的量化版,或DeepSeek-Coder 33B

ollama pull deepseek-coder:33b

显存16GB+ :几乎主流模型都能跑

ollama pull qwen3.5:35b

这里我选择Qwen 3.5 2B(根据自己电脑显卡来)

ollama pull qwen3.5:2b

启动模型测试:

ollama run qwen3.5:2b

能对话说明模型已经在本地跑起来了,按 Ctrl+D 退出。

3. 检查虚拟机能否访问本机Ollama

在终端执行命令(IP换成本机IP4,使用ipconfig可以查询本机IP):

curl http://10.0.2.2:11434/api/tags

出现错误,表示连接不通。

检查11434端口是否被0.0.0.0监听,执行命令:

netstat -an | findstr 11434

上图说明:Ollama 只监听了 127.0.0.1(本机),没有监听 0.0.0.0,所以虚拟机无法访问。进行如下操作:

  1. 右键点击“此电脑”或“我的电脑”→ 属性
  2. 点击 高级系统设置
  3. 点击 环境变量
  4. 在“系统变量”区域,点击 新建
  5. 变量名:OLLAMA_HOST
  6. 变量值:0.0.0.0
  7. 点击 确定 保存所有对话框
  8. 完全退出 Ollama:右键点击系统托盘(任务栏右下角)的 Ollama 羊驼图标 → 选择 Quit 或 退出
  9. 重新打开 Ollama(从开始菜单)

(请将 192.168.1.200 替换成你实际的 Windows IP)

出现JSON格式的数据说明连接正常。

4. OpenClaw对接Ollama

添加Ollama Provider ,直接在终端执行:

openclaw config set models.providers.ollama '{"baseUrl":"http://192.168.1.200:11434","api":"ollama","models":[{"id":"qwen3.5:2b","name":"local-qwen3.5-2b","reasoning":false,"input":["text"],"cost":{"input":0,"output":0},"contextWindow":8192,"maxTokens":4096}]}'

如果有多个本地模型(根据实际情况来),继续添加:

openclaw config set models.providers.ollama '{"baseUrl":"http://192.168.1.200:11434","api":"ollama","models":[{"id":"qwen3.5:2b","name":"local-qwen3.5-2b","reasoning":false,"input":["text"],"cost":{"input":0,"output":0},"contextWindow":8192,"maxTokens":4096},{"id":"qwen3.5:7b","name":"local-qwen3.5-7b","reasoning":false,"input":["text"],"cost":{"input":0,"output":0},"contextWindow":8192,"maxTokens":4096}]}'

设置默认使用本地模型(可选):

openclaw config set agents.defaults.model.primary "ollama/qwen3.5:2b"

添加到Fallback列表(当主模型不可用时自动切换):

openclaw config set agents.defaults.model.fallbacks '["qwen-portal/coder-model", "ollama/qwen3.5:2b"]'

重启生效:

openclaw gateway restart

验证是否配置成功:

openclaw config get models.providers.ollamaopenclaw config get agents.defaults.model.primary

能看到刚才配置的内容,说明成功了。

测试本地模型:

此时,所有对话都在本地完成,数据完全不离开电脑。


八、方案B:折中方案——本地OpenClaw+云端API

如果你电脑配置不够,或者需要更强的模型能力,可以用这个方案。但要清楚:数据会发送到模型提供商

1. 接入智谱AI(免费模型GLM-4.7-Flash)

官网 bigmodel.cn,新用户免费赠送专享 2000万 tokens体验包!

登录后进入控制台,点击【API Key】,添加新的API Key并复制

添加智谱Provider(包含免费模型),执行下面的命令:

记得用刚才获取的API key 替换下方命令中的“你的KEY”

openclaw config set models.providers.zhipu '{"baseUrl""https://open.bigmodel.cn/api/paas/v4""apiKey""你的KEY""api""openai-completions""models": [{"id""glm-4.7-flash""name""GLM-4.7-Flash""reasoning"false"input": ["text"], "cost": {"input"0"output"0"cacheRead"0"cacheWrite"0}, "contextWindow"300000"maxTokens"4096}]}'

添加到Fallback列表:

openclaw config set agents.defaults.model.fallbacks '["qwen-portal/coder-model""ollama/qwen3.5:2b""zhipu/glm-4.7-flash""zhipu/glm-4-flash""zhipu/glm-4"]'

重启生效:

openclaw gateway restart

2. 接入硅基流动(免费额度)

官网 cloud.siliconflow.cn,注册后首次完成有效实名认证,即可获得面值 ¥16 的「认证奖励券」 1 张。

点击左侧菜单【API密钥】,新建API密钥并复制

点击左侧菜单【模型广场】,选择合适的模型(每个模型的价格不一样,也有免费的模型),我这里使用“DeepSeek-V3.2”

执行下面的命令:

记得用刚才获取的API密钥替换下方命令中的“sk-你的API_KEY”

openclaw config set models.providers.siliconflow '{"baseUrl""https://api.siliconflow.cn/v1""apiKey""sk-你的API_KEY""api""openai-completions""models": [{"id""deepseek-ai/DeepSeek-V3.2""name""DeepSeek-V3.2""reasoning"false"input": ["text"], "cost": {"input"0"output"0"cacheRead"0"cacheWrite"0}, "contextWindow"300000"maxTokens"4096}]}'

添加到Fallback列表:

openclaw config set agents.defaults.model.fallbacks '["qwen-portal/coder-model""ollama/qwen3.5:2b""zhipu/glm-4.7-flash""zhipu/glm-4-flash""zhipu/glm-4""siliconflow/deepseek-ai/DeepSeek-V3.2"]'

重启生效:

openclaw gateway restart

3. 接入MinMax官方(付费)

官网 minimaxi.com,点击【登录】-【API开发平台】进行注册登录

进入平台首页后再点击左侧菜单【账户信息】-【获取你的key】,创建新的API Key

添加 Minimax Provider,执行命令:

openclaw config set models.providers.minimax '{"baseUrl""https://api.minimaxi.com/anthropic""apiKey""你的KEY""api""anthropic-messages""models": [{"id""MiniMax-M2.5""name""MiniMax M2.5""reasoning"true"input": ["text"], "cost": {"input"0.3"output"1.2"cacheRead"0"cacheWrite"0}, "contextWindow"204800"maxTokens"131072}]}'

添加到Fallback列表:

openclaw config set agents.defaults.model.fallbacks '["qwen-portal/coder-model""ollama/qwen3.5:2b""zhipu/glm-4.7-flash""zhipu/glm-4-flash""zhipu/glm-4""siliconflow/deepseek-ai/DeepSeek-V3.2",  "minimax/MiniMax-M2.5"]'

重启生效:

openclaw gateway restart

重要提醒:使用这些方案时,不要上传敏感文件,只用来处理公开信息或一般性工作。


九、对接飞书:让AI融入日常工作

1. 创建飞书应用

打开飞书开放平台 open.feishu.cn

登录后点击【创建企业自建应用】

填写应用名称(比如"AI助手"),应用描述随便写,点击“创建”按钮后进入应用详情页

2. 获取凭证

在"凭证与基础信息"页面,找到:

  • App ID(以cli_开头)

  • App Secret(需要点击"查看"按钮)

    把这两个记下来。

3. 配置权限

在"权限管理"页面点击按钮【批量导入/导出权限】:

复制粘贴以下JSON代码:

{  
  "scopes": {  
    "tenant": [  
      "contact:contact.base:readonly",  
      "contact:user.base:readonly",  
      "im:chat.access_event.bot_p2p_chat:read",  
      "im:chat.members:bot_access",  
      "im:message",  
      "im:message.group_at_msg:readonly",  
      "im:message.p2p_msg:readonly",  
      "im:message:send_as_bot",  
      "im:resource"  
    ],  
    "user": [  
      "contact:contact.base:readonly",  
      "im:message"  
    ]  
  }  
}

完成后点击【下一步,确认新增权限】。

确认应用身份权限,点击【确认开通】

这里需要开启机器人的能力,点击【确认开启】

确认“应用身份权限”可访问的数据范围,点击【确认】

至此表示相关权限已经开通好了。

4. 配置事件订阅

点击左侧菜单【事件与回调】-【订阅方式】,点击编辑按钮

将订阅方式修改为长链接,并点击【保存】按钮

点击【添加事件】,搜索“接收消息”,将“接收消息”添加进来。

这样事件订阅就配置完成了。

5. 发布应用

点击“创建版本”超链接,在弹出的界面中填写版本详情,如下图:

填写完成后点击【保存】按钮

再点击【确认发布】

发布成功后将会在飞书中收到审核消息,如下图:

6. 在OpenClaw中配置飞书

复制飞书中的“APP ID”和“APP Secret”,执行下面的命令:

配置App ID:

openclaw config set channels.feishu.accounts.main.appId "你的AppID"

配置App Secret:

openclaw config set channels.feishu.accounts.main.appSecret "你的AppSecret"

重启生效:

openclaw gateway restart

以上表示配置成功。

7. 测试飞书机器人

点击飞书中的"开发者小助手" → "打开应用",随便给我们的机器人发送一条消息,获取一下配对码,如下图:

将配对码放入下方命令中,然后再粘贴到终端中执行

openclaw pairing approve feishu "你的配对码"

继续给机器人发送消息,询问是否配对成功

至此,飞书和龙虾配置成功,可以愉快的帮你打工了。

如果配置的是本地模型,此时飞书消息→OpenClaw→本地大模型→返回结果,全流程数据都在你电脑里。


十、常用命令速查表

操作命令
查看版本openclaw --version
启动服务openclaw start 或 openclaw gateway start
停止服务openclaw stop 或 openclaw gateway stop
重启服务openclaw restart 或 openclaw gateway restart
查看日志openclaw logs
查看配置openclaw config get 配置路径
设置配置openclaw config set 配置路径 "值"
单论对话openclaw chat "内容"
指定模型对话openclaw chat "内容" --model 模型名
交互式对话openclaw chat --interactive
处理文件openclaw process 文件路径 --output 输出路径
所有可用的模型openclaw models list

十一、进阶玩法与注意事项

1. 命令行批量处理

OpenClaw的命令行模式很适合批量处理文件:

# 批量处理文件夹里的所有文档
for file in ~/documents/*.pdf; do  
    openclaw process "$file" --model ollama/qwen3.5:2b --output "${file%.pdf}.md"
done

2. 多开虚拟机

电脑配置够的话(建议32GB内存+好显卡),可以:

  • 一个虚拟机跑OpenClaw+本地小模型(处理敏感数据)
  • 一个虚拟机跑OpenClaw+云端API(处理一般任务)

4. 快照备份

在VirtualBox里,右键虚拟机 → 快照 → 拍摄快照。配置搞乱了随时恢复。

关键提醒:即使本地部署,也要注意。

  • 飞书消息本身是经过飞书官方服务器(open.feishu.cn)处理和转发(这是飞书的机制)
  • 本地模型能力有限,70B模型也比不过GPT-4
  • 显卡越好,本地模型越快,量化版会损失一些精度

十二、写在最后

说实话,第一次成功在虚拟机里跑通完全离线的OpenClaw,并且看到飞书群里AI自动回复消息的时候,那种"数据真·安全"的感觉,是云端服务给不了的。

现阶段,龙虾安装环节是使用龙虾过程中最简单的一环了,这个步骤省了,大概率使用过程中会还回来的。因为有了安装经验,命令行的操作我们就熟悉了,后续遇到异常,问问AI,基本能够自行处理。

重要认知:如果你用了云端API,就不要自欺欺人说是"本地部署"。要么接受数据上传换能力,要么接受本地模型的能力限制换隐私。没有两全其美。

你在搭建过程中遇到了什么问题?或者你已经跑通了本地模型,用的什么显卡、跑的什么模型?  评论区聊聊,我尽量帮大家解答。