99元/年!腾讯云部署OpenClaw,手把手教你打造7×24小时AI私人助手

0 阅读15分钟

1.前言

在AI Agent遍地开花的2026年,越来越多的小伙伴开始关注一个核心问题——如何拥有一个属于自己的、全天候在线的AI私人助手?传统的方式是在本地电脑上运行各类AI工具,但问题也很明显:电脑一关机AI就下线了,而且AI Agent权限较高,能读文件、跑命令、改代码,直接跑在主力电脑上多少让人有些担心数据安全。

OpenClaw(原名Clawdbot/Moltbot)就是为了解决这个痛点而生的开源AI助理项目。它的代码100%由AI生成,能在用户自己的环境中独立运行,并通过我们日常使用的聊天软件(QQ、企业微信、飞书、钉钉、Discord、Telegram等)进行交互。简单来说,你可以把它部署到云服务器上,然后在手机上随时随地和你的AI助手对话,让它帮你查资料、写代码、分析文件,真正做到7×24小时随叫随到。而腾讯云轻量应用服务器(Lighthouse)正好提供了高性价比的云端运行环境,最低99元/年,安全隔离、稳定可靠,是部署OpenClaw的理想选择。腾讯云甚至已经提供了OpenClaw一键部署应用模板,2核2G即可启动,极大降低了部署门槛。

OpenClaw整合部署架构图

最近近一个月OpenClaw在开发者圈子里非常火爆,今天我们就在腾讯云上手把手教大家部署这个开源AI助手,从购买服务器、安装配置、接入Telegram通道、到配置免费的DeepSeek-V3.2模型、安装ClawHub技能扩展,最后整理常用命令速查表,全流程走一遍,体验和感受一下这个AI Agent的强大能力。

2.项目实战

服务器购买

首选我们需要去腾讯云购买一个云VPS云服务器。目前腾讯云服务支持国内版本和海外版本价格最低99元一年(平均下来1个月8.25元)。我这里因为除了openclaw还运行了其他项目,所以我们购买的是199的云VPS。(大家可以根据自己需求购买)另外我考虑后面对接海外模型以及安装容器方便所以选择海外服务器。

image-20260221122248491

服务器购买完成后,开通云服务器,我这里购买的腾讯云-东京的服务器

image-20260221122430864

服务器开通后,接下来我们在云服务安装openclaw

安装openclaw

之前给大家介绍过openclaw-cn这个中文汉化版本,这个还给大家使用这个项目。关于openclaw-cn安装也可以看我之前的文章

2天10万Star!GitHub史上最快开源项目OpenClaw,手把手教你免费实现部署私人AI助手

npm install -g openclaw-cn@latest

在腾讯云服务器执行上面的命令安装最新版本

image-20260221125359558

这样我们就完成了openclaw 中文版

运行安装向导

接下来我们运行安装运行向导命令

openclaw-cn onboard --install-daemon

image-20260221125548960

这块我们不做详细展开,详细步骤大家可以看我之前的文章。我们这里只把关键点给大家介绍一下

我之前服务器上已经部署过deepseek-v3.2 自定义模型,我这里选择重置。

image-20260221125740096

大家安装遇到问题可以多试几次,这个openclaw 多装几次就能对它有一定的了解。

image-20260221125825508

出现模型选择,这里我们使用自定义deepseek-v3.2模型,所以比较复杂,这里我们先跳过,后面让AI帮我们修改

image-20260221125913063

接下来会出现通道选择。

image-20260221130059649

之前文章给大家介绍都是使用飞书文档,但是我这里不推荐大家使用飞书配置。为什么不推荐,因为我使用两天后出现限制

image-20260221130217472

也就是飞书会对api调用有一个月度总量的控制,我们知道这个大龙虾(openclaw)调用量是非常大的,所以每个月50000的额度根本不够。我这里还用2天就用到了45262,所以这次我们使用其他通道。

通道配置-Telegram

这里我们用Telegram来做配置,为什么选择它 限制少,我担心如果我换成钉钉会不会又有限制。 腾讯云上面也有其他配置比如企业微信和QQ,详细步骤大家可以看官方教程

image-20260221130625947

我回到Telegram配置界面

image-20260221132633111

我们需要先在Telegram @BotFather 然后输入 /newbot 创建一个新bot

image-20260221132844070

创建完成后生成Telegram token to access the HTTP API

image-20260221132959721

我们需要把这个token复制下来,接下来我们把这个token复制到vps Telegram 配置页面

image-20260221133123601

image-20260221133142962

以上完成Telegram 配置,这个配置要比飞书、QQ配置都简单。

后面的配置和之前的配置类似,这里不做详细展开

image-20260221133300134

image-20260221133320061

​ 配置后我们可以在本地使用 openclaw-cn tui 验证测试一下。

image-20260221133423208

我上面的截图是我已经配置好模型了,上面的步骤没有配置模型,这里大家可能有困惑。这个模型如何配置的?

模型配置

关于模型配置这块,最简单的方式就按照官方提供的厂商模型配置输入apikey就可以了

image-20260221133706853

按照上面配置向导填写相关厂商模型APIkey 和模型就可以用了。不过上面的方案好用的就费钱,免费的又会限流或者有免费额度用完还的充钱。这里我们使用免费的自定义的deepseek3.2模型来实现。

openclaw.json 配置文件如下

{
  "wizard": {
    "lastRunAt": "2026-02-21T02:38:15.682Z",
    "lastRunVersion": "0.1.6",
    "lastRunCommand": "onboard",
    "lastRunMode": "local"
  },
  "auth": {
    "profiles": {
      "zai:default": {
        "provider": "zai",
        "mode": "api_key"
      },
      "custom:default": {
        "provider": "openai",
        "mode": "api_key"
      }
    }
  },
  "models": {
    "mode": "merge",
    "providers": {
      "custom": {
        "baseUrl": "http://115.190.165.156:3000/v1",
        "apiKey": "sk-eKU0nC4uERD0OVirefq6VgcD2FCwn7t7lvqy84c9xIQrlD1S",
        "api": "openai-completions",
        "models": [
          {
            "id": "deepseek-v3.2",
            "name": "DeepSeek V3.2",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "custom/deepseek-v3.2"
      },
      "models": {
        "zai/glm-4.6": {},
        "zai/glm-5": {
          "alias": "GLM-5"
        },
        "custom/deepseek-v3.2": {
          "alias": "DeepSeek-V3.2"
        }
      },
      "workspace": "/root/.openclaw/workspace",
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto"
  },
  "hooks": {
    "internal": {
      "enabled": true,
      "entries": {
        "boot-md": {
          "enabled": true
        },
        "command-logger": {
          "enabled": true
        },
        "session-memory": {
          "enabled": true
        }
      }
    }
  },
  "channels": {
    "telegram": {
      "enabled": true,
      "dmPolicy": "pairing",
      "botToken": "8590030908:AAEITZaSMthYlxxxxxxxxx-H4YR7ho4",
      "groupPolicy": "allowlist",
      "streamMode": "partial"
    }
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token",
      "token": "1382d66ba06bf75fd94818d2db91af2537bbca51c9e858d0"
    },
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    }
  },
  "skills": {
    "install": {
      "nodeManager": "npm"
    }
  },
  "plugins": {
    "entries": {
      "telegram": {
        "enabled": true
      }
    }
  },
  "meta": {
    "lastTouchedVersion": "0.1.6",
    "lastTouchedAt": "2026-02-21T02:38:15.690Z"
  }
}

怎么配置呢?可以手工编辑 vi openclaw.json 修改配置文件

cd ~/.openclaw/
vi openclaw.json

image-20260221134837865

有的小伙伴会说,这个命令行操作我不会?有没有更简单而办法?可以用Ai帮你改。

先将服务器上安装claude code。这样后面我们让它直接操作服务器帮我干活。 关于claude code 安装不清楚的小伙伴可以看我之前的文章《免费玩转顶尖代码生成!魔搭社区 + Qwen3-Coder+Claude Code 全攻略

我们可以把上面的信息配合下面的提示词发给AI

请参考"openclaw5.json"模型配置帮我把~/.openclaw/openclaw.json 模型配置修改一下使用deepseek-v3.2 自定义模型

image-20260221135731597

image-20260221135753185

这样我们就让AI 帮我修改好模型配置了。

重启网关

openclaw-cn gateway restart

接下来我们使用openclaw-cn tui验证一下是否模型可以使用

openclaw-cn tui

image-20260221143934642

这时候我们可以看消息返回,另外我之前提供的免费模型中间代理已经有请求了。

image-20260221141249373

说明自定义模型deepseek-v3.2 模型可以使用。

Telegram验证测试

接下来我们用Telegram桌面版本测试一下。

image-20260221142045975

看到消息已经有返回了,说明我们的Telegram也可以使用了。

这里我们需要注意的是腾讯云服务IPV6是开启的,否则你的网络可能和Telegram之间会出现消息返回不了的问题。

image-20260221142305449

有的小伙伴可以会遇到Telegram软件不能用的问题,这个比较复杂我这里就不做详解。我这里用了一个俄罗斯版的Telega安装到手机上,这样使用国内网络也可以访问Telegram收发消息的。

image-20260221143155397

上面我们只完成了openclaw基本安装,要想功能变得非常强大,我们还需要给它安装更多skill技能。这里我们可以使用clawhub来实现更多技能包的安装

clawhub安装

首先介绍一下clawhub这个是什么?clawhub.ai/

image-20260221143717361

ClawHub(clawhub.ai)是 OpenClaw 的官方技能注册平台,被称为 "AI 智能体的 npm"。

image-20260221144421554

在 OpenClaw 中启用 ClawHub 后,智能体可以自动搜索并拉取所需技能。

下面我们给大家安装几个插件方便后面的扩展。先把clawhub安装

npm i -g clawhub

image-20260221144543276

Brave Search —— 联网搜索

默认的搜索引擎 Skill。装了之后 OpenClaw 能上网查资料、搜新闻、找答案,不再只靠自己脑子里的存货。需要申请一个免费的 Brave Search API key。

clawhub install brave-search

image-20260221144821905

GitHub —— 开发者必备

创建 Issue、查看 PR、管理仓库。开发者装这个,配合 Agent Browser 可以直接让 OpenClaw 帮你巡检项目。

clawhub install github

Skill Creator —— 自己造技能

当现成的 Skill 不够用时,你可以把自己的常用流程(比如:日报生成 → 发群 → 归档)封装成一个新 Skill。一次沉淀,反复使用。

clawhub install skill-creator

还有非常多大家可以自己去搜索安装,给大家我安装的一些

image-20260221145126661

安装后的skill 目录路径如下

/root/clawd/skills

推荐的3,002个openclaw skill技能合集

另外给大家推荐精选的3002个openclaw skill技能合集 项目地址:github.com/VoltAgent/a…

image-20260221145634993

大家可以根据自己的需要选择安装

image-20260221145714891

收集整理openclaw 常用命令

上面我们完成了OpenClaw的完整部署,在日常使用和运维过程中,掌握常用命令能让你事半功倍。这里我从OpenClaw完整命令合集中挑选了最实用的命令,整理成速查表,大家可以收藏备用。

基础命令

话不多说,先看最基本的几个命令,这几个是入门必会的:

openclaw --version        # 查看当前安装版本
openclaw --help           # 查看帮助信息
openclaw onboard          # 全流程引导配置(首次安装必用)
openclaw onboard --force  # 强制重新初始化(配置搞乱了就用这个)

配置管理

配置管理是使用频率非常高的命令,特别是查看和修改模型、通道配置的时候:

openclaw config list                    # 查看所有配置项
openclaw config get all                 # 获取全部配置详情
openclaw config get models              # 单独查看模型配置
openclaw config get channels            # 单独查看通道配置
openclaw config set gateway.port 18789  # 设置网关端口
openclaw config reset                   # 重置所有配置(慎用)

模型管理

模型是OpenClaw的核心,下面这几个命令帮你管理和排查模型问题:

openclaw models list                          # 列出所有已配置模型
openclaw models status                        # 查看模型在线状态
openclaw models probe                         # 探测模型可用性(排障神器)
openclaw models set default "deepseek-v3.2"   # 设置默认模型

通道管理

通道就是OpenClaw和你聊天的桥梁,管理通道的命令如下:

openclaw channels list            # 列出所有通道
openclaw channels status          # 查看通道连接状态
openclaw channels login telegram  # 登录Telegram通道
openclaw channels logout all      # 登出所有通道

网关管理(最常用)

好家伙,网关管理可以说是日常运维用得最多的命令了,启动、停止、重启、查状态,还能设置开机自启:

openclaw gateway start     # 启动网关服务
openclaw gateway stop      # 停止网关服务
openclaw gateway restart   # 重启网关(改完配置后必用)
openclaw gateway status    # 查看网关运行状态
openclaw gateway install   # 安装为系统服务(开机自启,强烈推荐)
openclaw gateway uninstall # 卸载系统服务

日志与调试

遇到问题别慌,先看日志,再跑健康检查:

openclaw logs          # 查看最近日志
openclaw logs -f       # 实时跟踪日志(像tail -f一样)
openclaw logs --error  # 只看错误日志
openclaw doctor        # 健康检查(自动诊断问题)
openclaw doctor --fix  # 自动修复发现的问题

插件与技能管理

OpenClaw的强大离不开丰富的插件和技能生态:

openclaw plugins list              # 列出已安装插件
openclaw plugins install [插件名]   # 安装新插件
openclaw plugins enable [插件名]    # 启用插件
openclaw plugins disable [插件名]   # 禁用插件
openclaw skills list               # 列出所有技能
openclaw skills enable [技能名]     # 启用指定技能
openclaw skills disable [技能名]    # 禁用指定技能

智能体管理

OpenClaw支持创建多个智能体,不同智能体可以配置不同模型和技能:

openclaw agent list            # 列出所有智能体
openclaw agent create myagent  # 创建新智能体
openclaw agent delete myagent  # 删除智能体
openclaw agent use main        # 切换到主智能体
openclaw agent chat "你好"     # 直接和智能体对话

常用一键组合(完整启动流程)

最后给大家一个从零启动的完整命令流程,按顺序执行就完事了:

# 1. 检查配置
openclaw config get all

# 2. 探测模型是否可用
openclaw models probe

# 3. 检查通道状态
openclaw channels status

# 4. 安装为系统服务(首次执行)
openclaw gateway install

# 5. 启动网关
openclaw gateway start

# 6. 查看运行状态
openclaw gateway status

# 7. 实时查看日志
openclaw logs -f

是不是非常简单?掌握了这些命令,日常管理OpenClaw就完全没有压力了。

免费模型token

为了方便大家体验和配置我这里提供我自建的免费的自定义api模型,目前模型支持glm4.6和deepseek3.2模型.提供300美金额度,用完为止。

image-20260221152736898

相关模型配置如下:

api key :sk-eKU0nC4uERD0OVirefq6VgcD2FCwn7t7lvqy84c9xIQrlD1S

baseurl:http://115.190.165.156:3000/v1

model: glm-4.6,deepseek-v3.2

模型配置可以使用cherry studio等第三方工具配置好验证测试是否可以使用。

image-20260221152827686

image-20260221152921530

看到上面信息确保api key可以使用否则就不能用了。不能用了也别找我了。

3.功能演示

上面主要介绍了部署,下面我们在介绍几个openclaw 功能

联网搜索

今天最新的科技新闻有哪些?主要是人工智能方面

image-20260221164948139

查看服务器情况

查看服务器CPU、内存、硬盘使用情况

image-20260221165625708

做WEB游戏

你的任务创建一个简单的网页版“打地鼠”游戏。以下是游戏的详细规则:
  1. 游戏界面是一个 4x4 的网格。
  2. 每隔 1 - 2 秒,会有一只“地鼠”随机出现在一个格子里。
  3. 玩家点击“地鼠”即可得分,分数需要实时显示。
  4. 游戏包含一个“开始/重新开始”按钮和一个 30 秒的倒计时。
创建好游戏后帮我部署到verchel平台上并返回能够访问的URL

image-20260221172612263

这里它没有直接帮我部署,应该缺少配置信息,我让它给我部署在本地

image-20260221173214416

我们用浏览器打开

image-20260221173309639

用的是DeepSeek-V3.2模型,生成简单小游戏效果还是不错的。

4.总结

今天主要带大家了解并实现了OpenClaw开源AI助手在腾讯云Lighthouse上的完整部署流程,该项目以"开源免费 + 多IM通道 + 技能扩展"为核心优势,结合个人和团队对AI助手7×24小时在线服务的需求,通过腾讯云轻量应用服务器与Telegram通道,形成了一套从服务器购买到AI助手上线的全链路私有化部署方案。

通过这套实践方案,开发者和AI爱好者能够高效突破传统AI工具"电脑关机就下线、本地运行不安全"的痛点——借助腾讯云海外服务器部署(包括安装openclaw-cn中文版、配置Telegram通道避免飞书API月度50000次调用限制、接入免费DeepSeek-V3.2自定义模型实现零成本使用),无需购买昂贵的GPU服务器或支付高额API费用,就能快速打造一个随时随地可用的AI私人助手(如本次演示的"Telegram + DeepSeek-V3.2聊天助手")。无论是日常问答、代码编写,还是文件分析、联网搜索、GitHub项目管理、自定义技能开发,都能通过ClawHub技能平台和3000+开源技能包完成扩展,极大提升了AI助手的实用性和可玩性。在实际应用中,腾讯云Lighthouse不仅提供了99元/年起的高性价比方案,还实现了与主力电脑的安全隔离,适配性远优于本地部署方案;特别是通过自定义模型配置和Claude Code辅助修改配置文件,有效解决了新手不会命令行操作的难题。

同时,方案具备良好的扩展性——小伙伴们可以基于此扩展更多应用场景,如接入企业微信打造团队AI助手、配置QQ机器人服务个人社群、利用Skill Creator封装自动化工作流等,进一步发挥OpenClaw在智能办公、开发辅助、内容创作等领域的应用价值。感兴趣的小伙伴可以按照文中提供的步骤进行实践,根据实际使用场景调整模型选择和通道配置。今天的分享就到这里结束了,我们下一篇文章见。