给飞书群加了个 AI 同事:OpenClaw 部署 3 天后的真实体验

7 阅读4分钟

OpenClaw 这个 10 万 star 的项目到底能干什么?我在自己的 Mac Mini 上跑了 3 天,接了飞书和 Discord,说说真话。

起因

上个月同事在群里分享了 OpenClaw——GitHub 上那个开源 AI 助手项目。说是能接飞书、Discord、Telegram,跑在自己机器上,7 天 24 小时在线。

我当时的反应是:又一个套壳 ChatGPT 的 bot 吧?

跑了 3 天之后改观了。它不是 bot,更像是一个能跨平台工作的 AI 员工。

10 分钟从安装到发第一条消息

说实话没想到这么快。

npm install -g openclaw
openclaw init
openclaw start

三行命令装完。飞书接入用的是 WebSocket 模式,不需要公网 IP、不需要域名、不需要 Nginx。在飞书开放平台创建个应用,把 App ID 和 Secret 填进配置文件,重启,搞定。

{
  "channels": {
    "feishu": {
      "enabled": true,
      "mode": "websocket",
      "appId": "cli_xxxx",
      "appSecret": "your-secret"
    }
  }
}

在飞书里搜到我的机器人,发了句"你好"——3 秒后收到了回复。

这个速度超出预期。之前自己用 Python 写过飞书 bot,光配 Webhook + 签名验证就折腾了一下午。

Discord 也接了

同样简单。在 Discord Developer Portal 创建 Bot,拿到 Token,填进配置:

{
  "channels": {
    "discord": {
      "enabled": true,
      "token": "your-bot-token",
      "guilds": {
        "*": { "requireMention": false }
      }
    }
  }
}

requireMention: false 这个配置很关键——不用 @ 就能触发。我之前用 Discord bot 框架每次都要 @Bot 才能聊天,贼麻烦。

最让我惊喜的:跨平台记忆

这是 OpenClaw 和普通 bot 最大的区别。

我在飞书上跟它说:"记住我的项目叫 StarLink,用的 Next.js + Supabase。"

然后切到 Discord 问:"我的项目用了什么技术栈?"

它答对了。

不是简单的关键词匹配——它记住了完整的上下文。我后来在飞书上讨论了一个 bug,过了两小时去 Discord 问"那个 bug 修了吗",它知道我在说哪个 bug。

实测跨渠道记忆的准确率大概在 90-95%,超过 24 小时的话偶尔会忘。

定时任务:每天自动推新闻

配了个 cron,每天早上 9 点自动抓 AI 领域新闻然后发到飞书群里:

{
  "cron": {
    "jobs": [
      {
        "name": "morning-news",
        "schedule": "0 9 * * *",
        "message": "搜索今天的 AI 领域重要新闻,整理成 5 条摘要",
        "delivery": {
          "channel": "feishu",
          "to": "群组ID"
        }
      }
    ]
  }
}

跑了 3 天,每天早上 9 点准时出现。同事还以为我每天手动整理的。

模型选择:用了 DeepSeek V4

OpenClaw 支持多种模型。我目前主力用的是 DeepSeek V4——中文对话质量不错,价格也合理。

{
  "models": {
    "primary": "deepseek/deepseek-v4",
    "fallback": ["qwen/qwen3.5-plus"]
  }
}

配了 Qwen 做降级备用。上周 DeepSeek API 有一次短暂抖动,OpenClaw 自动切到 Qwen 继续跑了,体感上完全没中断。

如果你用多个模型厂商,推荐通过 API 网关统一管理。一个 Key 搞定所有模型,省得维护一堆 API Key:

from openai import OpenAI

# 一个 client 调所有模型
client = OpenAI(
    base_url="https://api.therouter.ai/v1",
    api_key="一个key"
)

# 想用哪个模型就改这个字符串
response = client.chat.completions.create(
    model="deepseek/deepseek-v4",
    messages=[{"role": "user", "content": "今日AI新闻摘要"}]
)

3 天的数据

指标数据
总处理消息487 条
飞书消息312 条(64%)
Discord 消息175 条(36%)
平均响应时间2.1 秒
跨渠道上下文命中46/50 次(92%)
总运行时间71 小时 48 分
意外停机0 次
模型费用¥38(3 天)

3 天 38 块,平均每天不到 13 块。考虑到它帮我处理了接近 500 条消息——回答问题、翻译文本、摘要长文、整理新闻——这个性价比我觉得可以。

踩过的坑

Discord 的 MESSAGE CONTENT INTENT。 创建 Bot 之后默认关闭。不开的话 Bot 收到消息但内容是空的——我对着空消息 debug 了半小时才反应过来。去 Developer Portal → Bot 页面 → 勾上 MESSAGE CONTENT INTENT。

飞书断连。 WebSocket 大概每 3-5 天会断一次。OpenClaw 会自动重连,但建议还是用 PM2 守护进程跑比较稳。

pm2 start openclaw -- start
pm2 save
pm2 startup

超时别设太短。 DeepSeek V4 处理长文本有时候要 30-40 秒。默认超时 15 秒的话消息会丢。改成 60 秒就好了。

适合谁

如果你符合以下任一条件,值得花半小时部署一个:

  • 日常在飞书/Discord 处理大量重复性消息
  • 想要一个跨平台统一的 AI 助手(不是每个平台单独装一个 bot)
  • 想用国内模型(DeepSeek、Qwen)但不想从零写代码
  • 有闲置的 Mac Mini 或者 VPS

OpenClaw 的定位不是"更好的 ChatGPT",而是"跑在你自己机器上的 AI 员工"。这个区别试过了才有感觉。


TheRouter — 多模型 API 网关,一个 Key 接入 30+ 模型。OpenClaw 的多模型配置用它最省心。