我用 Claude 当了一个月「AI同事」,老板差点以为我请了个外包

11 阅读6分钟

事情是这样的:我是个独立开发者,接了一个创业公司的活。老板让我一个人干三个人的事——写代码、盯客户群、整理会议纪要。我寻思这不行啊,996都不够用。然后我就做了件事:用 Claude 搞了一个 AI 同事,挂在公司群里,24小时在线。

结果干了一个月后,老板问我:"你是不是偷偷请了个外包?群里那个回消息的是谁?"

起因:一个人扛不住三个群

先说背景。

我平时在一个小创业公司做技术顾问,远程办公。公司不大,但群很多——产品群、销售群、客户对接群,每天几百条消息轰炸。

老板的需求很朴素:

  • 有人在群里问技术问题,能快速回复
  • 客户群里的消息动态,有人帮忙盯着
  • 每天能出一份各群的摘要,知道发生了什么

以前靠我自己盯,经常漏消息。漏一次客户消息,销售那边就炸锅。

我就想,能不能搞个 AI 助手挂在群里,帮我分担?

不是那种 ChatGPT 套壳的 "智能客服",而是真正像一个同事一样——能看到群消息、能理解上下文、能主动帮忙。

第一版:两天搭出来,丑但能用

技术栈非常简单:

飞书 Webhook → Python 服务 → Claude API → 飞书消息卡片

核心逻辑就一个文件,500 行 Python。

做了什么:

  1. 飞书群 @ 机器人,触发 Webhook
  2. Python 收到消息,拼上最近的群聊上下文
  3. 调 Claude API,拿到回复
  4. 用飞书卡片消息发回去(支持 Markdown 渲染)

两天时间,主要花在:

  • 飞书开放平台申请机器人权限(这块文档写得不太行,踩了不少坑)
  • 消息格式处理(飞书的 @ 格式、图片、引用回复,每个都不一样)
  • Claude API 调用(这里我用的 ofox.ai 做中转,因为国内直连 Claude 你懂的,ofox 走阿里云加速延迟低很多)

第一版效果:群里 @AI 同事,3-5 秒出回复,能回答基本的技术问题。

但是,非常蠢。 因为它没有记忆,没有上下文,每次对话都是全新的。你问它"上次说的那个方案呢?"它一脸懵。

第二版:给它加记忆,AI 开始"像个人"了

这是关键升级。我设计了一个三层记忆系统:

记忆层作用更新频率
核心记忆公司信息、项目进展、关键决策手动维护
近期对话最近 50 轮对话历史每次对话自动更新
群消息摘要各群的消息动态汇总每小时自动更新

实现也不复杂:

  • 核心记忆就是一个 Markdown 文件,写清楚"公司做什么、客户有哪些、最近的重点"
  • 对话历史用 JSON 存,超过 50 轮自动压缩归档(Claude 帮忙总结,然后清空)
  • 群消息同步用飞书 API 拉最近的聊天记录,存成 Markdown

每次 AI 回复之前,先把这三层记忆拼进 System Prompt:

system_prompt = f"""你是公司的 AI 同事。
{core_memory}     # 核心记忆
{recent_dialog}   # 最近对话
{daily_digest}    # 今日群消息摘要
"""

效果立竿见影。

有人在群里问:"那个项目进展怎么样了?"

以前的 AI:❌ "抱歉,我不了解该项目的具体情况。"

现在的 AI:✅ "目前在对接 B 端新场景,C 端知识库还没完善所以暂时回退人工了,商务那边价格和付款还在确认。需要我去翻最近的群消息看看具体细节吗?"

这回复一出来,销售同事直接在群里打了个"666"。

踩的最大的坑:AI 发错消息

说一个差点社死的 Bug。

第一周,AI 同事在客户群里回消息,把另一个客户群的对话内容给带出来了。

原因:我偷懒,所有群共享同一份对话历史。A 群问的问题,B 群的上下文混进去了。

这个 Bug 修了我一整天。 解决方案是严格群组隔离——每个群一份独立的上下文,对话历史也按群分开存储。AI 回复之前还加了一道过滤:检查输出有没有泄露技术 ID、内部标识之类的敏感信息。

教训:AI 应用上生产,安全比功能重要 10 倍。 你可以回复慢一点、笨一点,但绝不能泄露信息。

一个月后的效果

用了一个月,一些真实数据:

  • 日均处理消息:30-50 条群内 @ 请求
  • 平均响应时间:5 秒内
  • 群消息同步:每小时自动更新 10+ 个群的动态摘要
  • 对话归档:自动压缩历史,不丢上下文

最直观的感受:

1. 老板真的以为有个人在帮忙

他有次私聊我:"你那个助理挺靠谱的,回复速度很快。" 我没好意思说那是 AI。

2. 销售不骂我了

以前我漏回客户群消息,销售群里能开批斗会。现在 AI 盯着,关键消息不漏,还能出每日摘要。

3. 我省了大量"人肉搜索"时间

以前:"XX客户上次说的什么来着?" → 翻半小时聊天记录 现在:群里问 AI → 3 秒出答案

成本

说下大家关心的费用。

Claude API 调用费用,大头在 Opus 模型(最聪明但最贵)。我的策略:

  • 简单问题用 Haiku(便宜快速)
  • 复杂推理用 Opus(贵但准确)
  • API 中转用 ofox.ai,价格比官方直连便宜不少,而且国内访问稳定

一个月下来,API 费用大概 200-300 块。相当于请一个"实习生同事",但 24 小时在线、不请假、不摸鱼。

你也可以搞一个

说实话,整套系统的核心代码加起来不到 1000 行 Python。难的不是代码,是这几个事:

1. 记忆设计是关键

不设计记忆系统,AI 就是个复读机。好的记忆系统让 AI 有"人格连续性"。

2. 安全防护必须从第一天就做

不要等出了事再补。群组隔离、敏感信息过滤、审计日志,一个都不能少。

3. 不要追求完美,先跑起来

第一版丑得一塌糊涂,但上线当天就有人用了。后面的优化都是在实际使用中迭代出来的。

4. 大模型选对很重要

我试过 GPT、Claude、国产模型,最后主力用 Claude(Opus 推理强、Haiku 性价比高)。关键是找一个稳定的 API 渠道——我用的 ofox.ai,一个 API 能切换 50 多个模型,国内加速访问,省了很多折腾。


最后问大家一个问题: 你在工作中有没有想过用 AI 替代/辅助某个重复性岗位?欢迎在评论区聊聊你的想法,或者你踩过的坑。

如果这篇文章对你有帮助,点个赞👍 我后面会写一篇手把手搭建教程,从零开始教你搞一个自己的 AI 同事。