事情是这样的:我是个独立开发者,接了一个创业公司的活。老板让我一个人干三个人的事——写代码、盯客户群、整理会议纪要。我寻思这不行啊,996都不够用。然后我就做了件事:用 Claude 搞了一个 AI 同事,挂在公司群里,24小时在线。
结果干了一个月后,老板问我:"你是不是偷偷请了个外包?群里那个回消息的是谁?"
起因:一个人扛不住三个群
先说背景。
我平时在一个小创业公司做技术顾问,远程办公。公司不大,但群很多——产品群、销售群、客户对接群,每天几百条消息轰炸。
老板的需求很朴素:
- 有人在群里问技术问题,能快速回复
- 客户群里的消息动态,有人帮忙盯着
- 每天能出一份各群的摘要,知道发生了什么
以前靠我自己盯,经常漏消息。漏一次客户消息,销售那边就炸锅。
我就想,能不能搞个 AI 助手挂在群里,帮我分担?
不是那种 ChatGPT 套壳的 "智能客服",而是真正像一个同事一样——能看到群消息、能理解上下文、能主动帮忙。
第一版:两天搭出来,丑但能用
技术栈非常简单:
飞书 Webhook → Python 服务 → Claude API → 飞书消息卡片
核心逻辑就一个文件,500 行 Python。
做了什么:
- 飞书群 @ 机器人,触发 Webhook
- Python 收到消息,拼上最近的群聊上下文
- 调 Claude API,拿到回复
- 用飞书卡片消息发回去(支持 Markdown 渲染)
两天时间,主要花在:
- 飞书开放平台申请机器人权限(这块文档写得不太行,踩了不少坑)
- 消息格式处理(飞书的 @ 格式、图片、引用回复,每个都不一样)
- Claude API 调用(这里我用的 ofox.ai 做中转,因为国内直连 Claude 你懂的,ofox 走阿里云加速延迟低很多)
第一版效果:群里 @AI 同事,3-5 秒出回复,能回答基本的技术问题。
但是,非常蠢。 因为它没有记忆,没有上下文,每次对话都是全新的。你问它"上次说的那个方案呢?"它一脸懵。
第二版:给它加记忆,AI 开始"像个人"了
这是关键升级。我设计了一个三层记忆系统:
| 记忆层 | 作用 | 更新频率 |
|---|---|---|
| 核心记忆 | 公司信息、项目进展、关键决策 | 手动维护 |
| 近期对话 | 最近 50 轮对话历史 | 每次对话自动更新 |
| 群消息摘要 | 各群的消息动态汇总 | 每小时自动更新 |
实现也不复杂:
- 核心记忆就是一个 Markdown 文件,写清楚"公司做什么、客户有哪些、最近的重点"
- 对话历史用 JSON 存,超过 50 轮自动压缩归档(Claude 帮忙总结,然后清空)
- 群消息同步用飞书 API 拉最近的聊天记录,存成 Markdown
每次 AI 回复之前,先把这三层记忆拼进 System Prompt:
system_prompt = f"""你是公司的 AI 同事。
{core_memory} # 核心记忆
{recent_dialog} # 最近对话
{daily_digest} # 今日群消息摘要
"""
效果立竿见影。
有人在群里问:"那个项目进展怎么样了?"
以前的 AI:❌ "抱歉,我不了解该项目的具体情况。"
现在的 AI:✅ "目前在对接 B 端新场景,C 端知识库还没完善所以暂时回退人工了,商务那边价格和付款还在确认。需要我去翻最近的群消息看看具体细节吗?"
这回复一出来,销售同事直接在群里打了个"666"。
踩的最大的坑:AI 发错消息
说一个差点社死的 Bug。
第一周,AI 同事在客户群里回消息,把另一个客户群的对话内容给带出来了。
原因:我偷懒,所有群共享同一份对话历史。A 群问的问题,B 群的上下文混进去了。
这个 Bug 修了我一整天。 解决方案是严格群组隔离——每个群一份独立的上下文,对话历史也按群分开存储。AI 回复之前还加了一道过滤:检查输出有没有泄露技术 ID、内部标识之类的敏感信息。
教训:AI 应用上生产,安全比功能重要 10 倍。 你可以回复慢一点、笨一点,但绝不能泄露信息。
一个月后的效果
用了一个月,一些真实数据:
- 日均处理消息:30-50 条群内 @ 请求
- 平均响应时间:5 秒内
- 群消息同步:每小时自动更新 10+ 个群的动态摘要
- 对话归档:自动压缩历史,不丢上下文
最直观的感受:
1. 老板真的以为有个人在帮忙
他有次私聊我:"你那个助理挺靠谱的,回复速度很快。" 我没好意思说那是 AI。
2. 销售不骂我了
以前我漏回客户群消息,销售群里能开批斗会。现在 AI 盯着,关键消息不漏,还能出每日摘要。
3. 我省了大量"人肉搜索"时间
以前:"XX客户上次说的什么来着?" → 翻半小时聊天记录 现在:群里问 AI → 3 秒出答案
成本
说下大家关心的费用。
Claude API 调用费用,大头在 Opus 模型(最聪明但最贵)。我的策略:
- 简单问题用 Haiku(便宜快速)
- 复杂推理用 Opus(贵但准确)
- API 中转用 ofox.ai,价格比官方直连便宜不少,而且国内访问稳定
一个月下来,API 费用大概 200-300 块。相当于请一个"实习生同事",但 24 小时在线、不请假、不摸鱼。
你也可以搞一个
说实话,整套系统的核心代码加起来不到 1000 行 Python。难的不是代码,是这几个事:
1. 记忆设计是关键
不设计记忆系统,AI 就是个复读机。好的记忆系统让 AI 有"人格连续性"。
2. 安全防护必须从第一天就做
不要等出了事再补。群组隔离、敏感信息过滤、审计日志,一个都不能少。
3. 不要追求完美,先跑起来
第一版丑得一塌糊涂,但上线当天就有人用了。后面的优化都是在实际使用中迭代出来的。
4. 大模型选对很重要
我试过 GPT、Claude、国产模型,最后主力用 Claude(Opus 推理强、Haiku 性价比高)。关键是找一个稳定的 API 渠道——我用的 ofox.ai,一个 API 能切换 50 多个模型,国内加速访问,省了很多折腾。
最后问大家一个问题: 你在工作中有没有想过用 AI 替代/辅助某个重复性岗位?欢迎在评论区聊聊你的想法,或者你踩过的坑。
如果这篇文章对你有帮助,点个赞👍 我后面会写一篇手把手搭建教程,从零开始教你搞一个自己的 AI 同事。