2026 年了,飞书机器人还能更聪明吗?我开了一个,自带数字分身
Mifrog —— 开源的飞书 AI 助手。一句话调通 2500+ 飞书 API,自带可分级开启的「数字分身」。已经在生产环境跑了一段时间,今天把它放出来。
2026年,机器人最大的问题,已经不是功能少。 而是与工作相关的功能不多。
你想让它「把昨天 wiki 里那个产品方案的链接发给张三」,它一脸懵。你必须改写成精确指令:先复制 wiki 链接 → 再 @ 张三 → 再贴链接 → 再附一句话。或者你得记一组命令、几个表单字段。
工具是为人服务的,不是反过来。
我花了两周时间(用了不少VibeCoding)做了米蛙 —— 一个 主打「听懂人话」 的飞书 AI 助手。一句模糊的需求扔进去,它自己解析意图、补全实体、调用对应 API、并在边界外把决策权抛回给你。今天把它开源出来,看看能不能为大家解决一些问题。
它能做什么、怎么做到的、5 分钟怎么跑起来。
Mifrog 整体架构。一句飞书消息经过 6 层处理后回到用户面前;所有任务类型共享同一个 OpenClaw Dispatcher。
- GitHub:github.com/Voellin/mif…
- 不想自己部署,先看效果:mifrog.chat/demo/admin
01 先看一段对话:Mifrog 实际长什么样
上面这段对话里,机器人做对了一些 chatbot 不容易做的事:
- 需要知道我过往的会议纪要
- 需要知道我倾向使用的复盘报告格式
- 需要调用企业内部API来获取结果数据
02 数字分身:让 AI 替你做「我懂的事」
数字分身(Doppelganger)是 Mifrog 最近上线的 V1.1 功能。
分三层,按需开启。
Level 1 · 知识 —— 分身知道你在 wiki / 历史消息 / 自定义问答里说过什么。
同事问「你之前怎么说的」,你不在线时它能给一致回答,杜绝信息断点。
Level 2 · 语气 —— 从你日常聊天 / 文档里提取风格特征,模仿你的措辞和句式起草回复。
让消息听起来像「你说的」,而不是 AI 复读机。
Level 3 · 工作流 —— 在你授权范围内,常规事务自动闭环:简单审批先过初筛、周报草稿自动起一版、出差请假常规答复。
一旦遇到边界外的请求,立刻把决策权交还给你。
每一层都可以独立打开 / 关闭。
我自己只开了 Level 1+2。Level 3 留给个别已经熟悉的事务类型。
数据治理这块写得比较保守:
- 每个用户的记忆物理隔离在
storage/app/user_data/{user_id}/memory/ - A 用户的数据永远不会进 B 的 prompt
- 飞书 token 和 LLM key 落库前都加密
- 每条操作都进审计日志
- 所有层都可一键关停、清空
03 一句人话,怎么调通 2500+ 飞书 API
飞书开放平台 API 数量超过 2500 个 —— 文档、日历、消息、审批、知识库、视频会议、人事、电签......
给每个能力都手写 SDK 包装?几辈子写不完。
Mifrog 的策略不是「为每个功能写代码」,而是用 lark-cli 三层架构做了一个通用调用层:
lark-cli api POST /open-apis/im/v1/messages \
--query receive_id_type=user_id \
--data '{"receive_id":"ou_xxx", "msg_type":"text", ...}'
任何飞书 endpoint 都能这样调。LLM做的事,是把「把昨天的产品方案发给张三」翻译成上面那条命令。
这套架构最大的好处是 —— 飞书发新 API 时不需要改框架代码。
另外,官方CLI是基于个人用户授权使用的,每个用户需要单独安装配置。米蛙后台将每个用户的授权信息进行隔离,改造了lark-cli的授权调用路径。从而实现IT管理员单点部署,企业内所有员工都可授权使用的场景。
04 越用越懂你:per-user 长期记忆
记忆系统跟市面上大多数产品的区别,在 per-user 持久化 + 物理隔离。
每个用户独立目录,session 之外的稳定事实 / 偏好都写到磁盘上跨对话留存。
下一次自动注入到 prompt。
但不是 prompt engineering。
而是它把这些偏好当成你的稳定属性记下来了。
05 架构上的两个取舍
回到开头那张架构图,有两个设计选择单独说一下。
第一,所有任务类型共享同一个 Dispatcher。
日历、文档、消息、审批、数字分身...... 不管什么类型,都走同一个范式:
LLM 提参 → 技能匹配 → 出站调用 → 结果回写
新加一个能力 = 写一个 YAML + 一段技能函数。不需要改主流程。是一个 通用任务执行架构。
第二,LLM 层是多供应商热切换。
OpenAI / Claude / 通义 / 混元 / DeepSeek 都接进来了,同一套 prompt 协议。
哪家便宜、哪家对中文更友好、哪家延迟低 —— 配置文件里改一行就行。
异步链路用 Laravel Queue Worker + Supervisor 跑 N 个并发。
最常见的 P0 风险是 worker 卡死或 LLM 配额耗尽 —— 两类都有降级方案。
06 5 分钟跑起来
路线 A:自部署(推荐)
飞书Step-by-step配置介绍: vcno26d3qz3w.feishu.cn/docx/OSiGdC…
git clone https://github.com/Voellin/mifrog.chat.git
cd mifrog.chat
composer install
cp .env.example .env
# 编辑 .env,填三类配置:
# 1. 数据库(MySQL 8)
# 2. 飞书 App Credentials(飞书开放平台拿)
# 3. LLM Key(任一家:OpenAI / 通义 / DeepSeek ...)
php artisan key:generate
php artisan migrate --seed
# 起 queue worker(生产挂 Supervisor,仓库 deploy/ 自带模板)
php artisan queue:work database --queue=default --sleep=1 --tries=2 --timeout=360
# 暴露 webhook 给飞书
php artisan serve
路线 B:直接看效果
不想本地跑就直接看:
- 主站:mifrog.chat/
- 全功能 demo 后台:mifrog.chat/demo/admin
demo 后台是一个虚构组织的所有数据 —— 技能、记忆、审计、数字分身、操作日志。刷新即恢复初始状态,放心点。
来玩 · 提反馈
| 想干嘛 | 入口 |
|---|---|
| 自己部署、改代码、提 PR | github.com/Voellin/mif… |
| 先看效果再决定要不要装 | mifrog.chat/demo/admin |
| 看产品介绍 / 路线图 | mifrog.chat |
试用过程里碰到坑、有想法、或者想跟我吵架,加我微信聊:
扫码加微信,备注「Mifrog」即可。问题、PR 思路、吐槽都欢迎
如果这篇文章对你有帮助,欢迎点赞、收藏、关注 ✨
—— 这是给开源项目最低成本的鼓励,也会让我下一个 V1.x 路线图来得更快一点 🤝