2026 年了,飞书机器人还能更聪明吗?

19 阅读6分钟

2026 年了,飞书机器人还能更聪明吗?我开了一个,自带数字分身

Mifrog —— 开源的飞书 AI 助手。一句话调通 2500+ 飞书 API,自带可分级开启的「数字分身」。已经在生产环境跑了一段时间,今天把它放出来。


2026年,机器人最大的问题,已经不是功能少。 而是与工作相关的功能不多

你想让它「把昨天 wiki 里那个产品方案的链接发给张三」,它一脸懵。你必须改写成精确指令:先复制 wiki 链接 → 再 @ 张三 → 再贴链接 → 再附一句话。或者你得记一组命令、几个表单字段。

工具是为人服务的,不是反过来。

我花了两周时间(用了不少VibeCoding)做了米蛙 —— 一个 主打「听懂人话」 的飞书 AI 助手。一句模糊的需求扔进去,它自己解析意图、补全实体、调用对应 API、并在边界外把决策权抛回给你。今天把它开源出来,看看能不能为大家解决一些问题。

它能做什么、怎么做到的、5 分钟怎么跑起来。

01_architecture.png

Mifrog 整体架构。一句飞书消息经过 6 层处理后回到用户面前;所有任务类型共享同一个 OpenClaw Dispatcher。


01 先看一段对话:Mifrog 实际长什么样

chat2.png

上面这段对话里,机器人做对了一些 chatbot 不容易做的事

  1. 需要知道我过往的会议纪要
  2. 需要知道我倾向使用的复盘报告格式
  3. 需要调用企业内部API来获取结果数据

02 数字分身:让 AI 替你做「我懂的事」

02_doppelganger_levels.png

数字分身(Doppelganger)是 Mifrog 最近上线的 V1.1 功能。

分三层,按需开启。

Level 1 · 知识 —— 分身知道你在 wiki / 历史消息 / 自定义问答里说过什么。

同事问「你之前怎么说的」,你不在线时它能给一致回答,杜绝信息断点

Level 2 · 语气 —— 从你日常聊天 / 文档里提取风格特征,模仿你的措辞和句式起草回复。

让消息听起来像「你说的」,而不是 AI 复读机。

Level 3 · 工作流 —— 在你授权范围内,常规事务自动闭环:简单审批先过初筛、周报草稿自动起一版、出差请假常规答复。

一旦遇到边界外的请求,立刻把决策权交还给你

de.png


每一层都可以独立打开 / 关闭

我自己只开了 Level 1+2。Level 3 留给个别已经熟悉的事务类型。

数据治理这块写得比较保守

  • 每个用户的记忆物理隔离在 storage/app/user_data/{user_id}/memory/
  • A 用户的数据永远不会进 B 的 prompt
  • 飞书 token 和 LLM key 落库前都加密
  • 每条操作都进审计日志
  • 所有层都可一键关停、清空

03 一句人话,怎么调通 2500+ 飞书 API

llm.png 飞书开放平台 API 数量超过 2500 个 —— 文档、日历、消息、审批、知识库、视频会议、人事、电签......

给每个能力都手写 SDK 包装?几辈子写不完。

Mifrog 的策略不是「为每个功能写代码」,而是用 lark-cli 三层架构做了一个通用调用层:

lark-cli api POST /open-apis/im/v1/messages \
  --query receive_id_type=user_id \
  --data '{"receive_id":"ou_xxx", "msg_type":"text", ...}'

任何飞书 endpoint 都能这样调。LLM做的事,是把「把昨天的产品方案发给张三」翻译成上面那条命令。

这套架构最大的好处是 —— 飞书发新 API 时不需要改框架代码

另外,官方CLI是基于个人用户授权使用的,每个用户需要单独安装配置。米蛙后台将每个用户的授权信息进行隔离,改造了lark-cli的授权调用路径。从而实现IT管理员单点部署,企业内所有员工都可授权使用的场景


04 越用越懂你:per-user 长期记忆

2.png

记忆系统跟市面上大多数产品的区别,在 per-user 持久化 + 物理隔离

每个用户独立目录,session 之外的稳定事实 / 偏好都写到磁盘上跨对话留存。

下一次自动注入到 prompt。

但不是 prompt engineering。

而是它把这些偏好当成你的稳定属性记下来了。


05 架构上的两个取舍

回到开头那张架构图,有两个设计选择单独说一下。

第一,所有任务类型共享同一个 Dispatcher。

日历、文档、消息、审批、数字分身...... 不管什么类型,都走同一个范式:

LLM 提参 → 技能匹配 → 出站调用 → 结果回写

新加一个能力 = 写一个 YAML + 一段技能函数。不需要改主流程。是一个 通用任务执行架构

第二,LLM 层是多供应商热切换。

OpenAI / Claude / 通义 / 混元 / DeepSeek 都接进来了,同一套 prompt 协议

哪家便宜、哪家对中文更友好、哪家延迟低 —— 配置文件里改一行就行。

异步链路用 Laravel Queue Worker + Supervisor 跑 N 个并发。

最常见的 P0 风险是 worker 卡死或 LLM 配额耗尽 —— 两类都有降级方案。

model.png


06 5 分钟跑起来

路线 A:自部署(推荐)

飞书Step-by-step配置介绍: vcno26d3qz3w.feishu.cn/docx/OSiGdC…

git clone https://github.com/Voellin/mifrog.chat.git
cd mifrog.chat
composer install
cp .env.example .env

# 编辑 .env,填三类配置:
#   1. 数据库(MySQL 8)
#   2. 飞书 App Credentials(飞书开放平台拿)
#   3. LLM Key(任一家:OpenAI / 通义 / DeepSeek ...)

php artisan key:generate
php artisan migrate --seed

# 起 queue worker(生产挂 Supervisor,仓库 deploy/ 自带模板)
php artisan queue:work database --queue=default --sleep=1 --tries=2 --timeout=360

# 暴露 webhook 给飞书
php artisan serve

路线 B:直接看效果

不想本地跑就直接看:

em.jpg

demo 后台是一个虚构组织的所有数据 —— 技能、记忆、审计、数字分身、操作日志。刷新即恢复初始状态,放心点。


来玩 · 提反馈

想干嘛入口
自己部署、改代码、提 PRgithub.com/Voellin/mif…
先看效果再决定要不要装mifrog.chat/demo/admin
看产品介绍 / 路线图mifrog.chat

试用过程里碰到坑、有想法、或者想跟我吵架,加我微信聊

扫码加微信,备注「Mifrog」即可。问题、PR 思路、吐槽都欢迎


如果这篇文章对你有帮助,欢迎点赞、收藏、关注 ✨

—— 这是给开源项目最低成本的鼓励,也会让我下一个 V1.x 路线图来得更快一点 🤝