基于 Claude Agent SDK,做了一个能接钉钉/企微/飞书的开源 AI Agent 框架

0 阅读8分钟

开源了一个 AI Agent 框架,专门解决国内企业落地的最后一公里

最近把我们内部用了半年的 AI Agent 框架开源了,叫 OpenPollen

先说清楚它是什么:一个开源的多渠道 AI Agent 框架,能把 AI 智能体直接接入钉钉、企业微信、飞书、QQ 等国内主流 IM 平台。

可能有人会问:这类框架不是已经很多了吗?OpenClaw、Dify、FastGPT……市面上一搜一大把。

对,框架确实不少。但真正能在国内企业环境里跑起来的,几乎没有。


先说一个真实的痛点

我们团队之前想做一件很简单的事:在钉钉群里接一个 AI 助手,让它能帮团队做代码 Review、回答技术问题、分析数据。

听起来不复杂对吧?

然后我们试了市面上的方案:

方案一:用 OpenClaw 之类的框架

挺强的,架构也漂亮。但有个致命问题——它主要支持 Slack 和 Discord。钉钉?企业微信?飞书?对不起,要么不支持,要么只有个半成品的 webhook 集成,消息丢失、格式错乱是家常便饭。

方案二:用 Dify / FastGPT 之类的低代码平台

能快速搭个聊天机器人,但本质上只是个问答系统。你让它读代码仓库?让它执行命令?让它调用内部 API?做不到。它不是 Agent,它是个带了知识库的聊天窗口。

方案三:自己从零写一个

钉钉 SDK 文档啃了三天,WebSocket 连接调了两天,消息格式适配又花了一周。光是把通道打通就已经精疲力竭了,还没开始做 Agent 逻辑呢。

然后你再想接企业微信、飞书……每个平台再来一遍?


所以我们做了什么

我们换了个思路:不从零造 Agent 引擎,而是站在最好的 Agent 引擎上面,专注解决"接入"和"落地"的问题。

这个"最好的 Agent 引擎"是什么?

Claude Agent SDK。

可能有人会挑战这个判断,但我可以说得很直接:

在 AI Agent 编排这件事上,Claude Code 团队的工程能力,目前是行业第一梯队。不是因为 Claude 模型最强(虽然确实很强),而是因为他们在上下文管理、任务编排、工具调用这些"脏活累活"上积累最深。

我在之前一篇文章里论证过:同样的 GLM-4.7 模型,放在智谱自己的 CLI 工具里只能发挥七八成,接入 Claude Code 之后效果明显提升一个台阶。

模型没变,工具变了,效果就变了。

OpenPollen 做的事情,就是把 Claude Agent SDK 这个顶级引擎,和国内企业真实需要的接入渠道、国产模型、安全要求结合起来。


九大渠道,原生接入

这是 OpenPollen 最核心的差异化。

不是 webhook 凑合,不是转发消息,是用各平台官方 SDK 做的原生集成

渠道接入方式状态
钉钉Stream API 长连接✅ 稳定
企业微信官方 SDK✅ 稳定
飞书官方 SDK✅ 稳定
QQ官方开放平台✅ 稳定
TelegramBot API + 代理支持✅ 稳定
SlackSocket Mode✅ 稳定
DiscordDiscord.js✅ 稳定
EmailIMAP/SMTP✅ 稳定
WebChat内置 Web UI✅ 稳定

什么概念?

你的 AI Agent 写一次,同时在钉钉群、企业微信群、飞书群里响应。不需要为每个平台写适配代码。

一个配置文件,搞定所有渠道:

{
  "channels": {
    "dingtalk": {
      "appKey": "你的钉钉AppKey",
      "appSecret": "你的钉钉AppSecret"
    },
    "wecom": {
      "corpId": "你的企业微信ID",
      "agentId": "应用ID"
    }
  }
}

国产模型全覆盖

OpenPollen 不绑定任何一家模型厂商。

目前支持的模型:

  • Anthropic Claude — Sonnet、Haiku、Opus 全系列
  • Kimi (月之暗面) — K2.5 等
  • GLM (智谱) — GLM-4.7 等
  • 千问 (通义) — Qwen 系列
  • MiniMax — 全系列
  • DeepSeek — 全系列
  • Ollama — 本地部署任意开源模型(Qwen3-Coder、Llama 等)

而且,关键来了:

所有这些模型,在 OpenPollen 里走的都是 Claude Agent SDK 的编排引擎。

什么意思?

就是说 Kimi K2.5 在 OpenPollen 里,享受的是和 Claude 同级别的任务编排、上下文管理、工具调用策略。

之前那篇文章的结论在这里同样适用:选对工具(编排引擎),比选对模型更重要。

国产模型 + 顶级编排 = 性价比最优解。


SKILL.md:一个 Markdown 文件就是一个技能

Agent 的能力不应该靠写代码来扩展。

OpenPollen 采用了 SKILL.md 开放标准(来自 agentskills.io),一个 Markdown 文件就是一个完整的技能定义:

---
name: code-review
description: 自动代码审查,检查安全性、性能和代码规范
allowed-tools: Read, Grep, Glob
---

# 代码审查

你是一个资深代码审查专家。

## 审查范围
- 安全漏洞(SQL注入、XSS等)
- 性能问题
- 代码规范
- 潜在 Bug

## 输出格式
按严重程度排序,给出具体的修改建议和代码示例。

就这么简单。

  • 不需要写 Python/TypeScript 代码
  • 不需要理解框架 API
  • allowed-tools 控制技能能用什么工具,安全可控
  • 写完放到 skills/ 目录下,自动生效

会写 Markdown 就会写技能。

我们内置了两个示例技能:

  • code-review — 代码审查(安全、性能、规范全覆盖)
  • data-analyst — 数据分析(CSV/Excel 分析 + 可视化)

通过 CLI 管理技能也很方便:

openpollen skill list                    # 查看已安装技能
openpollen skill install code-review     # 从市场安装
openpollen skill create my-skill         # 创建自己的技能

自托管、数据不出服务器

这一点对国内企业来说非常重要。

OpenPollen 是完全自托管的:

  • 所有代码在你自己的服务器上运行
  • 会话数据存在本地 SQLite(~/.openpollen/memory.db
  • 记忆文件存在本地 Markdown(~/.openpollen/memory/
  • 没有任何隐式的云端调用
  • 配合 Ollama 本地模型,可以做到完全离线运行

你的代码、你的对话、你的企业数据,一个字节都不会上传到我们的服务器

这不是一句口号。你可以去翻源码验证。


三分钟跑起来

说了这么多,实际跑起来有多快?

# 安装
npm install -g openpollen

# 初始化(交互式向导,会引导你配置模型和渠道)
openpollen init

# 启动
openpollen start

三条命令,你的 AI Agent 就跑起来了。

如果你只是想先试试效果,用内置的 WebChat 就行,不需要配置任何 IM 平台。打开浏览器访问 http://localhost:3001,直接对话。


和同类项目的对比

说点大实话,直接比较:

能力OpenPollenOpenClawDifyFastGPT
Agent 能力(读写文件、执行命令)
钉钉/企业微信/飞书原生接入部分部分
国产模型支持✅ 全覆盖有限
Claude Agent SDK 编排引擎
自托管可选可选
技能扩展SKILL.md (无代码)需写代码可视化可视化
持久记忆✅ 双后端有限
完全离线运行✅ (Ollama)

每个产品有自己的定位和擅长的场景。OpenPollen 的定位很明确:给国内企业和开发者提供一个能真正落地的 AI Agent 方案。


架构一览

如果你是技术人员,可能想了解底层设计:

  渠道层 (钉钉/飞书/企微/QQ/Telegram/Slack/Discord/Email/WebChat)
      │  统一消息接口
      ▼
  网关层 (HTTP/WebSocket, 会话管理, 认证, 路由)
      │
      ▼
  引擎层 (Claude Agent SDK, 技能执行, 工具调用)
      │
      ▼
  插件层 (4种插槽: channel / skill / provider / memory)
      │
      ▼
  存储层 (SQLite + Markdown 双后端持久记忆)

四种插件插槽意味着你可以:

  • 接入新的 IM 渠道(写一个 channel 插件)
  • 添加新的技能(写一个 SKILL.md)
  • 接入新的模型(写一个 provider 插件)
  • 换一个存储后端(写一个 memory 插件)

每一层都可以独立替换和扩展,互不影响。


谁适合用 OpenPollen?

  • 企业开发者:想在钉钉/企微/飞书里接一个 AI 助手,帮团队做代码审查、知识问答、数据分析
  • 独立开发者:想快速搭一个多渠道 AI Bot,不想处理各平台 SDK 的适配问题
  • 技术团队:需要一个可控、可审计、可自托管的 Agent 框架,拒绝把代码和数据交给第三方
  • AI 爱好者:想体验用 Claude Agent SDK 编排不同模型的效果,或者用 Ollama 在本地跑 Agent

开源协议和社区

  • 协议:Apache 2.0(商业友好,随便用)
  • 仓库github.com/tom-byte-sy…
  • 文档:中英双语,VitePress 搭建
  • Star 和 PR 都欢迎

项目还在早期阶段(v0.1.9),但核心功能已经稳定。我们团队自己天天在用,钉钉群里的 AI 助手就是跑在 OpenPollen 上的。

如果你试用后遇到问题,直接在 GitHub 提 Issue,我们会及时响应。


写在最后

做 OpenPollen 的初衷很简单:

我们自己需要一个 AI Agent 框架,能接钉钉、能用国产模型、数据不出服务器、扩展方便。

找了一圈发现没有趁手的,就自己做了一个。用了半年,觉得还不错,就开源出来。

不是要颠覆谁,就是解决一个实际问题:让 AI Agent 在国内企业环境里真正跑起来。

如果你也有类似的需求,试试 OpenPollen。三条命令就能跑起来,不满意随时删掉,不花一分钱。

npm install -g openpollen && openpollen init && openpollen start

GitHubgithub.com/tom-byte-sy…

标签:#开源 #AIAgent #智能体 #钉钉 #企业微信 #飞书 #ClaudeCode #国产模型 #Kimi #GLM #千问 #Ollama #自托管