我用 Langflow 拖拽式工作流搭了个全平台 AI 机器人

3 阅读4分钟

用可视化工作流驱动 QQ、微信、飞书、钉钉、Telegram、Discord 等多平台聊天机器人,无需写代码。


LangBot 是一个开源的即时通讯机器人平台,支持将 Langflow、n8n、Dify、FastGPT、Coze 等 AI 工作流引擎接入微信、QQ、飞书、钉钉、Telegram、Discord、Slack、LINE 等平台。本文展示如何使用 Langflow 的可视化工作流作为 LangBot 的对话引擎。

为什么选择这个方案

  • 真正的多平台:一套工作流同时支持 8+ 个即时通讯平台
    • 可视化编排:拖拽式设计对话流程,支持条件分支、多轮对话、外部 API 调用
    • 灵活的 AI 模型:支持 OpenAI、Claude、Gemini、DeepSeek 等多种 LLM 和本地模型
    • 完全开源:LangBot 和 Langflow 都是开源项目,可自由部署和定制

准备工作

  • Python 3.10+
    • Docker(推荐用于快速部署)
    • OpenAI API Key 或其他 LLM 服务的 API Key

第一步:部署 LangBot

使用 uvx 一键启动:

uvx langbot

首次运行会自动初始化并打开浏览器访问 http://127.0.0.1:5300。

LangBot 初始化页面

完成注册后登录,进入控制面板:

LangBot 控制面板

第二步:部署 Langflow

使用 Docker 快速部署:

docker run -d --name langflow -p 7860:7860 langflowai/langflow:latest

访问 http://localhost:7860 进入 Langflow:

Langflow 欢迎页面

第三步:创建 Langflow 工作流

在 Langflow 中选择 "Basic Prompting" 模板快速开始:

Langflow 模板选择

这个模板包含四个基础组件:

  • Chat Input:接收用户输入
    • Prompt:设置系统提示词
    • Language Model:调用 LLM 生成回复
    • Chat Output:返回结果

Langflow 工作流编辑器

配置 Language Model

点击 Language Model 组件,配置:

  1. Model Provider: 选择 OpenAI(或其他兼容的提供商如 SiliconFlow、New API)
    1. Model Name: 选择 gpt-4o-mini 或 deepseek-chat
    1. OpenAI API Key: 输入你的 API Key

Langflow OpenAI API Key 配置

提示:可以使用 OpenAI 兼容的 API 服务,如 SiliconFlow、New API 等,只需修改 Base URL 即可。

配置完成后保存工作流。

第四步:获取 Langflow API 信息

生成 API Key

在 Langflow 右上角:设置 → API Keys,进入 API Keys 页面:

Langflow API Keys 页面

点击 Create New Key:

Langflow 创建 API Key 对话框

生成并保存 API Key:

Langflow API Key 已生成

格式:sk-xxxxxxxxxxxxxxxxxxxxxxxx

获取 Flow ID

从流程编辑器的 URL 中获取:

http://localhost:7860/flow/{flow-id}

记录这个 flow-id

第五步:在 LangBot 中配置 Langflow

回到 LangBot 控制面板,进入 Pipelines 页面。

点击 ChatPipeline 进入编辑,在 AI 选项卡中:

LangBot Pipeline AI 选项卡

配置 Runner,选择 Langflow API:

LangBot Runner 下拉菜单

填写 Langflow 配置:

LangBot Langflow 配置表单

配置项说明:

  • Base URL: http://localhost:7860(本地部署)或 http://langflow:7860(Docker 网络)
    • API Key: Langflow 生成的 API Key
    • Flow ID: 之前记录的 Flow ID

LangBot Langflow 配置已填写

Docker 提示:如果两个服务都在容器中,确保它们在同一网络,Base URL 使用容器名称。

点击 Save 保存配置。

第六步:测试对话

在 Pipelines 页面点击 Debug Chat,进入调试聊天界面:

LangBot Debug Chat 界面

输入测试消息如 "Hello",查看 AI 回复:

LangBot 聊天测试成功

工作原理

  1. 用户在即时通讯平台发送消息
    1. LangBot 接收并传递给 Pipeline
    1. Pipeline 调用 Langflow API
    1. Langflow 执行工作流:接收输入 → 添加提示词 → 调用 LLM → 返回结果
    1. LangBot 将回复发送给用户

常见问题

Langflow 无法连接?

检查 Base URL。Docker 部署时确保容器在同一网络:

docker network create langbot_network
docker network connect langbot_network langflow
docker network connect langbot_network langbot

使用容器名称:http://langflow:7860

API 调用失败?

  • 确认 API Key 和 Flow ID 正确
    • 检查 Langflow 中的 Language Model 是否配置了有效的 LLM API Key

进阶玩法

Langflow 的强大之处在于可视化编排复杂的 AI 工作流:

  • 多轮对话记忆:添加 Memory 组件实现上下文理解
    • 条件分支:根据用户输入执行不同逻辑
    • 外部 API 集成:连接数据库、搜索引擎、第三方服务
    • 多 Agent 协作:让多个 LLM 模型协同工作
    • RAG 应用:集成向量数据库实现知识库问答

这些都可以通过拖拽完成,无需编写代码。

总结

通过 LangBot + Langflow 的组合,你可以快速构建功能强大的多平台 AI 聊天机器人。Langflow 提供可视化的工作流编排能力,LangBot 负责接入各种即时通讯平台,两者配合实现从工作流设计到多平台部署的完整闭环。

这个方案特别适合:

  • 需要在多个平台部署相同 AI 能力的场景
    • 希望快速迭代和测试不同对话流程的团队
    • 想要构建复杂 AI 应用但不想深入编码的开发者

相关资源


本文基于 LangBot 最新版本编写。LangBot 支持与 Dify、n8n、FastGPT、Coze 等多种 AI 平台集成,可根据需求选择最适合的工作流引擎。