放弃Dify!我们用LangGraph+LangFuse+RAGFlow搭建工业级AI系统,准确率飙升25%

322 阅读8分钟

一、为什么90%的AI应用都死在了Demo阶段?

去年我们接到一个需求:用AI自动生成建筑施工图设计说明。听起来很简单?调个GPT API,接入几个PDF文档,写个前端界面就完事了。

现实很骨感

  • 第一版Demo用了2周,效果还不错

  • 但真正投入使用后,问题接踵而至:

    • 生成内容不符合规范,设计师不敢用
    • 检索速度慢,用户等不起
    • 上下文超限,长对话直接崩溃
    • Prompt散落各处,改一次要重新部署

我们花了3个月重构,最终搭建了一套工业级AI系统。本文将完整分享:

  • 为什么选择 LangGraph 而不是 Dify
  • 如何用 RAGFlow 解决专业文档解析
  • ReAct 模式如何提升25%准确率
  • 上下文爆炸的解决方案
  • 完整的部署架构和踩坑经验

二、系统架构:前后端分离+独立AI服务

先看整体架构图:

为什么这样设计?

设计决策理由
Java + Python 分离Java处理业务逻辑和数据持久化,Python专注AI能力,各司其职
独立AI服务AI服务可独立扩容,不影响业务系统稳定性
SSE流式传输实时返回生成内容,用户体验更好
RAGFlow独立部署知识库管理与业务解耦,便于维护
Langfuse独立部署可插拔的 AI 应用监控、评测

三、核心技术选型:为什么不用Dify?

LangGraph vs Dify:代码控制 vs 低代码

很多人会问:Dify这么火,为什么不用?

Dify的优势:可视化拖拽,快速搭建标准RAG应用,适合非技术人员。

但我们的场景需要更强的控制力

需求DifyLangGraph
复杂控制流可视化编排难以表达逻辑循环、ReAct循环、条件重试代码方式天然支持
状态管理黑盒,难以调试TypedDict显式定义,透明可控
中断与恢复不支持interrupt机制支持人工审核
深度集成API调用与Spring Boot、RAGFlow深度集成

LangGraph核心优势示例

# 显式状态定义,每个字段清晰可控
class AgentState(TypedDict):
    messages: Annotated[List[BaseMessage], add_messages]
    project_info: str
    research_loop_count: int  # 循环计数器

graph = StateGraph(AgentState)
graph.add_node("researcher", researcher_node)
graph.add_node("generate", generate_node)

# 条件分支:根据状态动态决定下一步
graph.add_conditional_edges("researcher",
    lambda state: "tools" if state["messages"][-1].tool_calls else "generate")

我们的选择:技术团队主导,代码可维护性优先于低代码便捷性。


RAGFlow:Context Engine专业文档解析的最佳选择

自建RAG的痛点

  • 建筑规范PDF解析复杂:表格、公式、层级结构
  • 需要2-3个月开发文档解析、向量数据库、检索策略

RAGFlow的核心优势

维度自建RAGRAGFlow
文档解析需自研DeepDoc开箱即用
检索策略需调优多种策略可选

集成示例

from ragflow_sdk import RAGFlow

class RAGService:
    async def search(self, query: str, kb_ids: List[str]):
        results = await self.client.search(
            question=query,
            datasets=kb_ids,
            similarity_threshold=0.7,
            top_k=10
        )
        return results

实际效果:万条规范文档,检索延迟 < 1秒。


Langfuse:LLM应用全生命周期观察、测试

早期的痛点

  • Prompt散落在代码各处,难以统一管理
  • 修改Prompt需要重新部署
  • 无法追踪哪个版本的Prompt效果更好
  • 生产环境问题难以复现和调试
  • 缺少成本和性能监控

Langfuse的完整价值

Langfuse不仅仅是Prompt管理工具,它是LLM应用从开发、测试到生产的全生命周期监控和调试平台

功能模块能力价值
Prompt管理集中管理、版本控制、热更新迭代周期从1天→10分钟
调用追踪完整的调用链路、Token统计快速定位问题根因
性能监控延迟、成本、错误率实时监控生产环境可观测
评测体系自动化评测、人工标注持续优化模型效果
数据集管理测试用例、回归测试保证版本质量

使用示例

class PromptManager:
    def get_prompt(self, name: str, version: str = None):
        """获取指定版本的Prompt模板"""
        prompt = self.langfuse.get_prompt(name=name, version=version)
        return prompt.compile()

    def trace_generation(self, trace_id: strinputstr, output: str):
        """记录完整的生成过程用于追踪和分析"""
        return self.langfuse.trace(id=trace_id, input=input, output=output)

实际效果

  • 生产环境问题定位时间大幅降低
  • 通过调用追踪发现并优化了多个性能瓶颈

四、核心突破:ReAct模式提升25%准确率

多Agent工作流设计

业务场景:生成完整的施工图设计说明,需要信息收集、文档生成、合规审核的完整流程。

三个核心Agent

Agent职责工具
数据收集Agent查询规范库、案例库中的相关信息RAGFlow检索、知识库路由
文档编写Agent根据收集的信息生成设计说明模板渲染、格式转换
审核Agent校验生成内容是否符合规范规范条文比对、合规性检查

ReAct模式:从60%到85%的准确率提升

传统方案的问题

  • 一次性检索所有知识库 → 可能漏查关键信息,或查询过多无关内容
  • 上下文质量不高 → 文档生成质量差

ReAct模式:Agent在"思考-行动-观察"的循环中逐步完善信息收集。

用户需求: "生成大连某住宅项目的建筑设计说明"
    
    
┌─────────────────────────────────────────────────┐
  Reasoning: 大连属于寒冷地区,需要查询寒冷地区  
            住宅建筑的防火和保温规范             
  Action: 调用RAGFlow检索防火+保温规范知识库     
  Observation: 获取到8条相关规范条文             
├─────────────────────────────────────────────────┤
  Reasoning: 大连临海,需要查询沿海地区的        
            防腐蚀和抗风压设计要求               
  Action: 调用RAGFlow检索沿海建筑规范知识库      
  Observation: 获取到5条沿海地区特殊要求         
├─────────────────────────────────────────────────┤
  Reasoning: 还需要查询住宅的节能设计标准        
  Action: 调用RAGFlow检索节能规范知识库          
  Observation: 获取到4条节能设计标准             
├─────────────────────────────────────────────────┤
  Reasoning: 信息已足够,可以开始生成文档        
  Action: 将收集的信息传递给文档编写Agent        
└─────────────────────────────────────────────────┘

LangGraph实现示例

# 工具定义
researcher_tools = [retrieve_case, retrieve_standard, web_search]

# 构建工作流
workflow = StateGraph(AgentState)
workflow.add_node("researcher", researcher_node)
workflow.add_node("generate", generate_node)
workflow.add_node("auditor", auditor_node)

# ReAct循环控制:达到最大次数或无工具调用时退出
def researcher_condition(state):
    if state.get("research_loop_count"0) >= MAX_LOOPS:
        return "generate"
    return "tools" if state["messages"][-1].tool_calls else "generate"

workflow.add_conditional_edges("researcher", researcher_condition)
workflow.add_edge("researcher_tools""researcher")  # 工具结果返回推理
workflow.add_edge("generate""auditor")
app = workflow.compile()

核心特性

  • 状态管理AgentState 显式定义所有状态字段,便于调试
  • 循环控制:通过 research_loop_count 和条件判断控制循环次数
  • 条件边:根据消息内容和状态动态决定下一步

效果对比

指标一次性检索ReAct模式 + 审核
一次通过率60%90%
平均检索次数1次2.3次
上下文质量
生成时间5min10min

核心价值:用时间换空间,准确率提升25%,大幅减少人工修改成本。


五、生产部署:Docker Compose一键启动

多环境配置

# docker-compose-dev.yml 核心结构
services:
  web:
    build: ../../apps/web
    ports: ["3000:80"]

  backend:
    build: ../../apps/backend
    ports: ["4999:4999"]
    environment:
      - MYSQL_HOST=mysql
      - AGENT_URL=http://agent:8000

  agent:
    build: ../../apps/agent
    ports: ["8000:8000"]
    environment:
      - RAGFLOW_BASE_URL=${RAGFLOW_BASE_URL}
      - DASHSCOPE_API_KEY=${DASHSCOPE_API_KEY}
      - LANGFUSE_PUBLIC_KEY=${LANGFUSE_PUBLIC_KEY}

  mysql:
    image: mysql:8.0
    volumes: [mysql_data:/var/lib/mysql]

环境区分

  • docker-compose-dev.yml:开发环境,暴露调试端口
  • docker-compose-pro.yml:生产环境,安全配置
  • .env 文件:敏感配置统一管理

六、血泪教训:致命坑及解决方案

坑1:上下文爆炸导致LLM崩溃

问题现象

  • 检索10条规范文档,每条2000字 = 20K tokens
  • 加上对话历史、系统Prompt、输出空间 → 轻松超过128K限制
  • LLM报错或截断关键信息

4种解决方案

方案做法效果
1. 文档压缩提取关键句子,而非全文减少70% tokens
2. 滑动窗口只保留最近5轮对话控制历史增长
3. 动态Top-K根据剩余空间调整检索数量自适应调整

代码示例

# 文档摘要压缩
def compress_documents(docs, max_length=500):
    return [Document(
        page_content=extract_key_sentences(doc.page_content, max_length),
        metadata=doc.metadata
    ) for doc in docs]

# 滑动窗口管理对话历史
def get_recent_context(messages, max_history=5):
    return messages[-max_history * 2:]  # 每轮包含 user + assistant

# 动态调整检索数量
def adaptive_retrieve(query, max_tokens=8000):
    available = max_tokens - count_tokens(history) - 2000
    return rag_service.search(query, top_k=min(10, available // 500))

效果:上下文控制在32K以内,支持更长的多轮对话。


坑2:Prompt版本爆炸,管理混乱

问题:早期Prompt散落在代码各处,修改需要重新部署。

解决方案

  1. 所有Prompt模板迁移到Langfuse
  2. 代码中只保留Prompt名称引用
  3. 支持动态参数编译
# 重构前:硬编码在代码中
prompt = """你是一个建筑规范助手..."""

# 重构后:从 Langfuse 动态获取 + 参数编译
prompt_manager = PromptManager()
researcher_prompt = prompt_manager.get_prompt("langchain_researcher")
system_msg = researcher_prompt.compile(
    project_info=project_info,
    loop_count=loop_count,
    loop_guidance=loop_guidance
)

效果

  • Prompt动态更新,有序管理。
  • LLM 全过程可视化监测。
  • 基于评分系统,为数据闭环提供支撑。

七、展望

开源计划

  • 核心代码即将开源
  • 提供Docker一键部署
  • 完整的部署文档

附上项目效果图


写在最后

工程化比模型更重要,或者至少与模型同样重要。

我们是一家面向 AEC 行业的 AI 创业公司,产品方向仍在探索中。

如果你在做类似的AI应用工程化,或者对垂直行业AI落地感兴趣,欢迎评论区讨论或添加联系方式沟通。

微信:Damondut

觉得有用的话,点赞支持一下 👇


下一篇预告

《LLM应用中的记忆系统设计——从短期记忆到长期记忆的完整实践》

介绍 LLM 应用中,不同维度的记忆的落地实践。