DeepSeek本地部署后,为什么80%的企业RAG还是用不明白

0 阅读7分钟

"我们部署了DeepSeek,搭了RAG,但是没人用。"

这句话我今年已经听了不下十次。来自不同行业、不同规模的企业,但描述的场景几乎一模一样:花了大精力把DeepSeek本地部署好了,把知识库也建了,结果上线后发现使用率断崖式下跌——一开始大家图新鲜用几天,然后就没人用了。

问题出在哪里?是企业不需要RAG吗?还是RAG本身有问题?

都不是。问题出在一个很多人都忽略的环节上。

一、先说结论:80%的企业RAG,只做到了"检索",没做到"回答"

RAG(Retrieval-Augmented Generation,检索增强生成)的原理很简单:

  1. 用户提一个问题
  2. 系统从知识库中检索相关的文档片段
  3. 把检索到的内容喂给大模型
  4. 大模型基于这些内容生成回答

听起来很合理对吧?但问题就出在第2步和第3步之间。

传统的RAG系统,检索到相关文档后就直接扔给大模型了。但这里有一个致命的缺陷——大模型不知道"怎么用这些检索结果"。

举个例子。用户问:"我们公司的差旅报销标准是什么?"

传统RAG可能检索到三段文档:

  • 一段关于出差审批流程的规定
  • 一段关于住宿标准的规定(一线城市500元/晚)
  • 一段关于交通标准的规定(高铁二等座)

然后大模型拿到这三段文档,生成了一个"看起来正确"的回答。但问题是:

  • 这个员工是要去几线城市出差?回答里没有区分
  • 如果是自驾呢?文档里可能没有自驾的报销标准
  • 如果是跨国出差呢?标准又不一样了

你看,传统RAG只是"把相关的文档找到了",但并没有真正"解决用户的问题"。用户拿到一个笼统的回答后,还是得去翻原始文档确认细节——既然这样,为什么不一开始就直接翻文档呢?

这就是为什么用户用几天就不用了:因为RAG给的不是"答案",而是"一堆相关文档的摘要"。

二、更深层次的问题:传统RAG是一个"检索员",不是"问题解决者"

传统RAG的本质是一个"检索增强"系统——它的核心能力是"找到相关的内容"。但企业用户需要的不是一个检索员,而是一个问题解决者。

两者的区别在于:

检索员做的事情:你问一个问题,我帮你找到相关资料,你自己看。问题解决者做的事情:你问一个问题,我理解你的真实意图,找到相关信息,分析判断,给你一个可以直接用的答案。

企业场景中,用户的问题往往是复杂的、模糊的、需要上下文的。比如:

  • "我下周要去北京出差三天,大概能报多少?"——需要知道城市等级、天数、交通方式
  • "我们部门的Q3预算还剩多少?"——需要查多个系统的数据
  • "这个合同条款有什么风险?"——需要理解法律条文、对比历史案例

这些问题,传统RAG根本处理不了。因为它只会"检索",不会"推理"。

三、Agent RAG:从"检索"到"推理"

最近,行业内开始出现一种新的RAG范式——Agent RAG。它的核心思想是:在RAG的基础上,加入Agent的推理能力。

简单说,Agent RAG不只是"检索文档",而是:

  1. 理解用户的真实意图——用户问"报销标准",可能实际上想知道"我这次出差能报多少"
  2. 主动收集必要信息——如果缺少关键信息(比如出差城市),会主动追问
  3. 多步推理——可能需要查多个知识库文档、调用多个数据源、做多步逻辑推理
  4. 验证结果——生成答案后,检查答案是否完整、准确、可操作
  5. 反馈和优化——如果用户对答案不满意,能根据反馈进一步优化

这个过程中,每一步的执行状态对用户是可见的——用户可以看到AI正在做什么、到了哪一步、还需要什么信息。这种"步骤可视化"的设计,大大提升了用户的信任感和使用体验。

四、为什么Agent RAG之前没有人做

这么好的方案,为什么之前没人做?

原因很简单:技术门槛太高了。

Agent RAG需要几个关键能力:

  • 推理链(Chain of Thought)引擎——能把一个复杂问题拆解成多个推理步骤
  • 工具调用能力——能在推理过程中调用知识库、数据库、API等外部工具
  • 状态管理——能管理多步推理过程中的上下文和中间状态
  • 可观测性——能展示推理过程,让用户知道AI在做什么

这些能力,每一项都需要大量的工程投入。特别是推理链引擎,需要支持不同类型的推理节点(AI对话、条件判断、知识库查询、数据源查询等),并且能灵活编排——这不是一个简单的工程任务。

另外,还有一个很现实的问题:大部分AI团队是Python背景的,而企业的核心系统是Java的。要在企业环境中落地Agent RAG,需要解决技术栈融合的问题。

五、实际落地的建议

对于已经部署了DeepSeek、但RAG用不起来的企业,我有以下建议:

第一步,诊断问题。先搞清楚用户为什么不用。是因为答案不准确?还是答案不够具体?还是缺少追问和交互?不同的问题需要不同的解决方案。

第二步,评估方案。如果核心问题是"答案不够精准"和"缺少推理能力",那么Agent RAG是正确的方向。但如果核心问题是"知识库内容不全"或"文档质量差",那应该先补知识库,而不是升级RAG。

第三步,选择合适的技术方案。Agent RAG需要推理链引擎和工具调用能力。如果你的团队是Java技术栈,可以考虑基于Java的AI应用框架,这样能更好地和现有系统整合。

第四步,小范围验证。先选一个知识库质量好、用户痛点明确的知识领域,用Agent RAG做一个试点。验证效果后再推广到其他领域。

第五步,持续优化。Agent RAG的效果很大程度上取决于推理链的设计和知识库的质量。需要根据用户反馈持续调整优化。

六、RAG不是终点,是起点

说到底,RAG只是企业AI应用的一个起点。从"让AI能读到企业数据"(RAG),到"让AI能理解企业数据"(Agent RAG),再到"让AI能基于企业数据自主决策和执行"(完整Agent),这是一条逐步升级的路径。

很多企业卡在第一步——RAG搭好了但用不起来。这不是RAG的错,而是需要更进一步的工程能力来支撑。

山东向量空间人工智能有限公司的JBoltAI平台在V4.3版本中引入了Agent RAG能力,基于ReAct推理链模式,支持多步推理、工具调用和步骤可视化(chat-step-progress)。从实践来看,这种"可推理、可观测"的RAG模式,确实比传统RAG的使用率和用户满意度高出不少。

当然,技术方案只是手段,关键还是要回到用户需求本身——你的用户到底需要AI帮他解决什么问题?把这个想清楚了,选择合适的技术方案就是水到渠成的事。