为什么我不再相信RAG?实战RAG弊端揭秘

0 阅读5分钟

今年AI模型圈分成了两派。

一派以奥特曼、周鸿祎为代表,坚定地押注大语言模型。

另一派以杨立昆、李飞飞为代表,认为世界模型才是未来。

而关于RAG技术,也一样撕裂:

有人说RAG是最行之有效训练AI、降低幻觉的方案,是微调的平替。

有人说RAG本质就是个数据库,和AI根本没关系。

我自己?

说实话,我现在坚定地选择后者。

RAG的本质问题

RAG的逻辑是:通过向量匹配,找出和用户问题最相似的内容。

这个逻辑用在客服、FAQ场景,确实很合适。

用户问:"你们营业时间是几点?"

RAG检索到:"营业时间9:00-21:00"

完美。

但如果场景变了呢?

客户案例:测评方案

有次,我给一个做人才测评的机构做AI方案。

他们有一套心理测评系统,积累了十几年的专业内容,包括不同场景下的测评题库、评分标准、测评维度解读。

一开始我想得挺简单:把这些内容全部丢进RAG,让AI去检索匹配,这样就能快速给出测评建议了。

结果呢?

AI给出的建议总是有问题。

比如,看这张图。

图片

当人群1在场景1的情况下,哪些测评工具最适合?

显然是A、B,非常简单,那我是不是就可以直接把这个表放进RAG呢?ok,没问题。

那如果其实他们的方案是这样的呢?

图片

而且里面每一个工具名都特别长,这样的一张表根本就切不成一个完整的块,因为RAG的每一个块长度有上限。

当我做了什么样的尝试?

当你仔细观察这个表,其实就是二维表取交集对吧?那我们直接把每个场景,每类人群能用的工具列出来不就好了?

图片

那么以场景1和人群1拆解为例:

场景1适用工具:A、B、D

人群1适用工具:A、B、C、D

那么他们取交集是什么?

没错,是A、B、D。 这显然不正确。

所以有的时候,问题无法直接被简单的拆成子问题。

类似的问题还有很多。

示例一:书籍问答

给AI一本它没看过的小说,用RAG切块喂给它。

你问:"主角是怎么从小白成长为高手的?"

RAG会怎么做?

它会检索出所有跟"成长""高手"相关的段落。

但问题是:

主角的成长历程,是分散在各个章节的。

  • 第3章他遇到了挫折
  • 第7章他顿悟了某个道理
  • 第12章他突破了瓶颈
  • 第18章他终于成为高手

这些内容是有连贯性的,是有因果关系的。

但RAG切块之后,这种连贯性就丢了。

你得到的是一堆碎片化的信息,AI根本拼不出完整的成长轨迹。

示例二:法律咨询

某个法律条文,可能分散在不同的法条里。

比如判断一个合同是否有效,需要同时参考:

  • 合同法的相关条款
  • 民法典的补充说明
  • 最新的司法解释
  • 相关的判例

这些内容之间是有逻辑关系的,不是简单的堆砌。

但RAG怎么做?

它会把这些内容检索出来,然后交给AI。

问题是:AI能理解这些法条之间的优先级吗?能理解哪些是核心依据、哪些是补充说明吗?

很难。

最后AI给的建议,就是"看起来很专业,但实际上经不起推敲"。

我为什么不再相信RAG能帮助AI?

其实不是RAG不行,是我发现:

在很多场景下,RAG的代价太高了。

你需要:

  • 精心设计切块策略
  • 优化检索算法
  • 标注关联关系
  • 处理边界情况

投入这么多时间和精力,最后效果还是差强人意。

为什么?

因为RAG本质上就是个数据库增强检索,它不能让AI"理解"你的内容。

它只是让能"找到"相关内容。

找到和理解,是两回事。

所以我现在的选择是:

如果是简单的问答场景,RAG可以用。

但如果需要连贯性、需要推理、需要综合判断,甚至不如直接把内容一次性的丢到提示词里,当做上下文的一部分。

可能有人会说:"可是这样成本高啊!"

是的,确实高。

但你算过优化RAG的成本吗?

那些无休止的调试、那些难以根治的错误、那些让人抓狂的边界问题。

这些成本,大部分时候比所谓的滥用Token高出太多了,而未来Token的成本依然会再继续下降、下降、再下降。

写在最后

我不是说RAG没用。

我只是说:不要迷信某一种技术路线。

适合你的场景,才是最好的。

如果你也在纠结要不要用RAG,不妨先问自己三个问题:

  1. 你的业务场景,是简单问答还是复杂推理?
  2. 你的内容,是独立的知识点还是需要连贯性?
  3. 你愿意为优化RAG投入多少时间和精力?

想清楚这三个问题,你就知道该选哪条路了。

往内看,找到适合自己的技术路线,比盲目跟风重要得多。