今年AI模型圈分成了两派。
一派以奥特曼、周鸿祎为代表,坚定地押注大语言模型。
另一派以杨立昆、李飞飞为代表,认为世界模型才是未来。
而关于RAG技术,也一样撕裂:
有人说RAG是最行之有效训练AI、降低幻觉的方案,是微调的平替。
有人说RAG本质就是个数据库,和AI根本没关系。
我自己?
说实话,我现在坚定地选择后者。
RAG的本质问题
RAG的逻辑是:通过向量匹配,找出和用户问题最相似的内容。
这个逻辑用在客服、FAQ场景,确实很合适。
用户问:"你们营业时间是几点?"
RAG检索到:"营业时间9:00-21:00"
完美。
但如果场景变了呢?
客户案例:测评方案
有次,我给一个做人才测评的机构做AI方案。
他们有一套心理测评系统,积累了十几年的专业内容,包括不同场景下的测评题库、评分标准、测评维度解读。
一开始我想得挺简单:把这些内容全部丢进RAG,让AI去检索匹配,这样就能快速给出测评建议了。
结果呢?
AI给出的建议总是有问题。
比如,看这张图。
当人群1在场景1的情况下,哪些测评工具最适合?
显然是A、B,非常简单,那我是不是就可以直接把这个表放进RAG呢?ok,没问题。
那如果其实他们的方案是这样的呢?
而且里面每一个工具名都特别长,这样的一张表根本就切不成一个完整的块,因为RAG的每一个块长度有上限。
当我做了什么样的尝试?
当你仔细观察这个表,其实就是二维表取交集对吧?那我们直接把每个场景,每类人群能用的工具列出来不就好了?
那么以场景1和人群1拆解为例:
场景1适用工具:A、B、D
人群1适用工具:A、B、C、D
那么他们取交集是什么?
没错,是A、B、D。 这显然不正确。
所以有的时候,问题无法直接被简单的拆成子问题。
类似的问题还有很多。
示例一:书籍问答
给AI一本它没看过的小说,用RAG切块喂给它。
你问:"主角是怎么从小白成长为高手的?"
RAG会怎么做?
它会检索出所有跟"成长""高手"相关的段落。
但问题是:
主角的成长历程,是分散在各个章节的。
- 第3章他遇到了挫折
- 第7章他顿悟了某个道理
- 第12章他突破了瓶颈
- 第18章他终于成为高手
这些内容是有连贯性的,是有因果关系的。
但RAG切块之后,这种连贯性就丢了。
你得到的是一堆碎片化的信息,AI根本拼不出完整的成长轨迹。
示例二:法律咨询
某个法律条文,可能分散在不同的法条里。
比如判断一个合同是否有效,需要同时参考:
- 合同法的相关条款
- 民法典的补充说明
- 最新的司法解释
- 相关的判例
这些内容之间是有逻辑关系的,不是简单的堆砌。
但RAG怎么做?
它会把这些内容检索出来,然后交给AI。
问题是:AI能理解这些法条之间的优先级吗?能理解哪些是核心依据、哪些是补充说明吗?
很难。
最后AI给的建议,就是"看起来很专业,但实际上经不起推敲"。
我为什么不再相信RAG能帮助AI?
其实不是RAG不行,是我发现:
在很多场景下,RAG的代价太高了。
你需要:
- 精心设计切块策略
- 优化检索算法
- 标注关联关系
- 处理边界情况
投入这么多时间和精力,最后效果还是差强人意。
为什么?
因为RAG本质上就是个数据库增强检索,它不能让AI"理解"你的内容。
它只是让能"找到"相关内容。
找到和理解,是两回事。
所以我现在的选择是:
如果是简单的问答场景,RAG可以用。
但如果需要连贯性、需要推理、需要综合判断,甚至不如直接把内容一次性的丢到提示词里,当做上下文的一部分。
可能有人会说:"可是这样成本高啊!"
是的,确实高。
但你算过优化RAG的成本吗?
那些无休止的调试、那些难以根治的错误、那些让人抓狂的边界问题。
这些成本,大部分时候比所谓的滥用Token高出太多了,而未来Token的成本依然会再继续下降、下降、再下降。
写在最后
我不是说RAG没用。
我只是说:不要迷信某一种技术路线。
适合你的场景,才是最好的。
如果你也在纠结要不要用RAG,不妨先问自己三个问题:
- 你的业务场景,是简单问答还是复杂推理?
- 你的内容,是独立的知识点还是需要连贯性?
- 你愿意为优化RAG投入多少时间和精力?
想清楚这三个问题,你就知道该选哪条路了。
往内看,找到适合自己的技术路线,比盲目跟风重要得多。