RAG 为什么总是“看起来能用,实际不好用”?

0 阅读8分钟

RAG 真正让人头疼的地方,从来不是“搭不起来”

如果你已经做过一段时间 RAG,大概率会有一种非常熟悉的感觉:

系统是能跑的,流程也是完整的,embedding 用的也不差,向量库、召回、rerank 该有的都有,但整体效果始终差点意思。

 

有时候是召回的内容看起来“擦边”,

有时候是答案明明就在文档里,模型却像没看到,

还有时候,模型引用了一堆内容,但就是没真正解决用户的问题。

 

很多人第一反应是换 embedding 模型、加 reranker、堆上下文窗口,甚至怀疑是不是模型本身太弱。但在真实项目里,我越来越确定一件事:RAG 的问题,绝大多数并不出在模型上,而是出在文档切分上。

 

切分这件事,太容易被低估了。

它看起来不像模型那么“高大上”,甚至很多教程里一笔带过,但它却决定了 RAG 系统能不能真正理解你的知识。

 

一个非常现实的事实:RAG 本质上是“先切碎,再找回”

在讨论切分策略之前,有必要先把 RAG 的工作方式说清楚。

 

不管你的 RAG 架构多复杂,本质流程都绕不开这几步:

  • 原始文档 → 切分成 chunk → embedding → 相似度搜索 → 拼上下文 → 交给大模型生成答案。

 

也就是说,从模型的视角来看,它从来没有见过完整文档,它看到的永远只是你提前切好的碎片。

 

这件事如果你不刻意去想,很容易忽略。但一旦你意识到这一点,很多 RAG 的“怪现象”就说得通了。

 

模型答不上来,有可能不是因为模型不懂,而是因为你切出来的 chunk,本身就无法支撑模型理解问题。

 

31.png

原始文档 → chunk → embedding → 检索 → 生成的整体流程示意图

 

为什么大多数 RAG 项目一开始都会“切错”

我见过太多团队,一开始做切分时,采用的都是一种非常“工程直觉”的方式:

按固定长度切,比如 500 token 一段,100 token overlap。

 

这种方式本身不能说错,它甚至是很多教程里的默认方案。但问题在于,它只考虑了模型的限制,却完全没有考虑内容本身的结构。

 

文档不是随机 token 的集合,而是有语义、有层次、有上下文依赖的。

 

当你用固定长度去切一个本来有结构的内容时,很容易出现几种情况:

  • 一句话被切成两半

  • 一个定义和它的解释被拆开

  • 一个流程的前因后果落在不同 chunk 里

 

这些 chunk 单独拿出来 embedding,看起来都“有点像”,但实际上都不完整。

 

切分做错时,RAG 会出现哪些典型症状

很多人并不知道自己的切分有问题,只是感觉 RAG 不太好用。这里我总结几个非常典型的症状,你可以对照看看自己有没有遇到过。

 

最常见的一种情况是:召回的 chunk 看起来都相关,但没有一个真正有用。

你点开看每一条,发现关键词都对,但拼不出完整答案。

 

还有一种情况是:模型引用了文档,但结论明显不对。

你回头去查原文,发现关键条件刚好被切到了另一个 chunk 里。

 

更隐蔽的一种,是系统在小样本测试时表现还行,一到真实用户场景就开始翻车。

这是因为真实用户的问题,往往比你测试时想得更复杂,对上下文依赖更强。

 

这些问题,很少是 embedding 模型的问题,几乎都是切分阶段就已经埋下了雷。

 

32.png 错误切分导致关键信息分离的示意图

 

一个核心认知:chunk 不是“越小越好”

很多人在意识到切分重要之后,会走向另一个极端:

既然切分有问题,那我就切得更细。

 

这是一个非常自然的反应,但在 RAG 里,chunk 过小同样是灾难。

 

chunk 太小,意味着每一段包含的语义信息非常有限。embedding 虽然能抓住关键词相似度,但却丢失了“为什么”“在什么条件下”“有什么限制”这些关键信息。

 

结果就是:

  • 召回数量上来了,噪声也上来了。

  • 模型看到了一堆“相关但不完整”的碎片,只能靠自己猜。

 

这也是为什么你会看到一些 RAG 系统,召回结果看起来很多,但回答质量反而下降了。

 

真正有用的切分,必须尊重“语义完整性”

在我看来,好的切分策略,核心只有一个原则:

一个 chunk 本身,应该是“可以被人单独读懂的”。

 

这句话听起来很朴素,但真正做到并不容易。

 

什么叫“单独读懂”?

不是语法完整,而是语义完整。

读完这一段,你至少能知道它在讲什么、解决什么问题、有哪些前提。

 

这意味着,切分时你必须开始关心文档结构,而不是只看 token 数。

 

不同类型文档,切分策略应该完全不同

一个非常常见的错误,是用同一种切分方式处理所有文档。

 

技术文档、产品说明、客服 FAQ、法律条款,这些内容的结构差异非常大,如果一刀切,效果几乎一定不好。

 

技术文档往往有明确的标题层级,非常适合按小节切分;

客服 FAQ 通常是一问一答,天然就是 chunk;

流程类文档,最好把一个完整流程放在同一段里;

而规范、条款类内容,则需要保留上下限制条件。

 

你越是尊重文档本身的表达方式,RAG 的效果越容易提升。

 

 

overlap 不是“保险”,用不好反而是噪声源

很多教程都会建议加 overlap,看起来很合理:

前后多留一点上下文,避免信息被切断。

 

但在真实项目里,overlap 用不好,反而会引入大量冗余。

 

尤其是在 chunk 已经比较小的情况下,再加大量 overlap,等于在向量库里反复存储相似内容。

结果就是:相似度搜索时,返回一堆几乎一模一样的 chunk。

 

模型看到这些内容,并不会更清楚,反而更混乱。

 

我的经验是,overlap 只在“语义边界不清晰”的情况下有意义,而不是作为默认配置。

 

一个容易被忽略的问题:切分直接影响 rerank 的上限

很多人会把希望寄托在 reranker 上,觉得只要 rerank 足够强,就能弥补前面的不足。

 

但现实是,rerank 只能在你提供的候选集合里做选择。

如果切分阶段已经把语义切碎了,rerank 再强,也选不出完整答案。

 

你可以把 rerank 理解成一个“精修工具”,而不是“救命工具”。

 

ChatGPT Image 2026年1月21日 21_40_04.png

切分质量对召回与 rerank 效果的影响示意图

 

一个实用的切分思路:先人为理解,再让模型理解

在很多项目里,我会建议团队先做一件“看起来很笨”的事:

随机抽几篇文档,手工切一版。

 

不是为了最终使用,而是为了建立对“什么样的 chunk 是有用的”的直觉。

 

当你自己能接受把某一段单独交给别人阅读时,它大概率也适合作为 RAG 的最小知识单元。

 

等这个感觉建立起来,再去用规则或者模型自动化,效果会好很多。

 

在验证切分策略是否合理时,先通过在线方式快速尝试不同切分方案,对比召回结果和生成效果,往往比一开始就全量入库更省时间。像 LLaMA-Factory online 这类工具,在这个阶段能明显降低试错成本。

 

如何判断你的切分是不是在“拖后腿”

这里有一个非常实用的小测试方法。

 

找几个你非常确定答案就在文档里的问题,让 RAG 系统只返回检索结果,不生成答案。

然后你自己去看这些 chunk:

如果你作为人,读完这些内容,依然很难回答问题,那问题基本就不在模型。

 

这个方法简单粗暴,但几乎百试百灵。

 

总结:切分不是细节,而是 RAG 的地基

很多团队在做 RAG 时,把 80% 的精力放在模型、参数、架构上,却只花 20% 的精力在切分上。

但现实往往正好相反:切分这种“看起来很基础”的工作,决定了 RAG 能走多远。

 

当你真正把切分当成一个需要反复打磨的工程问题,而不是一次性配置,你会发现 RAG 的很多“玄学问题”,其实都有迹可循。

 

在这个过程中,能够让你快速验证切分效果、反复调整策略的工具,比追逐更大的模型更有价值。