大模型

82 阅读4分钟

RAG技术定义

AG(Retrieval-Augmented Generation,检索增强生成) 是一种将信息检索文本生成相结合的技术,通过实时从外部知识库中检索相关文档,增强大语言模型(LLM)的生成准确性和事实性。其核心价值在于解决LLM的三大痛点:

  • 知识固化:预训练数据无法实时更新
  • 幻觉问题:生成内容缺乏事实依据
  • 领域局限:难以直接处理专业领域问题

典型应用场景

  • 智能客服(如阿里小蜜日均处理千万级问答)
  • 法律/医疗领域专业问答
  • 企业知识库增强(如微软将RAG集成到Copilot)

RAG模型结合了语言模型和信息检索模型,当模型需要生成文本的时候,会先从一个庞大的文档集合中检索出先关的信息,然后利用这些检索到的信息来指导文本的生成,从而提高预测的质量和准确性。

其中检索、利用、生成是RAG的关键部分

rag流程

RAG 的关键思想是**“先检索,再生成”**。

流程分三步:

Embedding(向量化)

将知识库中的文档或文本切片,生成向量(Embedding)。

用户问题也向量化。

Retrieval(检索)

在向量数据库中找到与用户问题最相似的内容(Top-K)。

也可以结合传统数据库过滤条件。

Generation(生成)

将检索到的文档 + 用户问题一起输入大模型。

模型生成答案,基于真实知识,而不是凭空猜测。

image.png

接下来,我们进一步了解 RAG 的优势。

以下为 RAG 的具体优势:

1.外部知识的利用:RAG 模型可以有效地利用外部知识库,它可以引用大量的信息,以提供更深入、准确且有价值的答案,这提高了生成文本的可靠性。

2.数据更新及时性:RAG 模型具备检索库的更新机制,可以实现知识的即时更新,无需重新训练模型。说明 RAG 模型可以提供与最新信息相关的回答,高度适配要求及时性的应用。

3.回复具有解释性:由于 RAG 模型的答案直接来自检索库,它的回复具有很强的可解释性,减少大模型的幻觉。用户可以核实答案的准确性,从信息来源中获取支持。

4.高度定制能力:RAG 模型可以根据特定领域的知识库和 prompt 进行定制,使其快速具备该领域的能力。说明 RAG 模型广泛适用于的领域和应用,比如虚拟伴侣、虚拟宠物等应用。

5.安全和隐私管理:RAG 模型可以通过限制知识库的权限来实现安全控制,确保敏感信息不被泄露,提高了数据安全性。

6.减少训练成本:RAG 模型在数据上具有很强的可拓展性,可以将大量数据直接更新到知识库,以实现模型的知识更新。这一过程的实现不需要重新训练模型,更经济实惠

MCP

MCP(Model Context Protocol)

MCP 是一个开放协议,目标是“Type-C 化”AI 接入生态。

特点:

  • 不依赖某个模型平台,统一标准。
  • 建立模型与服务之间的通用上下文交换机制。
  • 支持多步任务、状态保持、权限控制。

优势:

  • 将服务按层次抽象:描述、能力、限制。
  • Client(Agent)根据协议自行组合能力,完成任务。
  • 构建生态后,不同服务之间可以互操作,AI 自动化能力大大增强。

Function Call 是模型调用外部函数的能力,解决的是“如何执行一段具体逻辑”;而 MCP 是一个完整的插件协议,解决的是“模型如何发现、管理、组合和调用工具”。

Function Call 是能力,MCP 是生态;Function Call 是单点执行,MCP是持续的双向交互;Function Call 没有会话管理和事件,MCP 则是一个完整协议。

大模型 Agent 实现的核心是一套“循环推理-行动”状态机。用户请求进入后,LLM 先进行任务规划和意图识别,再选择工具,外部执行器执行工具并返回 Observation,Agent 将 Observation 作为下一轮 Prompt 的部分输入,LLM 再根据新状态决定下一步 Action,循环进行直到达成目标。期间所有上下文由 Memory 系统和对话状态维护。

服务厂商提供的mcp比较多,很多其实我们不需要,如何导入只需要的,nacos3.0提供了这种能力。

image.png

image.png

AI agetn

image.png

image.png

image.png

引用

作者:百度Geek说
链接:juejin.cn/post/734577…
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。