梁主任在办公室中翻看着黑8提供的文章,眉头微皱。虽然文章内容生动精彩,但他对其中提到的 OpenAI API 的功能还不够了解。于是,他决定和黑8进一步交流。
梁主任:黑8,这篇文章写得不错,但我对 OpenAI API 这个东西还不够了解。你能给我解释一下吗?
黑8:当然,主任。OpenAI API 是一个强大的人工智能模型,它可以帮助我们生成文本、理解语言、识别图像等。我们可以通过调用它的接口,向它提出问题或提交数据,然后它会根据我们的请求生成相应的内容或给出答案。
梁主任:这么厉害?能举个例子吗?
黑8:当然。比如,我可以使用 OpenAI API 来生成文章大纲、段落或完整的文章,就像我刚才提供的那篇一样。此外,我还可以上传照片并请求 API 分析其中的内容,比如画作的主题和风格。另外,我还可以向 API 提出问题并获得详细的解答,比如数学难题的解答。
梁主任听了,眼睛亮了起来。
梁主任:原来如此,这个东西确实很有用。看来我得多了解一下这个 OpenAI API,也许我们可以在革委会的工作中应用它。
黑8:是的,主任。OpenAI API 的应用范围非常广泛,只要我们善于发挥,就能为工作和生活带来很多便利和惊喜。
梁主任:谢谢你的解释,黑8。你对新技术的学习态度值得肯定,继续努力,为革委会的使命做出更多贡献。
黑8:谢谢主任的鼓励,我会继续努力的。
两人在办公室中的对话渐渐淡去,但梁主任的心中已经种下了一颗种子——去探索和应用新技术,为革委会的事业注入新的活力和动力。
1.什么是检索增强生成模型(RAG)
1.1 LLM固有的局限性
- LLM的知识不是实时的
- LLM可能不知道你的私有的领域/业务知识
1.2 检索增强生成
RAG(Retrieval Augmented Generation)通过检索的方法来增强生成模型的能力
[video(video-0TZXXneA-1709809291449)(type-csdn)(url-live.csdn.net/v/embed/368…)]
2. RAG系统基本搭建流程
搭建流程:
- 文档加载,并按一定条件切割成片段
- 将文件片段灌入检索引擎
- 封装检索接口
- 构建调用流程:查询-》检索-》提示词-》大语言模型-》回复
2.1 文档的加载和分割
# 安装 pdf 解析库
# !pip install pdfminer.six
from pdfminer.high_level import extract_pages
from pdfminer.layout import LTTextContainer
def extract_text_from_pdf(filename, page_numbers=None, min_line_length=1):
'''从 PDF 文件中(按指定页码)提取文字'''
paragraphs = []
buffer = ''
full_text = ''
# 提取全部文本
for i, page_layout in enumerate(extract_pages(filename)):
# 如果指定了页码范围,跳过范围外的页
if page_numbers is not None and i not in page_numbers:
continue
for element in page_layout:
if isinstance(element, LTTextContainer):
full_text += element.get_text() + '\n'
# 按空行分隔,将文本重新组织成段落
lines = full_text.split('\n')
for text in lines:
if len(text) >= min_line_length:
buffer += (' '+text) if not text.endswith('-') else text.strip('-')
elif buffer:
paragraphs.append(buffer)
buffer = ''
if buffer:
paragraphs.append(buffer)
return paragraphs
paragraphs = extract_text_from_pdf("data/llama2.pdf", min_line_length=10)
for para in paragraphs[:3]:
print(para+"\n")
2.2 检索引擎
# 安装 ES 客户端
!pip install elasticsearch7
# 安装NLTK(文本处理方法库)
!pip install nltk
from elasticsearch7 import Elasticsearch, helpers
from nltk.stem import PorterStemmer
from nltk.tokenize import word_tokenize
from nltk.corpus import stopwords
import nltk
import re
import os
import warnings
warnings.simplefilter("ignore") # 屏蔽 ES 的一些Warnings
'''
以下下载词根和词库有两种方法
1、如果能直接下载就用这种方法
2、如果不能自动下载就到官网手动下载
下载地址:https://www.nltk.org/nltk_data/
'''
# nltk.download('punkt') # 英文切词、词根、切句等方法
# nltk.download('stopwords') # 英文停用词库
# 指定 nltk 数据集路径 corpora tokenizers
nltk.data.path.append('./data/nltk_data')
下载包后的路径组织方式如下:
转换关键字
def to_keywords(input_string):
'''(英文)文本只保留关键字'''
# 使用正则表达式替换所有非字母数字的字符为空格
no_symbols = re.sub(r'[^a-zA-Z0-9\s]', ' ', input_string)
word_tokens = word_tokenize(no_symbols)
# 加载停用词表
stop_words = set(stopwords.words('english'))
ps = PorterStemmer()
# 去停用词,取词根
filtered_sentence = [ps.stem(w)
for w in word_tokens if not w.lower() in stop_words]
return ' '.join(filtered_sentence)
将文本灌入索引
# 1. 创建Elasticsearch连接
es = Elasticsearch(
hosts=['http://localhost:9200'], # 服务地址与端口
http_auth=("elastic", "123456"), # 用户名,密码
)
# 2. 定义索引名称
index_name = "demo_index_jacob"
# 3. 如果索引已存在,删除它(仅供演示,实际应用时不需要这步)
if es.indices.exists(index=index_name):
es.indices.delete(index=index_name)
# 4. 创建索引
es.indices.create(index=index_name)
# 5. 灌库指令
actions = [
{
"_index": index_name,
"_source": {
"keywords": to_keywords(para),
"text": para
}
}
for para in paragraphs
]
# 6. 文本灌库
helpers.bulk(es, actions)
实现关键字检索
def search(query_string, top_n=3):
# ES 的查询语言
search_query = {
"match": {
"keywords": to_keywords(query_string)
}
}
res = es.search(index=index_name, query=search_query, size=top_n)
return [hit["_source"]["text"] for hit in res["hits"]["hits"]]
results = search("how many parameters does llama 2 have?", 2)
for r in results:
print(r+"\n")
2.3 LLM接口封装
from openai import OpenAI
import os
# 加载环境变量
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv()) # 读取本地 .env 文件,里面定义了 OPENAI_API_KEY
client = OpenAI()
def get_completion(prompt, model="gpt-3.5-turbo"):
'''封装 openai 接口'''
messages = [{"role": "user", "content": prompt}]
response = client.chat.completions.create(
model=model,
messages=messages,
temperature=0, # 模型输出的随机性,0 表示随机性最小
)
return response.choices[0].message.content
2.4 Prompt模板
def build_prompt(prompt_template, **kwargs):
'''将 Prompt 模板赋值'''
prompt = prompt_template
for k, v in kwargs.items():
if isinstance(v, str):
val = v
elif isinstance(v, list) and all(isinstance(elem, str) for elem in v):
val = '\n'.join(v)
else:
val = str(v)
prompt = prompt.replace(f"__{k.upper()}__", val)
return prompt
prompt_template = """
你是一个问答机器人。
你的任务是根据下述给定的已知信息回答用户问题。
确保你的回复完全依据下述已知信息。不要编造答案。
如果下述已知信息不足以回答用户的问题,请直接回复"我无法回答您的问题"。
已知信息:
__INFO__
用户问:
__QUERY__
请用中文回答用户问题。
"""
2.5 RAG测试案例
user_query = "how many parameters does llama 2 have?"
# 1. 检索
search_results = search(user_query, 2)
# 2. 构建 Prompt
prompt = build_prompt(prompt_template, info=search_results, query=user_query)
print("===Prompt===")
print(prompt)
# 3. 调用 LLM
response = get_completion(prompt)
print("===回复===")
print(response)
2.6 关键字检索的局限性
同一个语义,用词不同,可能导致检索不到有效的结果
# user_query="Does llama 2 have a chat version?"
user_query = "Does llama 2 have a conversational variant?"
search_results = search(user_query, 2)
for res in search_results:
print(res+"\n")
3.向量检索
3.1 文本向量检索
- 将文本转成一组浮点数:每个下标 , 对应一个维度
- 整个数组对应一个 维空间的一个点,即文本向量又叫Embeddings
- 向量之间可以计算距离,距离远近对应语义相似度大小
文本向量是怎么得到
- 构建相关(正立)与不相关(负例)的句子对儿样本
- 训练双塔式模型,让正例间的距离小,负例间的距离大
www.sbert.ne:
'''余弦距离 -- 越大越相似'''
return dot(a, b)/(norm(a)*norm(b))
def l2(a, b):
'''欧式距离 -- 越小越相似'''
x = np.asarray(a)-np.asarray(b)
return norm(x)
def get_embeddings(texts, model="text-embedding-ada-002",dimensions=None):
'''封装 OpenAI 的 Embedding 模型接口'''
if model == "text-embedding-ada-002":
dimensions = None
if dimensions:
data = client.embeddings.create(input=texts, model=model, dimensions=dimensions).data
else:
data = client.embeddings.create(input=texts, model=model).data
return [x.embedding for x in data]
test_query = ["测试文本"]
vec = get_embeddings(test_query)[0]
print(vec[:10])
print(len(vec))
# query = "国际争端"
# 且能支持跨语言
query = "global conflicts"
documents = [
"联合国就苏丹达尔富尔地区大规模暴力事件发出警告",
"土耳其、芬兰、瑞典与北约代表将继续就瑞典“入约”问题进行谈判",
"日本岐阜市陆上自卫队射击场内发生枪击事件 3人受伤",
"国家游泳中心(水立方):恢复游泳、嬉水乐园等水上项目运营",
"我国首次在空间站开展舱外辐射生物学暴露实验",
]
query_vec = get_embeddings([query])[0]
doc_vecs = get_embeddings(documents)
print("Cosine distance:")
print(cos_sim(query_vec, query_vec))
for vec in doc_vecs:
print(cos_sim(query_vec, vec))
print("\nEuclidean distance:")
print(l2(query_vec, query_vec))
for vec in doc_vecs:
print(l2(query_vec, vec))
3.3 向量数据库
向量数据库,是专门为向量检索设计的中间件
!pip install chromadb -i https://pypi.tuna.tsinghua.edu.cn/simple
# 为了演示方便,我们只取两页(第一章)
paragraphs = extract_text_from_pdf("data/llama2.pdf", page_numbers=[2, 3], min_line_length=10)
import chromadb
from chromadb.config import Settings
class MyVectorDBConnector:
def __init__(self, collection_name, embedding_fn):
chroma_client = chromadb.Client(Settings(allow_reset=True))
# 为了演示,实际不需要每次 reset()
chroma_client.reset()
# 创建一个 collection
self.collection = chroma_client.get_or_create_collection(name=collection_name)
self.embedding_fn = embedding_fn
def add_documents(self, documents):
'''向 collection 中添加文档与向量'''
self.collection.add(
embeddings=self.embedding_fn(documents), # 每个文档的向量
documents=documents, # 文档的原文
ids=[f"id{i}" for i in range(len(documents))] # 每个文档的 id
)
def search(self, query, top_n):
'''检索向量数据库'''
results = self.collection.query(
query_embeddings=self.embedding_fn([query]),
n_results=top_n
)
return results
# 创建一个向量数据库对象
vector_db = MyVectorDBConnector("demo", get_embeddings)
# 向向量数据库中添加文档
vector_db.add_documents(paragraphs)
user_query = "Llama 2有多少参数"
results = vector_db.search(user_query, 2)
for para in results['documents'][0]:
print(para+"\n")
- 向量数据库的意义是快速的检索
- 向量数据库本身不生成向量,向量是由 Embedding 模型产生的
- 向量数据库与传统的关系型数据库是互补的,不是替代关系,在实际应用中根据实际需求经常同时使用
向量数据库服务
- FAISS: Meta 开源的向量检索引擎 github.com/facebookres…
- Pinecone: 商用向量数据库,只有云服务 www.pinecone.io/
- Milvus: 开源向量数据库,同时有云服务 milvus.io/
- Weaviate: 开源向量数据库,同时有云服务 weaviate.io/
- Qdrant: 开源向量数据库,同时有云服务 qdrant.tech/
- PGVector: Postgres 的开源向量检索引擎 github.com/pgvector/pg…
- RediSearch: Redis 的开源向量检索引擎 github.com/RediSearch/…
- ElasticSearch 也支持向量检索 www.elastic.co/enterprise-…
3.4、基于向量检索的 RAG
class RAG_Bot:
def __init__(self, vector_db, llm_api, n_results=2):
self.vector_db = vector_db
self.llm_api = llm_api
self.n_results = n_results
def chat(self, user_query):
# 1. 检索
search_results = self.vector_db.search(user_query, self.n_results)
# 2. 构建 Prompt
prompt = build_prompt(
prompt_template, info=search_results['documents'][0], query=user_query)
# 3. 调用 LLM
response = self.llm_api(prompt)
return response
# 创建一个RAG机器人
bot = RAG_Bot(
vector_db,
llm_api=get_completion
)
user_query = "llama 2有对话版吗?"
response = bot.chat(user_query)
print(response)
3.5、OpenAI 新发布的两个 Embedding 模型
2024年1月25日,OpenAI 新发布了两个 Embedding 模型
- text-embedding-3-large
- text-embedding-3-small
其最大特点是,支持自定义的缩短向量维度,从而在几乎不影响最终效果的情况下降低向量检索与相似度计算的复杂度。
通俗的说:越大越准、越小越快。 官方公布的评测结果:
注:MTEB 是一个大规模多任务的 Embedding 模型公开评测集
model = "text-embedding-3-large"
dimensions = 128
query = "国际争端"
# 且能支持跨语言
# query = "global conflicts"
documents = [
"联合国就苏丹达尔富尔地区大规模暴力事件发出警告",
"土耳其、芬兰、瑞典与北约代表将继续就瑞典“入约”问题进行谈判",
"日本岐阜市陆上自卫队射击场内发生枪击事件 3人受伤",
"国家游泳中心(水立方):恢复游泳、嬉水乐园等水上项目运营",
"我国首次在空间站开展舱外辐射生物学暴露实验",
]
query_vec = get_embeddings([query],model=model,dimensions=dimensions)[0]
doc_vecs = get_embeddings(documents,model=model,dimensions=dimensions)
print("Dim: {}".format(len(query_vec)))
print("Cosine distance:")
for vec in doc_vecs:
print(cos_sim(query_vec, vec))
print("\nEuclidean distance:")
for vec in doc_vecs:
print(l2(query_vec, vec))
4.RAG实战进阶知识
4.1、文本分割的粒度
缺陷
- 粒度太大可能导致检索不精准,粒度太小可能导致信息不全面
- 问题的答案可能跨越两个片段
# 创建一个向量数据库对象
vector_db = MyVectorDBConnector("demo_text_split", get_embeddings)
# 向向量数据库中添加文档
vector_db.add_documents(paragraphs)
# 创建一个RAG机器人
bot = RAG_Bot(
vector_db,
llm_api=get_completion
)
user_query = "llama 2可以商用吗?"
# user_query="llama 2 chat有多少参数"
search_results = vector_db.search(user_query, 2)
for doc in search_results['documents'][0]:
print(doc+"\n")
print("====回复====")
bot.chat(user_query)
改进: 按一定粒度,部分重叠式的切割文本,使上下文更完整
from nltk.tokenize import sent_tokenize
import json
def split_text(paragraphs, chunk_size=300, overlap_size=100):
'''按指定 chunk_size 和 overlap_size 交叠割文本'''
sentences = [s.strip() for p in paragraphs for s in sent_tokenize(p)]
chunks = []
i = 0
while i < len(sentences):
chunk = sentences[i]
overlap = ''
prev_len = 0
prev = i - 1
# 向前计算重叠部分
while prev >= 0 and len(sentences[prev])+len(overlap) <= overlap_size:
overlap = sentences[prev] + ' ' + overlap
prev -= 1
chunk = overlap+chunk
next = i + 1
# 向后计算当前chunk
while next < len(sentences) and len(sentences[next])+len(chunk) <= chunk_size:
chunk = chunk + ' ' + sentences[next]
next += 1
chunks.append(chunk)
i = next
return chunks
chunks = split_text(paragraphs, 300, 100)
# 创建一个向量数据库对象
vector_db = MyVectorDBConnector("demo_text_split", get_embeddings)
# 向向量数据库中添加文档
vector_db.add_documents(chunks)
# 创建一个RAG机器人
bot = RAG_Bot(
vector_db,
llm_api=get_completion
)
user_query = "llama 2可以商用吗?"
# user_query="llama 2 chat有多少参数"
search_results = vector_db.search(user_query, 2)
for doc in search_results['documents'][0]:
print(doc+"\n")
response = bot.chat(user_query)
print("====回复====")
print(response)
4.2、检索后排序
问题: 有时,最合适的答案不一定排在检索的最前面
user_query = "how safe is llama 2"
search_results = vector_db.search(user_query, 5)
for doc in search_results['documents'][0]:
print(doc+"\n")
response = bot.chat(user_query)
print("====回复====")
print(response)
方案:
- 检索时过招回一部分文本
- 通过一个排序模型对 query 和 document 重新打分排序
!pip install sentence_transformers
from sentence_transformers import CrossEncoder
model = CrossEncoder('cross-encoder/ms-marco-MiniLM-L-6-v2', max_length=512)
user_query = "how safe is llama 2"
scores = model.predict([(user_query, doc)
for doc in search_results['documents'][0]])
# 按得分排序
sorted_list = sorted(
zip(scores, search_results['documents'][0]), key=lambda x: x[0], reverse=True)
for score, doc in sorted_list:
print(f"{score}\t{doc}\n")
4.3、混合检索
在实际生产中,传统的关键字检索(稀疏表示)与向量检索(稠密表示)各有优劣。
举个具体例子,比如文档中包含很长的专有名词,关键字检索往往更精准而向量检索容易引入概念混淆。
# 背景说明:在医学中“小细胞肺癌”和“非小细胞肺癌”是两种不同的癌症
query = "非小细胞肺癌的患者"
documents = [
"李某患有肺癌,癌细胞已转移",
"刘某肺癌I期",
"张某经诊断为非小细胞肺癌III期",
"小细胞肺癌是肺癌的一种"
]
query_vec = get_embeddings([query])[0]
doc_vecs = get_embeddings(documents)
print("Cosine distance:")
for vec in doc_vecs:
print(cos_sim(query_vec, vec))
4.4、RAG-Fusion
RAG-Fusion 就是利用了 RRF 的原理来提升检索的准确性。
5.向量模型本地部署
from sentence_transformers import SentenceTransformer
#model_name = 'BAAI/bge-large-zh-v1.5' #中文
model_name = 'moka-ai/m3e-base' #中英双语,但效果一般
model = SentenceTransformer(model_name)
#query = "国际争端"
query = "global conflicts"
documents = [
"联合国就苏丹达尔富尔地区大规模暴力事件发出警告",
"土耳其、芬兰、瑞典与北约代表将继续就瑞典“入约”问题进行谈判",
"日本岐阜市陆上自卫队射击场内发生枪击事件 3人受伤",
"国家游泳中心(水立方):恢复游泳、嬉水乐园等水上项目运营",
"我国首次在空间站开展舱外辐射生物学暴露实验",
]
query_vec = model.encode(query)
doc_vecs = [
model.encode(doc)
for doc in documents
]
print("Cosine distance:") # 越大越相似
#print(cos_sim(query_vec, query_vec))
for vec in doc_vecs:
print(cos_sim(query_vec, vec))
- 不是每个 Embedding 模型都对余弦距离和欧氏距离同时有效
- 哪种相似度计算有效要阅读模型的说明(通常都支持余弦距离计算)
6.总结