俗话说:“万事开头难。” 对于初次接触人工智能技术的开发者来说,启动第一个AI项目的难度往往超乎想象。为了帮助大家更好地迈出这第一步,我特别编写了这份详细的指南,旨在引导你顺利完成火山方舟API的配置和使用。
火山方舟作为火山引擎旗下的AI平台,提供了丰富的模型和服务,帮助用户轻松构建和部署AI应用。本指南旨在为初次接触火山方舟的开发者提供详细的步骤指导,从注册账号到配置环境变量,再到调用模型API,帮助你快速上手并成功运行第一个AI模型。
以下步骤均可参考“AI练中学”中的README.md文件(在最后)。
第一步,注册并获取API。
访问火山方舟官网:火山方舟官网https://console.volcengine.com/ark/region:ark+cn-beijing/model完成账号注册和服务授权:
第二步,创建API Key。
在控制台的 API Key管理 页面中创建 API Key。
然后,将API Key进行复制保存。
第三步,创建推理接入点。
在控制台的 在线推理页面 中创建推理接入点,推荐使用doubao-pro-32k作为主力模型,模型部署完成后即可获得模型的base_url和model_endpoint。
其中,复制保存,base_url="ark.cn-beijing.volces.com/api/v3"
model_endpoint如下图,将其进行复制保存。
第四步,配置环境变量。
编辑项目中的 /home/cloudide/.cloudiderc 文件,将API_Key、base_url、model_endpoint 配置在环境变量中。按照下面步骤打开文件,路径如下。
/home/cloudide/.cloudiderc
在里面输入如下,将OPENAI_API_KEY和LLM_MODELEND的内容换为自己的。
export OPENAI_API_KEY=自己的API KEY\n
export OPENAI_BASE_URL=https://ark.cn-beijing.volces.com/api/v3
export LLM_MODELEND=自己复制保持的model_endpoint`
第五步,加载环境变量。
在命令行中执行 source ~/.cloudiderc ,之后就都可以使用自己豆包模型API执行课程代码。
第六步,修改文件并运行。
将文件中的client=OpenAI()这一句修改为如下代码:
client = OpenAI(
api_key=os.environ.get("OPENAI_API_KEY"),
base_url=os.environ.get("OPENAI_BASE_URL"),
)
将model改为下面这一句:
model=os.environ.get("LLM_MODELEND"),
然后运行,即可成功。
通过以上详细的步骤,相信你已经成功完成了火山方舟API的配置,并能够顺利调用模型进行推理。火山方舟提供了丰富的模型和服务,无论是自然语言处理、图像识别还是其他领域的应用,都能满足你的需求。希望本篇笔记能够为你带来帮助,祝你在后续运行中一切顺利!
如有错误,欢迎在评论区大家指出!