青训营X豆包MarsCode 技术训练营环境配置篇之api | 豆包MarsCode AI刷题

168 阅读2分钟

俗话说:“万事开头难。” 对于初次接触人工智能技术的开发者来说,启动第一个AI项目的难度往往超乎想象。为了帮助大家更好地迈出这第一步,我特别编写了这份详细的指南,旨在引导你顺利完成火山方舟API的配置和使用。

火山方舟作为火山引擎旗下的AI平台,提供了丰富的模型和服务,帮助用户轻松构建和部署AI应用。本指南旨在为初次接触火山方舟的开发者提供详细的步骤指导,从注册账号到配置环境变量,再到调用模型API,帮助你快速上手并成功运行第一个AI模型。

以下步骤均可参考“AI练中学”中的README.md文件(在最后)。

image.png

第一步,注册并获取API。

访问火山方舟官网:火山方舟官网icon-default.png?t=O83Ahttps://console.volcengine.com/ark/region:ark+cn-beijing/model完成账号注册和服务授权:

image.png

第二步,创建API Key。

在控制台的 API Key管理 页面中创建 API Key。

image.png 然后,将API Key进行复制保存。

image.png

第三步,创建推理接入点。

在控制台的 在线推理页面 中创建推理接入点,推荐使用doubao-pro-32k作为主力模型,模型部署完成后即可获得模型的base_url和model_endpoint。

image.png 其中,复制保存,base_url="ark.cn-beijing.volces.com/api/v3" model_endpoint如下图,将其进行复制保存。

image.png

第四步,配置环境变量。

编辑项目中的 /home/cloudide/.cloudiderc 文件,将API_Key、base_url、model_endpoint 配置在环境变量中。按照下面步骤打开文件,路径如下。

/home/cloudide/.cloudiderc

image.png 在里面输入如下,将OPENAI_API_KEY和LLM_MODELEND的内容换为自己的。

export OPENAI_API_KEY=自己的API KEY\n
export OPENAI_BASE_URL=https://ark.cn-beijing.volces.com/api/v3
export LLM_MODELEND=自己复制保持的model_endpoint`

第五步,加载环境变量。

在命令行中执行 source ~/.cloudiderc ,之后就都可以使用自己豆包模型API执行课程代码。

image.png

第六步,修改文件并运行。

将文件中的client=OpenAI()这一句修改为如下代码:

client = OpenAI(
    api_key=os.environ.get("OPENAI_API_KEY"),
    base_url=os.environ.get("OPENAI_BASE_URL"),
)

将model改为下面这一句:

model=os.environ.get("LLM_MODELEND"),

然后运行,即可成功。

通过以上详细的步骤,相信你已经成功完成了火山方舟API的配置,并能够顺利调用模型进行推理。火山方舟提供了丰富的模型和服务,无论是自然语言处理、图像识别还是其他领域的应用,都能满足你的需求。希望本篇笔记能够为你带来帮助,祝你在后续运行中一切顺利!

如有错误,欢迎在评论区大家指出!