前言:
- 其实在写这篇文章前我一共弄了2次,一次是刚开营那会,剩下一次就是这次,第一次的时候当时还不想用火山大模型,心里有某种“情结”吧,自己手头有公益API站的API,但是我试了很多次都没有成功,后面拿到了gpt的key,但是还有问题,我到现在都没想明白,被搞崩溃后我就停下来了,然后前两天听了文杰哥的直播,发现自己其实钻牛角尖了,于是乎现在又开始爬楼同时结合其他同学的笔记进行配置,但是由于那个项目代码被我改的面目全非了,于是乎我就删掉重新开始了,同时在这个过程中,铭哥说其实预置的环境中本身是有KEY的,不需要单独配置了,但是也还是可以走一遍流程配置的,于是我便再试了一次,闲话少说,直奔主题!
配置API KEY正式教程
- 首先,别管那个小册子的“LangChain系统安装和入门”,因为我们并不打算在本地配置这个环境,我们主要是学东西,先把东西学到手才是最重要的,当然,学会配置环境也很重要,如果你想在本地部署,可以试着自己动手(后续我也可能本地部署,再说吧)
打开LangChain 实战课项目
- 进入掘金首页->点击右上角头像-> 课程中心->LangChain 实战课手册 -> AI练中学-> 往下滑,找到
README.md文件->打开它 (当然我这里也提供[LangChain 实战课手册直达连接](LangChain 实战课 - 掘金小册 - 掘金小册) - 自行决定是否参考里头的教程,当然我也会把每一步写清楚
注册豆包API账号并获取相关API信息
- 创建账号:访问火山方舟官网完成账号注册和服务授权,使用国内手机号,然后必要可以绑定手机号
- 注册完成之后,在页面左边的控制台那里往下滑找到 API Key管理 页面中创建 API Key
3. 创建API KEY:如图,点击“创建API KEY”,然后KEY的名称建议默认,当然你也可以修改,确认完毕就点击创建即可
- 在控制台的 在线推理页面 中创建推理接入点,完成如图的12步之后,填写接入点的相关信息,比如名称(必选,名称随意)和描述(可选,同样随意),然后点击“添加模型”,自行找到想要使用的模型,比如推荐的
Doubao-pro-32k,接着点确定即可,购买方式如图选择 “按Token付费”,最后点接入模型即可
5. 获取API相关信息 :找到刚刚创建的API KEY然后点击右边的三个点
···,再点击API调用,如图1,接着你要找到3个变量,分别是图2的13和图3的2 图2没什么好说的,就是找到1base_url和3model,图3,你们先点击选择API Key并复制,然后弹出的框框中间右边有个查看并选择 点完它之后,下面有个复制使用,将它复制下来,这样我们就拿到了三个关键的信息 ,其中这三个分别对应了就是刚刚的图2的13和图3的2 ,你要做的就是将<YOUR_API_KEY>和另外两个都替换掉,替换的格式如第二段的代码,要将<>都替换成"",这一步可以提前做
export OPENAI_API_KEY=<YOUR_API_KEY>
export OPENAI_BASE_URL="https://ark.cn-beijing.volces.com/api/v3"
export LLM_MODELEND=<YOUR_MODEL_ENDPOINT>
示例:
export OPENAI_API_KEY="27afee-ad-f4-a2-f9c236e6"
export OPENAI_BASE_URL="https://ark.cn-beijing.volces.com/api/v3"
export LLM_MODELEND="ep-20241111202412-5xrnf"
6. 在项目文件中找到.cloudiderc文件:先切换回LangChain实战课的项目网站,然后点击左上角的搜索图标,搜索/home/cloudide/.cloudiderc,点击它进去,然后将该文件的三个变量配置成自己刚才复制的,注意带双引号,上面第4步让复制和更改的,这里也放一下吧,你们自行将双引号的东西替换成你们自己的,除了第二个是网址(大家都相同)以外,其他都需要更改
export OPENAI_API_KEY=<YOUR_API_KEY>
export OPENAI_BASE_URL="https://ark.cn-beijing.volces.com/api/v3"
export LLM_MODELEND=<YOUR_MODEL_ENDPOINT>
- 终端运行:然后点击新建终端,在终端里输入命令
source ~/.cloudiderc后回车,然后终端第一行蓝色图标亮了,第二行无输出,只有(shims) ➜ LangChain-shizhanke即配置完成了!
8. **更改模型名称:**在00-02的代码文件第56行,我们要将这一行代码注释掉,换成下面这行代码,
model=os.environ.get("LLM_MODEL"),