前言
在前面,我们利用colab结合openai实现了智能客服的功能(如何利用OpenAI和Colab构建智能客服)。今天,在这篇文章中,我将用postman模拟openAI网络请求的过程。
工具
-
postman
postman是一款支持http协议的接口调试与测试工具,无论是开发人员进行接口调试,还是测试人员做接口测试,postman都是我们的首选工具之一 。
-
API密钥
API密钥是一种用于身份验证的机制,它允许应用程序或服务访问受保护的API端点。我们可以在OpenAI官网获取。通过科学上网的方法自行获取即可,这里就不展开介绍。
开始模拟
- 我们首先打开并登录postman,新建一个请求:
- 在请求行部分,我们选择POST,并输入请求的url网址:
- 我们点击Authorization,在type栏找到Bearer Token,并在右边框中填入自己的API-key:
- 接着,我们来到Body部分,勾选raw,然后在右边选择JSON,在文本框中输入要传输的JSON代码。
- 最后,我们点击Send发送请求。
分析
-
POST方法: 选择HTTP方法是指明你希望执行的操作类型。在这种情况下,选择了POST方法,这通常用于将数据提交到服务器。
-
输入请求的URL地址: URL指定了请求的目标。告诉服务器你希望与哪个资源进行交互。
-
选择Authorization,并使用Bearer Token: 在Authorization部分设置了Bearer Token,这是一种常见的身份验证机制,用于向服务器证明请求的合法性。API-key通常作为Bearer Token的一部分提供给服务器,以便服务器可以验证请求的合法性。
-
在Body部分选择raw,然后选择JSON: 在Body部分的操作是指定请求主体的格式。选择"raw"表示你将手动输入原始数据,而选择JSON表示你将以JSON格式发送数据。这通常用于在POST请求中传递数据给服务器。
-
在JSON文本框中输入要传输的JSON代码: 在这里输入JSON代码是为了将数据传输到服务器。具体的JSON结构和内容取决于API的要求,通常包括你想要执行的操作、所需的参数等。
"model":"text-davinci-003",
"prompt":"你好",
"temperature":0.2
"model": "text-davinci-003"指定了要使用“达芬奇”文本生成模型。"prompt": "你好"是对AI提出的提示或问题,即用户想要与AI交流的内容。"temperature": 0.2是用于控制生成文本多样性的参数,数值越低,生成的文本越保守和可预测。
- 点击Send发送请求: 最后,点击Send按钮将请求发送到服务器。postman将构建并发送HTTP请求,将指定的数据发送到目标地址,并等待服务器的响应。
输出:
{
"warning": "This model version is deprecated. Migrate before January 4, 2024 to avoid disruption of service. Learn more https://platform.openai.com/docs/deprecations",
"id": "cmpl-...",
"object": "text_completion",
"created": 1699974472,
"model": "text-davinci-003",
"choices": [
{
"text": ",我叫李雪,来",
"index": 0,
"logprobs": null,
"finish_reason": "length"
}
],
"usage": {
"prompt_tokens": 4,
"completion_tokens": 16,
"total_tokens": 20
}
}
-
"warning": "This model version is deprecated..."提示警告,指出模型版本已被弃用,建议在2024年1月4日之前进行迁移以避免服务中断。 -
"id": "cmpl-..."生成文本完成请求的唯一标识符。 -
"object": "text_completion"表示这是一个文本完成的对象。 -
"created": 1699974472表示响应创建的时间戳。 -
"model": "text-davinci-003"指定使用的模型的标识符或名称,这里是文本生成模型"text-davinci-003"。 -
"choices": [...]包含模型生成的选择。在这个例子中,只有一个选择,其中包含生成的文本片段。 -
"logprobs": null在这个例子中是null,但通常用于包含模型生成文本时的对数概率等信息。 -
"finish_reason": "length"表示生成的原因。在这个例子中,原因是达到了所需的长度。 -
"usage": {...}包含有关模型响应使用情况的信息。 -
"prompt_tokens": 4提供给模型的提示中的token数量。 -
"completion_tokens": 16模型生成的文本中的token数量。 -
"total_tokens": 20总token数量,包括输入和模型生成的文本。
最后
通过选择适当的HTTP方法,输入目标URL,配置授权和身份验证,设置请求主体的格式,以及最终发送请求,我们能够有效地模拟与OpenAI的交互。
感谢掘友阅读本文,如有任何疑问或反馈,欢迎私聊或者评论区留言!
我的Gitee: CodeSpace (gitee.com)
技术小白记录学习过程,有错误或不解的地方还请评论区留言,如果这篇文章对你有所帮助请 “点赞 收藏+关注” ,感谢支持!!