通过API运行Meta Llama 3.1 405B
Llama 3.1是某中心发布的最新语言模型。它拥有高达4050亿的参数规模,在质量上可与GPT-4相媲美,并具备8000个token的上下文窗口。通过某机构的服务,只需一行代码即可在云端运行Llama 3.1。
在API游乐场中尝试Llama 3.1
在深入学习前,建议先在API游乐场中试用Llama 3.1。尝试调整提示词,观察Llama 3.1如何回应。某机构平台上的大多数模型都配有类似的交互式API游乐场,您可以在模型页面找到它。该游乐场是了解模型能力的绝佳方式,并提供多种编程语言的可复制代码片段,帮助您快速上手。
使用JavaScript运行Llama 3.1
可以通过官方JavaScript客户端运行Llama 3.1:
- 安装某机构的Node.js客户端库
npm install replicate - 设置
REPLICATE_API_TOKEN环境变量(您可以在账户中生成API令牌。请妥善保管。)export REPLICATE_API_TOKEN=r8_9wm********************************** - 导入并设置客户端
import Replicate from "replicate"; const replicate = new Replicate({ auth: process.env.REPLICATE_API_TOKEN, }); - 使用某机构的API运行
meta/meta-llama-3.1-405b-instruct模型。可查阅模型的模式概览了解其输入和输出。const input = { prompt: "Although you can hear and feel me but not see or smell me, everybody has a taste for me. I can be learned once, but only remembered after that. What exactly am I?" }; for await (const event of replicate.stream("meta/meta-llama-3.1-405b-instruct", { input })) { process.stdout.write(event.toString()); };
使用Python运行Llama 3.1
可以通过官方Python客户端运行Llama 3.1:
- 安装某机构的Python客户端库
pip install replicate - 设置
REPLICATE_API_TOKEN环境变量(您可以在账户中生成API令牌。请妥善保管。)export REPLICATE_API_TOKEN=r8_9wm********************************** - 导入客户端
import replicate - 使用某机构的API运行
meta/meta-llama-3.1-405b-instruct模型。可查阅模型的模式概览了解其输入和输出。# The meta/meta-llama-3.1-405b-instruct model can stream output as it's running. for event in replicate.stream( "meta/meta-llama-3.1-405b-instruct", input={ "prompt": "Although you can hear and feel me but not see or smell me, everybody has a taste for me. I can be learned once, but only remembered after that. What exactly am I?" }, ): print(str(event), end="")
使用cURL运行Llama 3.1
也可以直接使用cURL等工具调用HTTP API:
- 设置
REPLICATE_API_TOKEN环境变量(您可以在账户中生成API令牌。请妥善保管。)export REPLICATE_API_TOKEN=r8_9wm********************************** - 使用某机构的API运行
meta/meta-llama-3.1-405b-instruct模型。可查阅模型的模式概览了解其输入和输出。curl -s -X POST\ -H "Authorization: Bearer $REPLICATE_API_TOKEN"\ -H "Content-Type: application/json"\ -H "Prefer: wait"\ -d $'{ "input": { "prompt": "Although you can hear and feel me but not see or smell me, everybody has a taste for me. I can be learned once, but only remembered after that. What exactly am I?" } }'\ https://api.replicate.com/v1/models/meta/meta-llama-3.1-405b-instruct/predictions
此外,也可以使用某机构为Go、Swift等其他语言提供的客户端库来运行Llama。
关于Llama 3.1 405B
目前某机构平台上仅提供405B这一个Llama 3.1变体。该模型代表了开源语言模型的前沿水平:
- 4050亿参数:这一庞大的模型规模使得其在开源模型中具备了前所未有的能力。
- 指令微调:针对聊天和遵循指令的任务进行了优化。
- GPT-4级别质量:在许多基准测试中,Llama 3.1 405B接近或达到了GPT-4的性能。
- 多语言支持:训练数据涵盖8种语言,包括英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。
- 广泛的训练:基于超过15万亿个token的数据进行训练。
负责任的人工智能与安全性
Llama 3.1非常重视负责任的人工智能开发。某中心引入了一系列工具和资源,帮助开发者安全、合乎道德地使用该模型:
- Purple Llama:一个开源项目,包含生成式AI模型的安全工具和评估。
- Llama Guard 3:一个更新后的输入/输出安全模型。
- Code Shield:一个帮助防止生成不安全代码的工具。
- 负责任使用指南:模型伦理使用的指导方针。
建议在使用Llama 3.1构建应用程序时查阅这些资源。
示例聊天应用
如果想快速开始,可以使用基于Next.js构建的演示聊天应用,并可部署在Vercel上。
祝您编程愉快! 🦙