以下提供有关如何微调OpenAI ChatGPT API的分步说明,以便你可以根据特定需求和应用程序对其进行定制。当你在使用简单提示时遇到限制时,微调大型语言模型变得尤为重要。
准备微调大型语言模型
优化提示:第一步是优化与基本模型一起使用的提示。确保已确定提示优化后仍然存在的限制或问题。
数据采集
创建各种示例:准备一个数据集,其中包含类似于模型在生产中将面临的场景的各种演示对话集。
设置数据集格式:确保数据集与聊天完成 API 格式一致,其中对话中的每条消息都有一个角色(“系统”、“用户”或“助手”)、内容和可选的名称。
解决有问题的情况:包括基本模型未按预期运行的示例,在数据集中提供理想的响应。
包括最佳实践:在微调到每个训练示例之前,将您发现有效的最佳说明和提示集成在一起。
培训注意事项
注意重复指令:如果缩短重复指令或提示,请注意,模型的行为可能仍像完全包含这些指令一样。
数据量:虽然微调至少需要 10 个示例,但通常使用 50 到 100 个示例可以实现更好的性能。从至少 50 个精心制作的演示开始,用于初始培训。
评估和迭代
必要时重新考虑:微调后,如果看不到任何改进,请考虑在扩展示例集之前重新访问任务设置或重组数据。
拆分数据集:将初始数据集划分为训练和测试部分,以便更好地进行评估。
提交微调作业:将微调作业提交到 OpenAI 时,同时使用训练和测试文件。这提供了训练和测试统计信息,为您提供模型改进程度的初始信号。
提交前检查
数据格式化和验证:在提交微调作业之前,请运行一个简单的 Python 脚本来检查数据格式错误、查看令牌计数并估算微调过程的成本。
测试和评估
早期测试集构建:在过程的早期创建一个测试集,因为它对于在训练完成后评估微调模型的性能非常有用。
通过执行这些步骤,你可以瞄准更有效的微调过程,确保模型更好地符合你的特定要求和用例。当然OpenAI 关于如何训练其 ChatGPT API 的完整说明可在其官方网站上找到,以供进一步参考。