部署语言模型的最佳实践

253 阅读5分钟

Best Practices for Deploying Language Models

Cohere、OpenAI和AI21实验室已经开发了一套初步的最佳实践,适用于任何开发或部署大型语言模型的组织。能够读写的计算机已经到来,它们有可能从根本上影响日常生活。人机互动的未来充满了可能性和希望,但任何强大的技术都需要谨慎部署。

下面的联合声明代表了朝着建立一个社区以解决人工智能进步带来的全球挑战所迈出的一步,我们鼓励其他愿意参与的组织与我们联系。

关于语言模型部署的联合建议

我们正在推荐几个关键原则,以帮助大型语言模型(LLMs)的提供者减轻这一技术的风险,以实现其增强人类能力的全部承诺。

虽然这些原则是专门根据我们通过API提供LLM的经验制定的,但我们希望这些原则对任何发布策略(如开源或在公司内部使用)都有帮助。我们预计这些建议会随着时间的推移而发生重大变化,因为LLM的商业用途和伴随的安全考虑是新的和不断发展的。我们正在积极学习和解决LLM的局限性和滥用途径,并将与更广泛的社区合作,逐步更新这些原则和做法。

我们分享这些原则,是希望其他LLM供应商能够学习和采用这些原则,并推动关于LLM开发和部署的公共讨论。

禁止误用


公布LLM的使用指南和使用条款,禁止对个人、社区和社会造成实质性的伤害,例如通过垃圾邮件、欺诈或天马行空的行为。使用指南还应该规定在哪些领域使用LLM需要额外审查,并禁止不适当的高风险使用情况,如根据受保护的特征对人进行分类。


建立系统和基础设施来执行使用指南。这可能包括速率限制、内容过滤、生产访问前的应用批准、监测异常活动以及其他缓解措施。

减轻无意的伤害


积极主动地减轻有害的模型行为。最佳做法包括全面的模型评估,以正确评估局限性,最大限度地减少训练语料中潜在的偏见来源,以及最大限度地减少不安全行为的技术,如通过从人类反馈中学习。


记录已知的弱点和漏洞,如偏见或产生不安全代码的能力,因为在某些情况下,任何程度的预防措施都无法完全消除潜在的意外伤害。文档还应该包括模型和特定使用案例的安全最佳实践。

与利益相关者进行深思熟虑的合作


建立具有不同背景的团队并征求广泛的意见。需要多样化的视角来描述和解决语言模型在现实世界的多样性中如何运作的问题,如果不加以控制,它们可能会加强偏见或对某些群体不起作用。


公开披露有关语言模型安全和滥用的经验教训,以便能够广泛采用,并帮助跨行业的最佳实践迭代。


尊重语言模型供应链中的所有劳动力。例如,供应商应该对内部审查模型输出的人的工作条件有很高的标准,并要求供应商遵守明确规定的标准(例如,确保标签人员能够选择不参与某项任务)。

作为LLM的提供者,公布这些原则代表了在合作指导更安全的大型语言模型开发和部署方面的第一步。我们很高兴能继续与其他各方合作,以确定其他机会,减少语言模型的无意伤害并防止恶意使用。

以PDF格式下载

来自其他组织的支持

"虽然LLMs有很大的前景,但它们有重大的内在安全问题,需要努力解决。这些最佳实践是将这些模型的危害降到最低并将其潜在的利益最大化的重要一步"。

-Anthropic

"随着大型语言模型(LLMs)变得越来越强大,表现力越来越强,减轻风险变得越来越重要。我们欢迎这些和其他的努力,主动寻求减少危害,并向用户强调需要特别注意的领域。这里概述的原则是对全球对话的一个重要贡献"。

-John Bansemer,安全和新兴技术中心(CSET)网络AI项目主任和高级研究员

"谷歌肯定了综合战略在分析模型和训练数据方面的重要性,以减少伤害、偏见和误报的风险。这是这些人工智能供应商为促进人工智能安全的原则和文件而采取的周到措施"。

-谷歌云平台(GCP)

"基础模型的安全性,如大型语言模型,是一个日益增长的社会问题。 我们赞扬Cohere、OpenAI和AI21实验室迈出了第一步,从模型开发者的角度概述了负责任的开发和部署的高级原则。 还有很多工作要做,我们认为必须让来自学术界、工业界和公民社会的更多声音参与进来,以制定更详细的原则和社区规范。正如我们在最近的博文中所说,重要的不仅仅是最终的结果,还有这个过程的合法性"。

-斯坦福大学基金会模式研究中心(CRFM)主任Percy Liang

参与进来

如果你正在开发语言模型或正在努力减少其风险,我们很愿意与你交谈。请通过bestpractices@openai.com 联系我们。