我们正在发布一个用于访问OpenAI开发的新人工智能模型的API。与大多数人工智能系统为一个使用案例而设计不同,今天的API提供了一个通用的 "文本输入,文本输出 "界面,允许用户在几乎任何英语任务上进行尝试。你现在可以申请访问,以便将API集成到你的产品中,开发一个全新的应用程序,或者帮助我们探索这项技术的优势和局限。
您的浏览器不支持视频
给予任何文本提示,API将返回一个文本完成,试图与你给它的模式相匹配。你可以通过向它展示你希望它做什么的几个例子来 "编程";它的成功通常取决于任务的复杂程度。该API还允许你通过对你提供的例子的数据集(小型或大型)进行训练,或通过从用户或标签人员提供的人类反馈中学习,来磨练特定任务的性能。
我们设计的API既简单,任何人都可以使用,但也足够灵活,使机器学习团队更有效率。事实上,我们的许多团队现在都在使用该API,这样他们就可以专注于机器学习研究,而不是分布式系统问题。今天,API用GPT-3系列的权重运行模型,速度和吞吐量都有了许多改进。机器学习的发展非常快,我们正在不断地升级我们的技术,以便我们的用户能够跟上时代。
您的浏览器不支持视频
该领域的进展速度意味着经常有令人惊讶的人工智能新应用,包括正面和负面的。我们将终止对明显有害的使用案例的API访问,如骚扰、垃圾邮件、激进化或天体活动。但我们也知道,我们无法预测这项技术可能带来的所有后果,所以我们今天推出的是私人测试版,而不是普遍供应,建立工具来帮助用户更好地控制我们的API返回的内容,并研究语言技术的安全相关方面(如分析、缓解和干预有害的偏见)。我们将分享我们所学到的东西,以便我们的用户和更广泛的社区能够建立更多对人类有利的AI系统。
您的浏览器不支持视频
除了作为一个收入来源帮助我们支付追求使命的成本外,API还促使我们更加关注通用的人工智能技术--推进技术发展,使其可用,并考虑其在现实世界的影响。我们希望,API将大大降低生产有益的人工智能产品的门槛,从而产生今天难以想象的工具和服务。
对探索API感兴趣吗?请加入Algolia、Quizlet和Reddit等公司,以及Middlebury研究所等机构的研究人员,参与我们的私人测试。
您的浏览器不支持视频
常见问题
为什么OpenAI决定发布一个商业产品?
归根结底,我们最关心的是确保人工通用智能惠及每个人。我们认为开发商业产品是确保我们有足够资金成功的方法之一。
我们也相信,在世界范围内安全地部署强大的人工智能系统将是很难做到的。在发布API的过程中,我们正在与我们的合作伙伴密切合作,看看当人工智能系统在现实世界中使用时,会出现哪些挑战。这将有助于指导我们的工作,了解部署未来的人工智能系统将如何进行,以及我们需要做什么来确保它们是安全的,对每个人都有益。
为什么OpenAI选择发布API而不是开源模型?
我们这样做有三个主要原因。首先,将技术商业化有助于我们支付正在进行的人工智能研究、安全和政策工作。
第二,API基础上的许多模型都非常大,需要大量的专业知识来开发和部署,使其运行成本非常高。这使得除了大公司之外,其他人很难从基础技术中受益。我们希望,API将使小型企业和组织更容易获得强大的AI系统。
第三,API模式使我们能够更容易地应对技术的滥用。由于很难预测我们的模型的下游使用情况,通过API发布它们并随着时间的推移扩大使用范围,而不是发布一个开放源码的模型,如果它被证明有有害的应用,则无法调整使用权限,这感觉本质上更安全。
鉴于你之前对GPT-2的说法,OpenAI对滥用API的情况会有什么具体的处理?
对于GPT-2,我们关注的一个关键问题是模型的恶意使用(例如,用于虚假信息),一旦模型开源,就很难防止。对于API,我们能够通过限制对已批准的客户和用例的访问来更好地防止滥用。在提议的应用程序上线之前,我们有一个强制性的生产审查过程。在生产审查中,我们通过几个轴来评估应用程序,问一些问题。这是一个目前支持的用例吗? 该应用的开放性如何? 该应用的风险有多大? 你打算如何解决潜在的误用问题?以及谁是你应用程序的最终用户?
对于那些被发现会对人造成(或打算造成)身体、情感或心理伤害的用例,包括但不限于骚扰、故意欺骗、激进化、星际传播或垃圾邮件,以及那些没有足够的护栏来限制最终用户滥用的应用,我们将终止API访问。随着我们在实践中获得更多操作API的经验,我们将不断完善我们能够支持的使用类别,以扩大我们可以支持的应用范围,并为那些我们担心的滥用行为创建更精细的类别。
在批准API的使用时,我们考虑的一个关键因素是,就系统的基本生成能力而言,一个应用程序在多大程度上表现出开放式与约束性行为。API的开放式应用(即那些能够通过任意提示无摩擦地生成大量可定制文本的应用)特别容易被滥用。可以使生成型用例更安全的约束条件包括:在系统设计中保持人的参与、终端用户访问限制、输出的后处理、内容过滤、输入/输出长度限制、主动监测和主题性限制。
我们还在继续对API提供的模型的潜在滥用进行研究,包括通过我们的学术访问计划与第三方研究人员合作。目前,我们从数量非常有限的研究人员开始,已经从我们在米德尔伯里研究所、华盛顿大学和艾伦人工智能研究所的学术伙伴那里得到了一些结果。我们已经有数以万计的人申请这个项目,目前正在优先考虑专注于公平性和代表性研究的申请。
OpenAI将如何减轻有害的偏见和由API提供服务的模型的其他负面影响?
减轻有害偏见等负面影响是一个艰难的、全行业的问题,极其重要。正如我们在GPT-3论文和模型卡中所讨论的,我们的API模型确实表现出偏见,这些偏见将反映在生成的文本中。以下是我们为解决这些问题所采取的措施。
- 我们已经制定了使用指南,帮助开发者理解和解决潜在的安全问题。
- 我们正在与用户紧密合作,以了解他们的使用情况,并开发工具来浮现和干预以减轻有害的偏见。
- 我们正在对有害偏见的表现形式和更广泛的公平性和代表性问题进行自己的研究,这将有助于通过改进现有模型的文档以及对未来模型的各种改进来为我们的工作提供信息。
- 我们认识到,偏见是一个在系统和部署环境的交叉点上表现出来的问题;用我们的技术构建的应用程序是社会技术系统,因此我们与我们的开发人员合作,确保他们在适当的流程和人在环形系统中监测不良行为。
我们的目标是继续发展我们对API在每个使用环境中的潜在危害的理解,并不断改进我们的工具和流程,以帮助减少这些危害。
2020年9月18日更新