人人都能学会的提示词工程——提示词工程的未来

0 阅读34分钟

12.1 从技能到学科:提示词工程师正在成为什么

当大型语言模型最初进入公众视野时,提示看起来是一种即兴且自然生长的行为。早期用户把它当作一种手艺或游戏:尝试不同措辞、调整语气,并运用巧妙技巧来产生新颖结果。线上社区分享“提示配方”,交流如何引出创造性或功能性回应的方法。在最初阶段,提示类似一种数字 tinkering,也就是数字化的动手试验:有趣、个人化且非正式。然而,这个时代正在结束。

今天,提示已经演化为一种正式的设计责任。它不再只是新奇玩法或变通手段,而是构成了应用型 AI 的基础层。横跨教育、医疗、治理、创意产业和公共服务,提示词工程直接塑造语言模型在真实世界系统中的运行方式。编写提示的人会决定哪些信息被呈现、如何框定决策,并影响用户体验;曾经只是非正式探索者的提示词工程师,如今正在架构机构逻辑。

本节考察提示如何从一种灵活技能转变为一门正在形成的专业学科。这一转变不仅是技术性的,也是概念性和伦理性的。一门学科不仅由方法定义,也由标准、素养和责任定义。提示词工程现在正在进入这个领域。

12.2 从玩耍到实践

前几章将提示描述为一种分层的指令形式,需要结构,见第 10 章;需要上下文敏感性,见第 5 章;也需要文化意识,见第 11 章。最初,提示主要关注技巧,包括简短查询、创造性措辞或单轮实验,用来引出特定输出。用户把提示看作个体工具,通常独立构造,并根据即时结果进行评估。这种视角已经不再符合当下现实。

现代部署会将提示嵌入平台、工具和服务中,触达成千上万的用户。一条为法律聊天机器人或心理健康助手编写的提示,可能会影响个人如何理解自身权利或寻求照护。提示如今会决定系统如何沟通、总结、建议和回应。它们的影响已经超出孤立对话,在规模化层面塑造公共体验。

因此,提示词工程现在是一门设计学科,而不只是技术技巧。提示词工程师必须在技术清晰性与社会责任之间取得平衡。他们的角色要求对每一次互动中的沟通、伦理以及底层人类需求有全面理解。

为澄清这一演化,下面的表格对比了早期提示观念与正在形成的专业角色:

早期观念今天正在演化的角色
写聪明的一句话提示设计清晰、目标对齐且符合伦理的指令
探索模型怪癖理解用户目标、风险和系统语境
优化新奇感或惊喜感优化清晰性、安全性和有意义的结果
独立工作跨设计、政策和特定领域团队协作
把模型当作谜题把模型当作具有真实世界影响的沟通工具

12.3 一门学科所需的素养

每一种职业都建立在共享素养之上:即特定的思考、行动和关怀方式。基于前几章内容,有四项核心素养正在塑造提示词工程的成熟。

1. 认知素养

提示词工程师必须能够以结构化步骤思考、拆解任务,并为输出搭建脚手架。正如第 10 章所示,强提示不是随意命令;它们是指导推理和管理复杂性的指令框架。

2. 伦理素养

正如第 11 章所展示的,提示从来不是中立的。我们选择的词语可能强化偏见、排除某些视角,或影响用户尊严。伦理素养意味着学习预判潜在伤害、质疑底层假设,并以审慎态度设计解决方案。

3. 沟通素养

提示具有双重受众:它们对模型说话,但其效果会塑造人类体验。提示词工程师必须熟悉语气、清晰性和文化细微差别,尤其是在多语言和多文化环境中。

4. 系统素养

提示越来越多地运行在平台、机构和自动化工作流中。工程师必须学会在这些系统内部进行设计,理解合规需求、可访问性要求和长期维护结构。

12.4 重新思考谁算提示词工程师

有些读者可能不愿意把自己称为“提示词工程师”,尤其是当他们不在软件公司工作,也不写代码时。然而,本书采用一种更广义的视角:任何编写会影响他人的提示的人,尤其是在照护、教育、沟通或服务系统中这样做的人,都在实践提示词工程。

职位名称并不定义专业身份;意图、审慎和责任才定义专业身份。提示词工程正在成为一门学科,并不是因为它有正式资质要求,而是因为它要求有原则的实践。

这门学科并不是通过认证建立起来的,而是通过持续承诺建立起来的。一条提示接着一条提示,一个决策接着一个决策,实践者正在塑造一个融合人类理解与技术精确性的领域,并由此定义未来系统将如何沟通、服务和支持它们所触达的人。

12.5 扩展中的提示生态系统

对许多人来说,“提示词工程”这个词仍然会唤起一个简单画面:某人在聊天窗口中输入一个问题,然后从 AI 那里收到回应。虽然这种场景依然常见,但它已经无法反映当代系统中提示如何发挥作用的完整范围。在实践中,提示现在已经远远超出直接的人类—AI 互动。它们跨越一个广泛的工具、平台和机构环境生态系统运行,往往不可见,却具有重大影响。

前几章把提示框定为一种以人为中心的语言设计行为:创造性、结构化且具备伦理敏感性。虽然这一框定依然重要,但语境已经发生演化。提示词工程师如今会把提示整合进医疗支持应用、课堂仪表盘、法律摘要系统、企业知识库和公民服务平台。提示越来越多地由团队而不是个人编写,并且由组织每天执行成千上万次。这些提示会产生涟漪效应,不仅塑造机器输出,也塑造人类理解、决策和行为。

要理解提示词工程的未来,就必须把它看作一个不断扩展的生态系统的一部分:一个由技术系统和社会系统相互连接而成的网络,在这个网络中,提示持续发生、规模化发生,并且常常在用户不知情的情况下发生。

12.6 从互动到基础设施

过去,提示曾是一种直接互动的时刻:用户写下命令,模型作出回应。如今,大多数用户并不知道这个时刻的存在。当他们点击“Summarize”“Rewrite in Plain Language”或“Suggest a Headline”时,他们并没有发出自己的提示。他们是在激活软件中预先写好的指令。提示仍然存在,但它是由别人提前编写的,并在后台静默运行。

这种从可见命令到不可见基础设施的转变,引入了新的设计挑战。嵌入健康应用中的提示,必须在多样输入和多样用户之间可靠运行,一方面维护临床安全,另一方面保持对情感语气的敏感。类似地,嵌入教育工具中的提示必须在清晰度和深度之间取得平衡,适应具有不同需求和能力的学习者。政府聊天机器人需要具备法律精确性、文化中立性和语言包容性的提示。这些并不只是语言选择,而是具有机构意义的设计决策。

在这一语境中,提示词工程师不再只是编写查询;他们也在创建和优化这些查询。他们正在构建系统组件。提示词工程师必须采用基础设施设计者的心态,决定知识如何流动,建立信任机制,并治理语言如何在日常工具中运用权力。

12.6.1 机构语境与责任

以教育为例。在许多学校中,学生如今会与 AI 驱动的导师、写作助手或学习仪表盘互动。这些系统会生成解释、改写反馈,并提供定制支持。然而,每一次回应背后的提示,不仅要反映正确性,也必须尊重教学价值,适应不同学习风格,并对残障学生可访问。如果它过度简化,可能扭曲意义。如果它使用陌生语气,可能疏远学习者。这里的责任不仅是技术性的,也是教育性和伦理性的。

在医疗和心理健康场景中,提示具有另一种紧迫性。一个回应痛苦用户的健康助手,不能只是听起来有帮助。它的提示必须传达支持,避免触发性语言,并在需要时升级到人类帮助。一旦错位,它可能阻碍人们寻求照护,或在脆弱时刻误导他们。提示词工程师必须与临床医生和患者倡导者协作,确保系统用安全和同情的方式说话。

法律和公民平台则提出另一种挑战。一个总结租客权利或解释纳税义务的聊天机器人,必须准确、无偏,并且能被多样受众理解。引出这种回应的提示必须可追踪、可审计,并经过谨慎措辞。如果它过度简化,可能造成困惑。带有偏见的机构提示可能让本应受益的用户处于劣势。在这些语境中,提示词工程师是在守护公民清晰性。

创意产业也越来越依赖提示。故事板工具、写作助手和营销生成器,都使用基于提示的指令来决定语气、类型和情感节奏。这些环境中的提示词工程师必须避免陈词滥调,保留文化真实性,并确保生成系统放大多元声音,而不是把它们压平成风格上的一致性。

即使是在协作文档、生产力仪表盘和客服收件箱等日常商业工具中,提示也在安静却普遍地运行。“Rewrite for tone”“Summarize this thread”或“Suggest reply”等功能,全都依赖由他人设计的提示。这些系统塑造沟通规范,影响职场动态,并影响用户如何专业地呈现自己。这些输出背后的提示发挥着微妙而持久的影响。

12.7 跨学科性与系统意识

今天,提示词工程是一种跨学科实践。写出一条好提示已经不够;它还必须有效。工程师必须理解实现这些提示的系统,也必须理解它们所影响的人群,同时处理随之而来的伦理关切。嵌入医疗界面的提示必须反映临床指南。用于面向公众的公民工具的提示,必须符合可访问性标准和多语言包容性。教育应用的提示必须适应神经多样性、文化差异和核心学习目标。

因此,提示词工程师不仅必须掌握编程和设计,也必须掌握法律、医学、教育、媒体和公共管理等领域的专门术语。他们必须与领域专家、可访问性顾问、政策顾问和受影响社区协作。提示已经演化为一种社会设计行为:它不只是语言技巧,而是一种跨不同系统和机构运行的沟通形式。

12.8 反思:重新框定我们的实践

对许多读者来说,提示一开始是一种个人技能、一场创造性实验、一种生产力工具,或一个个人助手。然而,正如本节所展示的,它已经演化为某种更深的东西:一种分布式专业责任。提示如今结构化地影响人们如何学习、作出决策、获得照护和访问知识。

因此,问题不再只是我们能写出什么样的提示,而是我们通过自己设计的提示,帮助构建了什么样的系统。

如果我们编写的提示引导成千上万次互动,影响公共话语,并塑造机构行为,那么我们就是作为专业人士参与了提示生态系统。这个角色带来义务:以审慎方式设计,预判影响,并让我们的指令与其所触达社区的价值保持一致。

后续章节将考察这种责任如何关联监管、透明性和专业行为准则。然而,基础已经很清楚:提示词工程不只是技能。这个角色运行在会产生真实世界影响的系统之中,因此需要像任何成熟学科一样,具备严格标准、专业严肃性和集体伦理。

12.9 风险、监管与责任

随着提示词工程成为 AI 系统设计中的核心实践,其伦理风险也在加深。提示越来越多地影响人们如何获得医疗建议、理解自身法律权利、导航公共服务,以及解释教育或金融信息。每一次部署,都会增加提示词工程师决策的重量。实践者曾经认为这是聪明技巧,而现在它要求严肃的设计问责,并带来可衡量的真实世界影响。

重要的是,与提示相关的大多数风险并非源于恶意或误用。相反,它们源于遗漏、疏忽或缺乏系统层面的思考。一个提示可能因为过度简化问题而误导用户。它可能因为没有考虑谁在说、对谁说而强化偏见。它也可能因为假定用户熟悉技术语言、机构规范或主流文化参照,而无意中排斥用户。造成这些伤害的往往不是意图,而是疏忽;这使得周全治理和专业问责成为现代提示词工程的关键组成部分。

12.10 提示系统中的风险类型

与提示相关的风险主要分为三类:表征风险、认识论风险和机构风险。

表征风险发生在提示无意中编码或再生产社会偏见、文化抹除或刻板印象时。例如,一个将“专业语气”定义为符合西方企业文化的客服提示,可能会压制来自其他语言或文化背景用户的真实表达。同样,模拟患者、父母或社区领袖等人设的提示,可能依赖不完整或有偏的训练数据,从而扭曲生活经验的表征。

认识论风险涉及模型的知识主张。要求摘要、洞察或解释的提示,可能生成听起来很自信、但实际上带有推测性或误导性的回应。如果没有来源引用、不确定性提示或范围限定等保护措施,语言模型可能生成听起来可信但没有依据的幻觉性主张。在法律、医学或科学等事实准确性至关重要的领域,这类失败的代价可能很高。每一种风险类别,都可以通过范围约束、不确定性声明、可追踪修订和 human-in-the-loop 升级机制来缓解。

机构风险发生在提示被嵌入运营系统中,却没有充分关注透明性、监督和问责措施时。不透明的提示系统会阻止用户检查或质疑提示的影响,也阻止组织追踪提示的发展过程或设计理由,从而制造问责缺口,削弱机构信任。

这些风险并不抽象。它们已经在教育平台、法律机器人、公民工具和医疗助手中显现出来。降低这些风险的关键,不仅在于提示设计本身,也在于围绕提示建立伦理基础设施。

12.11 监管回应与治理框架

各国政府和监管机构已经开始回应语言模型日益扩大的社会影响。欧盟《人工智能法案》(2024)是迄今为止最全面的框架之一。它将 AI 应用划分为不同风险类别,并对“高风险”系统施加严格要求,例如就业、教育、医疗或执法中使用的系统。这些要求包括人工监督、文档化协议和系统逻辑可追踪性,其中也包括嵌入式提示的作用。

在这类框架中,提示词工程成为一种战略性责任。这个领域如今认识到,提示并不是短暂文本输入,而是可编程的政策组件,治理 AI 系统如何解释、沟通并与人类互动。因此,提示必须被记录、可审计,并且为了问责而设计。

在行业层面,若干自愿性倡议正在出现。模型卡最初用于描述语言模型的能力和局限,现在正在演化为系统卡,不仅记录模型,也记录提示配置、部署语境和预期风险。在这一趋势中,prompt card,也就是提示卡的概念正在获得关注。提示卡是一份简洁文档,用于记录特定提示背后的目的、结构、约束和伦理考量。它使工程师、设计师和审阅者能够高效评估提示在其语境中的意图和影响。

经合组织、联合国教科文组织和 ISO 等主要国际组织,已经建立了 AI 伦理框架,强调可解释系统、反歧视保护和人类自主性维护。提示词工程实践现在必须与这些更广泛承诺保持一致,尤其是在公共部门或敏感领域中。

12.12 实践中的共同责任

虽然提示词工程师不是政策制定者,但他们创建的系统会治理权利、可访问性和信任。每一条提示实际上都像一种事实上的规则,设定互动规范、决定回应边界,并塑造用户对有效性、适当性和真实性的期待。因此,提示词工程师必须采用建立在伦理框架和情境意识之上的专业方法。工程师必须不仅说明提示的功能,也说明其设计理由、受影响的利益相关者和潜在失败场景。他们必须披露不确定性,避免欺骗性框定,并与法律、政策和领域专家协作验证自己的工作。

一条精心设计的提示,并不只是“能用”:它服务于用户尊严、清晰性和问责。达到这一标准不要求完美,但要求谦逊,要求愿意记录决策、承认局限,并根据证据、批评或潜在伤害修订设计。

12.13 将提示重新框定为公共基础设施

提示不再是边缘实践。它已经成为社会如何沟通、组织知识和作出决策的底层基础设施的一部分。通过设计这些互动,提示词工程师直接影响那些调节教育、就业和服务访问的系统。

这一认识要求专业身份和公共框定都发生转变。提示词工程不只是创造性行为。它如今是一种公民设计形式。它要求我们投入与设计公共建筑、医疗系统或金融监管者同等程度的审慎、透明和责任。

后续部分将提供具体专业指南,包括一份拟议行为准则。然而,前提从这里开始:提示词工程现在运行在公共伦理领域。因此,它需要严格标准、机构支持,以及对以人为中心设计的深度承诺。

12.14 专业化与提示词工程师准则

提示词工程已经演化为一个具有重大社会影响的角色。正如前几章所探讨的,提示越来越多地塑造公共服务、教育体验、医疗沟通、法律访问和工作场所工具。

这种广泛影响提出了一个关键问题:专业地实践提示词工程,究竟意味着什么?

要回答这个问题,我们必须区分技术技能和专业学科。技能可以自学,可以针对特定任务,并通过即时表现进行评估。相比之下,职业则承担集体责任。公共信任、共享价值、伦理标准,以及对社会利益的持久投入,共同塑造其工作。当一个共同体认识到自己的工作具有社会后果,并决定通过有原则的标准和协作治理来守护这份责任时,职业就会出现。

提示词工程如今已经满足这些标准。这个学科影响人们如何访问知识、获得指导、作出决策和形成信念。它的后果不是假设性的,而是即时的、累积的和结构性的。因此,这个领域不仅必须在技术深度上进步,也必须在伦理清晰性上进步。

12.15 从能力到关怀

从技能到职业的转变,始于心智模式的变化。提示词工程师必须超越“什么最有效?”这个问题,开始追问:“什么能够以公平、清晰和尊严服务用户?”

实践者必须承认,每条提示都嵌入了关于用户身份、优先事项和预期行为的假设。有些提示可能无意中排斥、困惑或误导用户。另一些提示可能在缺乏透明性的情况下,边缘化替代声音或强化主流规范。

专业实践需要有意识的设计和伦理反思。提示词工程师必须解释提示背后的理由,考虑它可能影响的多样化用户,并在规模化部署时评估长期影响。这种方法优先强调勤勉、责任和迭代改进,而不是追求无法实现的完美。

这种转变也要求集体表达。就像法律、医学和建筑学曾经经历的那样,提示词工程也需要伦理框架,以保护实践者和公众。这些框架不应作为僵硬规则,而应作为指导原则,一种专业罗盘,在这个不断演化的领域中促进负责任创新和集体知识建设。

12.16 行为准则的作用

伦理准则服务于多个目的。它们帮助共同体在价值上对齐,应对歧义,保护受影响用户,并维护公众信心。在那些实践者拥有不对称知识或权力的职业中,例如医生、记者或数据科学家,伦理准则有助于确保工作服务于即时客户或任务之外的人群利益。

提示词工程符合这一模型。工程师可能独自写下一条提示,但这条提示会进入系统,影响用户,并可能在成千上万次互动中持续存在。工程师未必在现场解释提示意图或纠正其失败。准则成为 tether,也就是一种连接:一组将设计决策连接到更广泛公共问责的原则。本章后面会有一个简短示例,展示一张示例提示卡如何记录理由、假设和保护措施,而不需要视觉图表。

下面,我们提出一份行为准则草案。它不是最终规定,而是一个供专业共同体讨论、采纳和演化的动态框架。

12.17 提示词工程师行为准则草案

提示词工程师确认:他们的工作会直接影响人们如何获取信息、体验照护并参与数字系统。基于这一精神,我们提出以下承诺:

1. 以人类尊严为基础进行设计。

提示必须尊重用户的语气、情感需求和身份。尤其在敏感语境中,提示词工程师应优先考虑同理心和尊重式互动。

2. 优先考虑理解,而不是表现。

成功的提示不仅生成输出,也促进有效学习。它支持用户理解,鼓励批判性思维,并实现清晰表达,尤其是面向多样受众和具有不同访问需求的人群。

3. 让假设变得可见。

每条提示都反映设计选择,包括语气、受众、文化参照和场景。提示词工程师必须暴露并记录这些假设,以评估其包容性和潜在影响。

4. 确保可追踪性和问责。

组织必须妥善记录、版本化和维护系统嵌入式提示的审计轨迹,包括其预期目的、修订历史和已识别风险,尤其是在公共或关键应用中。

5. 这个领域必须共同承担守护责任。

提示词工程师并非孤立工作。他们要与领域专家、社区利益相关者、法律团队和系统设计师协作,确保提示服务于机构和社会目标。

6. 践行专业谦逊。

提示词工程师必须认识到模型能力的局限,避免夸大系统能力。他们应披露不确定性,避免推测性框定,并承认知识缺口。

7. 拒绝操纵和伤害。

提示不应被用于欺骗、压制异议或利用脆弱用户。工程师必须抵制那些为了参与度或服从度而牺牲伦理对待的优化压力。

8. 支持包容与共享学习。

这个职业应通过透明传播知识、移除不必要的准入门槛,并放大边缘化视角来促进可访问性。这既确保实践者多样性,也确保系统设计公平。

9. 部署前暂停。

在将提示嵌入系统之前,工程师应考虑它们在规模化下的影响。这条指令会促进信任、公平和可持续性吗?如果不会,就必须修订或暂缓。

10. 将准则本身视为一种动态承诺。

伦理实践会演化。随着领域发展、新风险出现和全球语境变化,提示词工程师必须持续重新审视、辩论并调整自身标准。

12.17.1 在实践中成为专业人士

专业性并不要求认证。它要求关怀、判断和反思。那些已经在教育、医疗、公民技术或文化工具中工作的提示词工程师,正在塑造中介人们学习、寻求支持和形成信任的系统。无论他们是否拥有这个头衔,他们都已经属于一种专业实践。

现在真正重要的是,这种实践如何被持续维持:通过共享教育、协作审查和对公共利益的承诺。就像其他学科建立机构来治理自身工作一样,提示词工程也必须如此,确保它在快速演化的数字世界中,始终是一个以人为中心、符合伦理且具有包容性的领域。

12.18 能力地图

提示词工程作为专业领域的成熟,不仅需要概念清晰性,也需要结构化的发展路径。读者常常不只想知道提示词工程包括什么,也想知道自己的能力如何随时间推进。为回应这一点,能力地图提供了一个分阶段的学习和实践框架,引导个人从初始素养走向高级系统设计。

基础素养是入口阶段。在这个层级,学习者熟悉与语言模型互动的机制。他们获得区分模糊指令与精确指令的能力,认识到措辞如何影响输出,并识别偏见或幻觉等基础风险。重点不在技术深度,而在建立提示意识:理解提示是设计输入,而不是随意查询。

第二阶段是精确性与架构,它引入有意结构。在这里,学习者练习构造能够平衡范围、约束和受众考量的提示。他们学习为任务搭建脚手架、分层指令,并应用可复用模板。在这个阶段,实践者从直觉走向可重复设计,理解提示形式与沟通功能之间的关系。

第三阶段聚焦于 CASTROFF 掌握。这个层级的能力意味着能够熟练应用 CASTROFF 框架,将其作为一种综合设计纪律。实践者能够跨维度诊断弱提示,系统性应用约束,并不仅把 CASTROFF 当作检查清单,而是将其作为分析和创作的组织原则。

第四阶段是包容且安全的实践,它超越技术熟练度,进入伦理责任。这个层级要求将包容性检查、红旗词库、拒绝脚手架和不确定性声明整合进日常工作。实践者还要开展对抗性测试、安全最低标准和调试协议,以确保输出持续对齐专业标准,尤其是在敏感领域中。

最后,系统级设计代表最高级阶段。在这一层级,提示词工程师不再把提示视为孤立产物,而是将其视为更大系统中的嵌入式组件。能力包括维护提示登记册、实施版本控制和变更协议,并在治理框架内工作。这一阶段需要跨学科协作,并对已部署提示的机构、法律和文化影响保持敏感。

能力地图不是僵硬层级,而是一条发展轨迹。实践者可能会根据语境和角色,以不均衡方式穿越这些阶段。教育者可能在掌握 CASTROFF 之前优先强调包容性实践,而系统设计师可能会很快进入治理结构。尽管如此,分阶段模型提供了清晰路径:从素养走向精确性,从框架掌握走向安全实践,最终走向系统整合。

通过阐明这张地图,提示词工程领域释放出自身专业成熟的信号。能力不再只通过从模型中引出功能性回应来衡量,而是通过将设计意图与伦理责任、机构治理和长期社会信任对齐的能力来衡量。

表 12-1 提示词工程能力地图

阶段核心技能掌握标志
基础素养区分模糊提示与精确提示;识别偏见/幻觉风险。生成稳定的基础输出;理解提示是设计输入。
精确性与架构为任务搭建脚手架和分层;平衡范围、约束和受众。构造结构化提示;能够跨语境适配模板。
CASTROFF 掌握系统性应用 CASTROFF 维度进行诊断和创作。将 CASTROFF 作为设计框架使用;能够跨维度识别弱提示。
包容且安全的实践整合包容性检查、拒绝脚手架和安全协议。预判伤害;嵌入安全措施;开展对抗性和边界测试。
系统级设计维护登记册、应用版本控制,并在机构层面治理提示。将提示设计为基础设施产物,确保问责和可追踪性。

12.18.1 基于角色的能力发展路径

虽然能力地图提供了分阶段框架,但实践者往往会从不同专业视角进入这些阶段。以下路径展示了不同角色如何强调特定阶段,同时仍然沿着更广泛能力谱系推进:

实践者路径:从基础素养稳步发展到精确性与架构,并强调 CASTROFF 掌握,以服务日常应用。

教育者路径:较早优先考虑包容且安全的实践,确保教学材料和课堂提示体现伦理且可访问的设计。

团队负责人路径:更快进入系统级设计,关注文档化、治理和协作协议,以管理提示登记册。

政策与合规路径:在包容且安全的实践与系统级设计阶段交汇,需要熟悉监管标准和风险框架,以引导组织问责。

跨行业来看,相似能力会以不同方式表现:医疗强调安全脚手架;教育突出包容性语言;公民服务优先考虑透明性和升级路径。

这些轨迹表明,能力不是线性过程。每个角色都会根据自身责任适配共享框架,而所有路径最终都汇聚到同一个专业目标:让提示设计与人类尊严、机构信任和系统问责保持一致。本章后面有一个简短示例,展示一位教育者如何通过在真实课堂提示中逐步应用 CASTROFF 约束,从基础素养走向包容性实践。

12.19 展望

向未来看,提示词工程将从文本扩展到多模态环境,在其中语音、视觉和具身交互将会汇合。它也将成为智能体工作流不可或缺的一部分,在这类工作流中,语言模型不再是独立工具,而是更大系统中的组件。这些发展将进一步提高治理标准的重要性,要求提示词工程师不仅参与技术设计,也参与机构问责和公共信任建设。这个学科的未来,在于在拓展表达可能性与保护人类尊严和系统可靠性之间取得平衡。

12.20 回顾

第 12 章标志着提示词工程从技术新奇事物转变为受到认可的专业学科。随着语言模型嵌入关键系统,塑造人们如何学习、获取服务和作出决策,提示实践必须超越直觉或实验。它现在要求共享标准、伦理反思和专业责任。

第 12.1 节概述了提示如何从非正式试错演化为结构化设计方法。曾经的灵活技能已经成熟为一种跨学科角色,在教育、医疗、法律和治理中承担责任。提示词工程师不再只是为孤立输出写聪明输入;他们正在塑造系统如何在规模化层面与用户互动。这一转变要求认知、沟通、伦理和系统思维方面的素养。

第 12.2 节将提示视角从互动扩展到基础设施。提示越来越多地嵌入工具、仪表盘、公民服务和工作流中,虽然常常对用户不可见,却对其体验至关重要。提示词工程师的角色如今与界面设计、领域知识和机构问责交叉。提示不再关于模型是否聪明;它关乎人类结果。

第 12.3 节考察了提示的伦理与监管维度。构造不良或隐藏的提示可能造成表征伤害、误导性输出或不可访问体验。本节介绍了正在出现的治理机制,包括欧盟《人工智能法案》、提示卡和审计协议。它主张提示词工程师必须记录假设、审慎设计,并开展跨学科协作。

第 12.4 节提出了一份提示词工程师行为准则草案。本节主张专业化不是单靠认证完成,而是通过价值观实现:透明性、可追踪性、用户尊严和协作责任。提示不再只是一项技术;它已经演化为一种影响语言模型如何作用于公众的公民实践。

第 12.5 节呈现能力地图,说明从基础素养到系统级设计的发展阶段,以及实践者、教育者、团队负责人和合规专家的基于角色的发展路径。本节最后展望了多模态提示、智能体工作流和治理标准,并强调该职业的未来在于平衡创新与责任。

这些部分共同确立了提示词工程这一领域:它不仅由技术能力定义,也由伦理立场、社会影响,以及对包容性、以人为中心系统的承诺定义。提示词工程师不再只是系统操作者;他们是 AI 塑造世界中的沟通守护者。

12.21 延伸阅读

对于希望了解影响提示词工程未来的主要标准和权威参考资料的读者,以下来源是有价值的起点:

European Union AI Act(2024) :一个综合性监管框架,对高风险 AI 系统进行分类,并要求人工监督、文档化和问责。

OECD AI Principles(2019) :一套国际标准,强调 AI 设计中的以人为中心价值、透明性和问责。

UNESCO, Recommendation on the Ethics of Artificial Intelligence(2021) :一个全球框架,强调 AI 部署中的公平、包容和人权。

ISO/IEC JTC 1/SC 42, Artificial Intelligence Standards Portfolio:面向 AI 生命周期管理、风险和透明性的技术与治理标准。

Mitchell, M. (2019). Artificial Intelligence: A Guide for Thinking Humans:一本兼具可读性与严谨性的著作,讨论 AI 系统、其局限及社会后果。

12.22 自测题

1. 为什么提示词工程越来越被视为一门专业学科,而不只是技术技能?

a) 因为 AI 公司要求提示词工程师具备正式认证。

b) 因为提示现在涉及编码和系统设计。

c) 因为提示决策会带来公共后果,并塑造真实世界结果。

d) 因为这个职业已经被国际法正式认可。

2. 在已部署系统中隐藏提示,有什么重要伦理风险?

a) 由于模型漂移,提示会变得过时。

b) 开发者可能忘记如何复现结果。

c) 受影响用户无法解释、质疑或审计输出。

d) 用英语编写的提示会让非母语者处于不利地位。

3. 本章如何描述职业与技术技能之间的核心区别?

a) 职业关注个人专长,而技术技能关注团队合作。

b) 职业监管工具,而技术技能自由使用工具。

c) 职业涉及社会责任和共享伦理承诺。

d) 职业由大学学位和官方证书定义。

4. 在专业提示词工程实践中,“提示卡”的作用是什么?

a) 它们提供输出准确性的自动摘要。

b) 它们作为设计聊天机器人界面的 UI 模板。

c) 它们记录提示背后的理由、结构和伦理假设。

d) 它们指导用户如何用自然语言编写提示。

5. 根据拟议的提示词工程师准则,以下哪一项是关键专业承诺?

a) 通过精简输出来最小化用户参与时间。

b) 设计增强机构控制力的提示。

c) 在性能测试后立即部署提示。

d) 反思假设、披露局限,并服务用户尊严。