6.1 为什么我们需要一个标准化提示框架
6.1.1 CASTROFF 一页速览
表 6-1 中总结的 CASTROFF 各个维度,确立了本章将详细展开的词汇体系。接下来将说明,为什么这样一个结构化框架是必要的,尤其是在专业环境和受监管环境中,临时性的提示已经不足以胜任。
表 6-1
| 维度 | 定义 | 好示例 | 弱示例 | 常见陷阱 |
|---|---|---|---|---|
| Constraints 约束 | 对长度、范围或格式的明确限制 | “用 150 词写出,使用项目符号。” | “简要解释。” | 模糊限制会导致冗长 |
| Audience 受众 | 目标读者或用户语境 | “为 12 岁儿童总结。” | “总结这个。” | 默认变成泛化声音 |
| Structure 结构 | 指令的内部组织方式 | “先概述原因,再说明影响。” | “解释原因和影响。” | 扁平指令 → 不连贯 |
| Tone 语气 | 语言的情感/态度特征 | “用温暖、有同理心的语气写。” | “写这个。” | 语气默认变成冗长中立 |
| Role 角色 | 分配给 AI 的身份或视角 | “扮演安全官。” | “给建议。” | 角色含糊会混淆声音 |
| Output Format 输出格式 | 回应的交付形式 | “用三行表格回答。” | “列出要点。” | 需要结构化数据时却生成不可用散文 |
| Focus 聚焦 | 回应的主题优先级 | “强调风险,而不是收益。” | “讨论这个主题。” | 漂移到旁枝话题 |
| Function 功能 | 输出的沟通目的或任务 | “从法律合规角度批判这个。” | “写一下这个。” | 目的错位会降低价值 |
随着生成式 AI 在教育、设计、医疗和法律等行业中的使用不断扩散,撰写提示这一行为,越来越被视为一种技能,哪怕它尚未完全成为一门独立学科。然而,与传统编程或正式写作不同,提示仍然缺乏结构,也缺乏一致性。实践者往往依赖直觉、试错或复制来的模板,而不是有原则的方法。在缺少共享标准的情况下,输出质量不仅在不同领域之间差异很大,甚至在同一用户会话中也会出现显著波动。这种不一致性削弱了 AI 工具的可靠性,也削弱了用户对它们的信任。
建立标准化提示框架的理由,来自两个逐渐汇合的需求。第一,人们越来越需要让提示设计、记录、审计和复用变得专业化。随着 AI 被嵌入医疗、公共服务和教育等受监管环境,提示不能再保持临时性。它们的表述会带来伦理、法律和社会后果。例如,在医疗助手工具中,一个措辞不当的提示可能导致关键信息安全提示被遗漏。在这类语境中,专业人士必须以对待其他技术工具和沟通工具同样的严谨性来对待提示设计。
第二,如果没有一种共同语言或结构来描述提示策略,实践者就缺少反思、评估和改进这些策略的工具。教育者只能有效教授或评估那些已经被恰当形式化的概念。学生和专业人士常常很难识别一个弱提示到底哪里出了问题,也很难解释为什么一个细微改写会带来显著更好的结果。反过来,这种缺口也让共享提示库建设、用例比较,以及基于可迁移技能的培训项目开发变得困难。
CASTROFF 正是为了回应这一缺口。它不是公式,而是一套用于提示规划、分析和重设计的结构化词汇。它借鉴了用户体验设计、语言学、技术传播和应用伦理中的原则。这个缩写中的每一个维度——Constraints 约束、Audience 受众、Structure 结构、Tone 语气、Role 角色、Output Format 输出格式、Focus 聚焦和 Function 功能——都代表一种核心考量,会影响提示如何被 AI 系统解释,也会影响用户如何体验其结果。
这个框架帮助专家工程师、教育工作者、公共部门专业人士、设计师以及非技术用户,以更精确、更审慎的方式使用 AI。通过把提示的组成部分拆解为可检查的元素,CASTROFF 使我们能够从把提示视为即兴发挥,转向把提示视为一种有意图、负责任的技艺。
这个框架也直接建立在第 2 章介绍的“提示词解剖”概念之上。提示词解剖概述了单个提示的基本构件,而 CASTROFF 则将这些基础扩展为一种专业标准,使提示能够在不同语境中被一致地分析、教学和审计。在实践中,每个 CASTROFF 维度都可以映射回那些基础构件,但它增加了精确性、范围和评估标准。因此,它不是对早期模型的替代,而是对其的形式化和扩展,帮助读者把已有理解与一种面向实践、审计和教学的结构连接起来。
6.2 C 代表 Constraints:约束
在提示词工程语境中,约束指的是 AI 模型必须在其中运行的边界,以便生成合适、安全且符合上下文的输出。这些约束可以是技术性的、伦理性的、特定领域的,也可以由用户自定义;它们在决定提示成功或失败方面发挥核心作用。
大型语言模型以概率方式处理语言输入,这不同于执行硬编码指令的传统软件,因此用户必须通过语言而不是编程来表达约束。当约束模糊或缺失时,模型可能默认生成通用、冗长甚至误导性的回应。然而,当约束被精确表达,尤其是被纳入提示结构中时,它们就会成为引导模型行为的强大机制。
提示中的约束可以有许多形式。有些约束规定输出长度,例如要求模型用少于 100 词回答。有些提示规定格式或风格要求,例如使用项目符号、表格或正式学术语气。有些提示引入主题边界,要求模型聚焦特定地区、时期或知识领域。还有一些提示定义功能性要求,例如要求以 JSON 格式输出、禁止修辞性语言,或完全避免推测。
即便这些约束看起来很简单,遗漏它们也可能产生不成比例的影响。学生请求“简短解释”,如果没有明确界定“简短”,可能会收到一篇长文。求职者如果没有说明“使用简历风格项目符号”,可能会得到散文化文字,而不是可用的列表。缺少明确约束会引入歧义,而语言模型往往会用冗长或跑题来填补这种歧义。
医疗、法律和金融等高风险领域,要求设置约束不仅是伦理要求,也是专业义务。这些领域运行在严格规则之内,相应的提示也必须如此。约束模型范围并不只是风格选择;它是一种保护机制,用来防止生成有害、误导或不合规的内容。
最终,一个有效提示并不只是输出请求。它是一份协商出来的契约。约束定义了模型的角色、用户的期待,以及相关性的边界。人类对话依赖隐含理解,而人机沟通则要求每个细节都被明确表达。清晰定义的约束,正是将非正式提示转化为有纪律实践的关键。
6.3 A 代表 Audience:受众
在传统沟通中,有效表达者会根据受众调整信息。提示词工程也遵循同样原则。每一条提示都应该从清楚理解输出面向谁开始。如果没有明确的受众意识,AI 会默认采用一种通用立场,生成在技术上可能正确,但往往不合语境、模糊或不适合目标读者及使用场景的内容。
用户必须明确说明提示是面向五岁儿童、忙碌的高管,还是同行研究者,因为大型语言模型无法自动判断这一点。提示词工程师也必须把文化期待、专业规范和可访问性需求明确纳入提示语言中,因为模型并不天然理解这些参数。
定义受众能够澄清语气、词汇、细节层级和结构。面向高中生的科学解释,应避免假定专业知识的术语和隐喻。面向政策制定者的提示,可能需要优先考虑简洁、清晰和可执行建议。商业分析师可能需要表格化摘要或数据驱动洞察,而新手用户则可能更受益于类比和逐步解释。
受众指定也可能具有伦理重量。例如,当提示 AI 生成心理健康建议时,说明接收者是一名正在经历焦虑的青少年非常关键;这不仅关系到语气,也关系到避免生成医学上不适当或情感上有伤害的内容。同样,教育类提示也必须考虑学习者的语言水平、文化语境和已有知识。
在专业场景中,受众意识区分了随意实验与可靠的 AI 集成。恰当实施可以确保 AI 生成内容满足客户、学生、患者或决策者所需的专业标准;忽视这一点,则常常导致输出需要大量修改,甚至必须撤回。
在提示词工程中,受众不是事后补充。它是一项设计参数。最有效的提示,是那些不只是把 AI 当成内容生成器,而是把它当作代理沟通者的提示。当受众被清晰定义时,提示不仅更精确,也更具人性化。
6.4 S 代表 Structure:结构
在人类沟通中,结构帮助我们跟随复杂想法。提示大型语言模型时也是如此:结构化提示会带来结构化输出。即使提示的范围界定得很好,如果缺少清晰结构线索,也可能生成散漫、不连贯或组织混乱的回应。
提示中的结构,指的是任务的内部组织方式。它包括指令如何排序、输出应该包含哪些部分,以及回应是否应该遵循某种已知模式,例如编号列表、表格、三幕式论证或“问题—解决方案”格式。结构构成模型推理过程和内容选择的基础,但它不同于输出格式,后者将在第 6.7 节讨论。
例如,要求 AI “analyze this data” 可能得到摘要、批判或预测,具体取决于模型如何理解 “analyze”。但是,如果提示明确说明:“首先用通俗语言总结趋势,然后用项目符号列出风险,最后给出三句话建议”,模型就有了可以遵循的结构。这种脚手架并不会限制 AI;它是在引导 AI。
结构化提示对推理任务尤其强大。例如,Chain-of-Thought 提示之所以有效,是因为它施加了一种模仿人类逻辑的逐步结构。类似地,第 4 章讨论过的 Tree-of-Thought 和 Self-Ask 提示策略,也依赖内部提示结构来提示模型在得出结论之前进行发散、评估或自我提问。
在真实实践中,结构使提示能够规模化。使用 AI 写报告、写代码、做设计或处理客服的团队,常常依赖模板或模块化结构来保证质量和可重复性。没有结构,即使指令本身很强,也可能生成看起来随意或不一致的输出。
对人类用户而言,结构提高可解释性。对 AI 系统而言,结构提高可预测性。在提示词工程中,结构就是将模糊意图转化为可复现表现的东西。
6.5 T 代表 Tone:语气
语气指的是语言中表达出的方式或态度,也包括那些影响信息如何被接收、解释和重视的细微信号。在人类沟通中,语气往往比内容本身更有分量。人机交互中同样如此。在提示词工程中,语气不仅决定模型说什么,也决定模型如何说;它塑造输出在情感、社会和专业层面的共鸣。
语言模型能够模仿各种各样的语气,从友好、对话式,到正式、紧急或中立。然而,如果没有明确的语气指导,模型通常会默认采用一种通用声音,通常是中立、略显冗长并带有谨慎乐观色彩。这对基础任务可能足够,但在专业、教育、法律或治疗语境中可能造成错位,因为这些场景中的语气必须准确反映领域规范或用户敏感性。
设想一个场景:AI 需要为刚被诊断出慢性病的患者制作一份医疗信息手册。如果提示没有定义语气,模型可能生成过于技术化,或不恰当地乐观的文本。相比之下,如果提示指定“使用令人安心且有同理心的语气,并采用适合非专业受众的易懂语言”,就更可能得到在伦理上可靠、在情感上协调的输出。在这里,语气成为一种照护形式,它超越正确性,进一步考虑人的影响。
语气也在感知权威和可信度方面发挥关键作用。法律简报需要克制、客观的语气,而励志演讲可能需要说服力和修辞强调。即使事实内容正确,语气不匹配也可能破坏沟通意图。在面向公众的文件中,这可能导致声誉风险或受众疏离。在哀伤支持、基于性别的暴力或移民服务等敏感语境中,校准不当的语气甚至可能造成伤害。
专业人士必须有意识地校准语气:既要在提示中指定期望语气,也要验证模型输出是否准确且一致地保持这种语气。需要记住的是,语气并不是一个静态特征,而是一个上下文特征。同一个用户在不同任务中可能需要不同语气,例如入职材料中的友好语气、合规文档中的正式语气,或数据报告中的中立语气。
从伦理角度看,语气会影响信任。合适、尊重且判断得当的 AI 生成内容,会提升用户参与度和行动意愿,尤其是在多文化或多语言语境中,因为不同语气细微差异可能相当大。因此,提示词工程师在指定语气时,必须考虑文化敏感性、组织规范和人际期待。
为支持这一点,提示应在相关场景中包含明确语气线索,例如:“为高级政策制定者写一段两段式摘要,使用正式且尊重的语气”,或“用支持性和鼓励性的语气向青少年解释这个问题”。这些指令同时具有实践功能和规范功能:它们帮助模型生成合适语言,也强化任务中嵌入的人类价值。
总而言之,语气不是装饰。它是一个核心沟通变量,会调解意义、塑造感知,并影响关系中的信任。在精确提示中,语气必须被有意指定、批判性评估,并以伦理方式设计。有效使用语气时,它不仅提升信息清晰度,也提升接收者的尊严感。
6.6 R 代表 Role:角色
在提示词工程中,角色指的是在某项任务中分配给 AI 系统的沟通身份。它决定模型回应所采用的视角、声音和假定专业能力。虽然语言模型并不真正具有字面或心理意义上的身份,但它们对提示中嵌入的角色线索高度敏感。这些线索会显著塑造输出的语气、结构和认知框架。
角色型提示并不只是设定氛围或风格偏好;它支配模型的修辞定位。在专业场景中,这决定了 AI 是作为解释者、顾问、编辑、分析师还是协作者。例如,要求模型“扮演一位科学老师,向 14 岁孩子解释气候变化”,会生成明显不同于“作为为政府官员写作的政策顾问解释同一问题”的输出。知识深度、术语、重点和呈现方式都会随之变化。
分配角色可以帮助提示词工程师复现某种领域专业能力或沟通视角。这在法律、教育或医疗等要求清晰性、一致性或权威性的领域中特别有价值。例如,把模型设定为安全官来审查工作流程时,模型往往会突出风险和合规性。相比之下,在同一语境中,如果设定为营销策略师,它可能更强调呈现和参与感。在每种情况下,角色线索都会引导模型从训练数据中检索并优先考虑相关模式,从而减少解释歧义。
清晰定义的角色也能增强伦理和功能上的精确性。在高风险或情感敏感应用中,角色指定可以确保模型语言与专业责任保持一致。要求模型“扮演一位支持性的同伴,为考试焦虑者提供鼓励”的提示,与临床或诊断方式构成根本不同的框架。在这里,角色选择也成为一种边界,限定什么样的内容是适当、负责任且符合上下文的。
必须区分角色和语气。语气关系到某件事如何被表达,而角色决定底层目的和视角。同一个角色,例如历史学家,可以使用多种语气,例如正式、对话式或批判性。同样,中立语气也可以服务于多个角色,例如记者或调解者。有效提示取决于能否同时校准这两个维度。
从教学角度看,角色型提示也支持学习和探索。把模型设定为模拟导师、审阅者、教练或同伴,可以让用户在获得指导和支持的情况下探索不熟悉材料。这种方法尤其有益于需要定制化解释的非专家,也有益于需要模拟替代观点和利益相关者立场的专业人士。在这些情况下,角色不仅是一个控制参数,也是一个视角转换和对话工具。
然而,角色忠实度存在边界。语言模型无法真正像律师那样推理,也无法像治疗师那样提供情感支持。角色模拟依赖语言近似,而不是生活经验或机构训练。因此,角色型提示必须谨慎撰写,并被批判性评估,尤其是在需要认证、照护义务或文化敏感性的领域中。
总之,CASTROFF 中的角色维度提供了一种机制,用于缩小范围、对齐专业能力,并塑造 AI 生成内容的视角。当角色被清晰指定时,它们能够减少歧义、提升相关性,并支持伦理清晰性。在专业级提示中,分配角色不是点缀,而是一种设计策略,它为人机交互带来连贯性、可信度和上下文智能。
6.7 O 代表 Output Format:输出格式
输出格式决定 AI 回应的外部呈现结构。结构(第 6.4 节)决定思想的逻辑组织,而输出格式则控制这些思想的视觉或文本呈现方式,包括列表、表格、段落、代码片段、邮件草稿、幻灯片大纲或其他产物类型。在提示词工程中,明确指定输出格式不仅能够控制清晰度和可读性,也能使输出符合给定任务、领域或工作流的期待。
当输出格式被省略或保持隐含时,语言模型通常会默认生成通用散文,通常是段落形式,而且往往过于冗长。这在非正式互动中或许可以接受,但在专业场景中往往不够用,因为内容必须易于扫读、为行动而结构化,或能够直接插入另一个系统。例如,在技术文档中,无序函数列表可能比叙述性描述更可用;在法律实践中,用项目符号总结条款可以支持快速审阅;在教育中,表格化比较可能更好地突出关键差异。
指定输出格式还能提高互操作性。应用型工作流通常会纳入 AI 生成输出,而这些输出需要精确的格式规范。商业分析师可能需要 CSV 格式的模型输出以支持数据导入。程序员可能请求 JSON,以便在 API 中使用。传播官员可能希望输出被格式化为 Markdown,用于内部文档。如果没有清晰表达格式约束,AI 系统可能生成风格上正确、但结构上不可用的内容。
此外,格式指定也常常增强可访问性。认知或视觉障碍用户可能更受益于项目符号或编号步骤形式的内容。请求清晰格式的提示,例如要求使用标题、强调或换行,可以降低认知负荷,让内容更具包容性。在这类情况下,格式不仅是功能问题,也是公平问题。
在提示词工程中,也有必要区分作为交付形式的格式与作为指令的格式。输出格式决定回应如何呈现给读者或系统,而角色分配则引导模型在特定沟通语境中的行为。例如,“以项目符号列表呈现”是一条交付指令。同时,“提供三个优势和三个局限,每项另起一行”既引导内容结构,也引导格式。有效提示通常二者兼有:既定义格式以提升可读性,也指定结构预期以确保完整性。
不过,过于刚性的格式约束有时会限制模型流畅回应的能力,尤其是在创造性或探索性任务中。有效提示需要在提供精确指令和允许适应性语言使用之间取得平衡。在高风险场景中,偏向具体性通常更稳妥。在低风险或生成性语境中,更宽松的格式可能更支持创造性探索。这个决策应反映任务的沟通目的和用户的认知需求。
总而言之,输出格式并不只是呈现问题;它是提示词工程中的一个关键维度,会影响清晰度、可用性、可访问性和互操作性。无论是作为视觉指南、数据容器,还是修辞形状,只要明确指定输出格式,提示词工程师就能提升 AI 生成回应的可靠性、效率和专业性。在 CASTROFF 框架中,格式不是事后补充,而是一个交付脚手架,连接人机沟通中的意图与实施。
6.7.1 F 代表 Focus:聚焦
聚焦指的是定义 AI 在回应中应优先考虑什么的概念边界。约束(第 6.2 节)定义的是操作性限制,例如字数、语气或风格;而聚焦决定的是框定任务的认知视角。它指示模型强调主题中的某些方面,同时忽略或降低其他方面的优先级。这样一来,聚焦塑造的不只是输出内容,也包括输出的解释中心。
语言模型能够检索并组合广泛信息。然而,如果缺少清晰的聚焦线索,输出可能会变得发散,覆盖旁枝话题,重复想法,或呈现技术上正确但策略上错位的内容。一个要求“概述可再生能源”的提示,可能生成一个混乱组合,混杂技术类型、全球统计数据和政策辩论。更聚焦的提示,例如“为政策受众总结撒哈拉以南非洲太阳能采用的经济障碍”,则创造了一个更清晰的框架。它定义了范围、受众和主题重点,而这些都会塑造回应的信息意图。
主题、流程或分析维度都可以建立提示的聚焦。主题聚焦指示模型集中于特定内容领域,例如只谈原因不谈解决方案,只谈风险不谈收益,或只谈影响不谈背景。流程聚焦可能限制注意力只放在工作流的特定阶段,例如只谈数据收集而不谈分析,或只谈诊断而不谈治疗。分析聚焦则优先考虑某种推理形式,例如因果解释、比较、批判或解释。所有这些方法都可以直接嵌入一条设计良好的提示语言中。
聚焦的重要性,在专业和机构场景中尤其明显,因为用户常常需要模型服务于某个特定沟通目的。研究助理可能被要求只呈现某个主题上的相互矛盾发现。法律顾问可能请求突出监管风险,同时排除描述性评论。公民参与官员可能需要一版强调社区关切、同时省略技术语言的文档。在每个案例中,目标不是限制知识,而是把注意力导向相关性、清晰性和沟通效用。正如第 2 章的提示词解剖所讨论的,聚焦与约束共同发挥作用,不仅确立任务边界,也确立任务的智识中心。
从伦理角度看,聚焦也在透明性方面发挥关键作用。缺乏聚焦的提示可能生成看似全面的输出,但会掩盖偏见、遗漏关键观点或错误呈现不确定性。如果提示没有引导模型关注最相关、最及时或最具包容性的信息,就可能无意中复制主流视角,同时边缘化其他观点。因此,提示词工程师必须把聚焦视为一种战略性和规范性问题。模型包含什么、遗漏什么,都反映了人类设计者所作出的框定决策。
必须区分聚焦和功能。功能定义输出为什么而生成,例如为了告知、说服、分析或建议。聚焦则指定在该目的下哪些内容受到关注。例如,一份政策简报的功能可能是告知立法者,但它的聚焦可以仅限于经济风险,而不是提供详细技术信息。区分两者,可以确保提示既与任务相关,也在强调内容上足够精确。没有这种区分,输出就可能宽泛但浅薄,或虽然有针对性却与预期用途错位。
聚焦也不同于完整性。聚焦回应会在其指定参数内保持深度。精确提示的一个优势就在于,它可以实现“有深度但不求宽泛”,让用户通过把问题从周围噪声中隔离出来,以更高严谨性探索议题。因此,明确命名焦点关切的提示,往往能生成更有用、更可解释且更具上下文意识的输出。
总之,聚焦决定提示的主题核心或分析核心。它锐化 AI 的注意力,使输出与用户意图对齐,并通过让框定决策透明化来促进伦理意识。在 CASTROFF 框架中,聚焦不是缩小可能性,而是澄清目的。它使提示词工程师能够超越泛化内容,走向有意义、有方向的沟通。
6.7.2 F 代表 Function:功能
功能指的是 AI 生成输出的预期用途或沟通目的。语气、角色和格式会影响内容的交付方式,而功能则建立了内容被创建的底层原因。在提示词工程中,这一维度将任务锚定在真实世界目标中,无论目标是告知、说服、指导、评估、总结、批判还是建议。清晰定义的功能,可以通过让模型行为与更广泛的沟通目的对齐,避免生成技术上准确但上下文中不合适的输出。
一个要求“总结近期关于教育中 AI 的研究”的提示,会让功能保持开放状态。这个摘要是给政策制定者、学生、教育者,还是资助者看的?目标是支持某个决策、辅助教学,还是塑造公众理解?这些目的中的每一种,都需要不同的重点、词汇和结构。如果缺少功能框定,输出可能变得模糊、错位,甚至适得其反。
通过定义目的的动词,将功能直接嵌入提示,可以帮助模型更有效地选择和优先处理信息。以 “Summarize to inform a public consultation”“Critique this proposal from a legal standpoint” 或 “Generate questions to test comprehension” 开头的提示,会立即设定方向。它们定义了输出的目的,而不仅仅是外观,从而创造更可行动的提示和更有价值的结果。
在应用场景中,功能也与监管和伦理要求发生互动。例如,用于生成临床信息的提示,与用于提供情感安抚的提示,必须服务于不同功能。诊断工具必须优先考虑精确性和谨慎性,而客服助手必须在效率和清晰度之间取得平衡。错误识别功能,或根本不指定功能,可能导致不合适的语气、内容遗漏或意外后果。
功能通过让评估者能够判断内容是否实现其指定目的,增强可审计性并促进人工审查。一个被清晰指定的功能,会让人更容易判断结果的相关性、准确性和完整性。提示设计中的清晰功能意图,也促进类似用例、组织或工具之间的复用。
还需要注意的是,一条提示中可能同时存在多个功能。例如,一条提示可能既要告知又要说服,或者既要指导又要建立信心。在这些情况下,提示设计者必须决定哪个功能拥有优先级,并把这种层级传达出来。把这一决策明确写进提示,有助于模型以更高连贯性和一致性处理复杂期待。
功能不同于聚焦。聚焦决定 AI 应在回应中强调什么内容,例如经济障碍、社区关切或比较风险。功能定义输出最终是为了什么,也就是它在人类沟通中的角色,例如告知、说服或建议。同一个聚焦可以服务于不同功能,而同一个功能也可以采用不同聚焦。保持这种区分,能确保提示在重点上保持精确,在结果上保持目的性。
最后,功能是设计意图与人类需求之间的桥梁。它提醒我们,AI 生成输出不是目的本身,而是更广泛沟通链条中的工具。模型并不只是生成语言;它参与的是一项具有目标、影响和后果的任务。在 CASTROFF 框架中,功能将提示锚定在目的之上。这种方法把提示从技术练习提升为有目的的设计,使语言、结构和伦理与人类目标保持一致。
6.7.3 澄清说明:Focus 与 Function
Focus 设定内容边界:强调什么、突出什么,或排除什么。它控制范围和深度。
Function 定义输出必须完成的工作:解释、说服、总结、指导、安抚等。
二者结合时,Focus 确保纳入正确材料,而 Function 确保这些材料以适合任务的方式交付。
示例
Focus:“总结气候变化的原因。”
→ 输出会强调温室气体、森林砍伐和能源使用。
Function:“写一份关于气候变化的公众意识宣传页。”
→ 输出会简短、有说服力,并包含行动号召。
同一个主题,不同的结果。Focus 缩小覆盖内容;Function 指示它如何服务读者。
6.7.4 快速分诊流程图:该调整 CASTROFF 的哪个旋钮?
当提示出错时,先从症状入手。调整与问题最匹配的 CASTROFF 维度:
- 输出太长 → 收紧约束,例如字数、项目符号。
- 输出太短/太薄 → 扩展聚焦,例如增加范围、细节或示例。
- 回答偏离主题 → 锐化功能,清楚说明任务。
- 语气感觉不对 → 调整语气,例如支持性、中立、正式、通俗。
- 风格不可访问/令人困惑 → 修正结构,例如步骤、标题、列表。
- 模型忽视角色/受众 → 重置角色或受众。
- 答案冗长/技术性过强 → 简化输出格式,例如通俗英语、CEFR B1/B2。
- 信息感觉不平衡 → 优化聚焦,强调真正重要的内容。
可以把 CASTROFF 想象成一个控制面板:小幅调整通常比从头重写更快修复提示。
6.7.5 回顾:CASTROFF 框架
本章介绍了 CASTROFF 框架,将其作为分析、设计和评估人机沟通中提示的一项专业标准。CASTROFF 为提示词工程提供了一套结构化词汇,包括八个相互关联的维度:约束、受众、结构、语气、角色、输出格式、聚焦和功能。每个维度都能在构造 AI 指令时带来更高的清晰度、控制力和伦理对齐。
这些元素共同把提示从试错活动转化为一个有意图、可检查的过程。约束定义长度、范围或格式等操作性边界。受众意识使输出能够满足特定群体的具体需求、背景和期待。结构提供内部组织,引导模型的推理过程;而语气则塑造语言中的情感和人际质量。角色为 AI 分配沟通视角或身份,例如导师、分析师或同伴,这会影响输出的框定方式和权威性。输出格式控制交付形式,无论是散文、列表、表格还是代码,并确保与工作流或可访问性要求兼容。聚焦会锐化模型对任务相关方面的注意力,而功能则澄清生成行为背后的真实世界目的。
虽然每个 CASTROFF 维度本身都有独立意义,但它们的组合使用,才是提示词工程能够支持专业级输出的关键。在实践中,它们并不是彼此孤立的参数,而是相互重叠的设计原则。语气变化可能影响受众适配;结构变化可能支持或削弱预期功能。理解这些关系,可以帮助提示词工程师诊断弱提示、修复错位,并以更高意图性进行设计。
随着 AI 被嵌入沟通、教育、治理和照护系统,对结构化提示框架的需求变得关键。CASTROFF 通过同时提供概念清晰度和实践适用性来回应这一需求。它不是一个要僵硬遵循的公式,而是一种思考和讨论提示质量、安全性与目的的语言。
下一章将通过诊断分析、提示优化、团队协作和真实案例,展示 CASTROFF 的实践应用。通过掌握 CASTROFF 框架,实践者将进一步接近构建负责任、透明且有效的人机互动。
6.8 自测题
1. 在结构良好的提示中,约束的主要功能是什么?
a) 减少模型回应的整体长度。
b) 完全防止模型幻觉。
c) 限定范围并澄清期待。
d) 增强输出的情感语气。
2. 为什么在提示设计中指定受众很重要?
a) 它指示模型使用互联网来源。
b) 它定义模型应采用的角色。
c) 它校准回应的语气、相关性和复杂度。
d) 它将输出压缩成更小的文件大小。
3. 在 CASTROFF 框架中,结构与输出格式有什么不同?
a) 结构影响语气,而格式控制字数。
b) 结构指内部布局,格式决定文件类型或媒介。
c) 结构改变 AI 的个性,格式决定句子长度。
d) 结构和格式在功能上等同。
4. 当用户要求 AI 扮演政策分析师时,应用的是哪个 CASTROFF 要素?
a) 角色。
b) 聚焦。
c) 功能。
d) 受众。
5. 在提示中加入聚焦的目的是什么?
a) 确保完美语法输出。
b) 将模型注意力引向特定优先事项或解释角度。
c) 在所有情况下防止偏见。
d) 生成更短、更简洁的回应。