10.1 什么使一个问题成为“复杂问题”?
不同类型的问题需要不同的方法。有些问题可以通过简单命令或事实查询来解决,例如请求天气预报或计算利率。然而,也有一些问题无法通过直接请求轻易解决。我们称之为复杂问题:这类问题不仅具有不确定性,还包含相互竞争的价值、不断变化的参数,以及多个可能解决方案,而这些方案取决于视角、语境和判断。
一个问题之所以复杂,并不是因为它难以计算,而是因为它难以框定。它往往在语言和意图上都包含歧义。它涉及多个利益相关者,而这些人不仅在解决方案上存在分歧,甚至对什么算“成功”也有不同定义。它无法被简化为单一指标或终点;相反,它会随着时间展开,并受到不完整信息、伦理权衡和社会动态的塑造。气候政策、教育改革、心理健康干预、职场创新和战略规划,都属于这一类问题。
不同于具有预定义输入和输出的技术问题,复杂问题需要支持探索的工具,而不仅仅是执行的工具。它们要求我们能够提出更好的问题、应对不确定性,并想象替代方案。在这种语境中,大型语言模型(LLMs)不是搜索引擎,也不是答案机器;它们是支持构思、分析和反思的认知协作者。如果使用得当,提示会成为一种创造性工具,用于框定问题、生成场景、进行战略性分解,以及展开伦理审议。
本章正是在这类语境中介绍创造性提示技术。它超越命令式查询,探索如何把 LLM 用作设计思维、发散推理、利益相关者映射和适应性规划的伙伴。通过经过仔细结构化的提示,用户可以暴露盲点、模拟替代未来、比较不同价值,并以更有生产力或更具包容性的方式重新框定问题。本章后面会通过简短的提示修改前后对比,说明小的结构变化如何提升推理清晰度。
简而言之,复杂性不是提示的障碍;复杂性正是提示重要的原因。提示不仅提供提取答案的方法,也提供了一种以更高清晰度和控制力应对歧义与不确定性的方法。它是一种植根于好奇心、结构和对话的智识实践。这种实践扩展了人类进行协作性、创造性思考的能力。
10.2 面向发散思维与收敛思维的提示
创造性问题解决需要在发散思维与收敛思维之间取得平衡。发散思维扩展可能性的范围,而收敛思维则将这些可能性缩小为可执行方案。这两种认知模式不是相互对立,而是按顺序运行。支持这两个过程的提示,可以帮助用户以想象力和纪律性同时探索不确定、复杂或含糊的情境。
发散思维与头脑风暴、创意构思和横向思维紧密相关。在提示语境中,这种方法要求用户让模型生成多个视角、自由推测,或从非常规角度重新框定问题。一个设计良好的发散提示,可能要求模型提出问题的意外原因、挑战当前规范的未来场景,或来自不同利益相关者视角的解释。例如,与其问一个职场为什么低效,不如用发散提示追问:“除了时间管理不善之外,团队生产力低下还可能有哪些五个意想不到的原因?” 这种方法强调扩大理解问题的认知空间,而不是立刻得出结论。
为了说明这一点,可以考虑改善拥堵城市中的城市交通这一挑战。一个发散提示可以这样问:“列出十种减少早高峰拥堵的非常规策略,包括来自交通领域之外的方法。” 这会把框架扩大到城市设计、行为激励和数字基础设施。重点不是正确性,而是多样性和广度。
相比之下,收敛思维是评估性和结构化的。它涉及根据一组标准组织、排序或批判选项。用提示词表达时,这可能包括要求模型按可行性或利益相关者影响对方案排序,识别并回应反方论点,或总结决策中的权衡。继续上面的场景,一个收敛提示可能是:“为一个英国中等规模城市,对五项最实用的减堵策略排序,并解释它们在成本、公平性和可持续性方面的权衡。” 在这里,模型会将范围缩小为可执行优先事项。
关键在于,面向创造性问题解决的提示,往往需要将这两种模式串联起来。用户可以先用发散提示生成可能性,再用收敛提示优化、选择或论证决策。大型语言模型的优势在于,它们能够支持完整循环,前提是提示经过精心设计。有效提示会为推理过程搭建脚手架,安排什么时候打开问题空间,什么时候收窄问题空间。掌握这种相互作用之后,提示词工程师就能设计出类似复杂人类推理的交互,并在含糊或高风险语境中支持决策。
10.3 用于推理的 Chain-of-Thought 与模块化提示
复杂问题解决很少能够通过单步回应完成。它更受益于这样一个过程:分解任务、排序中间判断,并通过结构化审议得出结论。有两种互补策略可以支持这一点:Chain-of-Thought 提示和模块化提示。二者结合使用时,可以把开放式问题转化为可处理的推理工作流。
Chain-of-Thought 提示要求模型在给出结论之前呈现中间步骤。提示不应只是问:“新医院的最佳选址在哪里?” 而是要求模型先给出标准、进行比较评估,然后作出决策。在贯穿本章的城市交通改善场景中,一个 Chain-of-Thought 提示可以写成:“扮演一名交通分析师。列出减少英国中等规模城市早高峰拥堵的标准;根据这些标准比较公交优先车道、拥堵收费和受保护自行车网络;然后给出一个选项并说明理由。” 这种结构突出了权衡,例如运力收益与公平影响、资本成本与见效时间。它让人类审查者能够检查推理路径,而不只是查看结论。
模块化提示则把更大的问题拆分为协调一致的子任务,团队可以分别提示、检查并修订。对于同一个场景,一个模块可以估计需求和瓶颈,第二个模块可以考察公平性和可访问性,第三个模块可以评估成本和交付风险,第四个模块可以提出一个六个月试点方案。每个模块都有自己的角色、受众、约束和输出。例如:“作为交通分析师,根据明确假设,按走廊生成一份 120 词的早高峰需求快照;说明两个不确定性。” 配套模块可以是:“作为包容性官员,用 150 词评估对低收入通勤者可能产生的分配性影响,并列出具体风险缓解措施。” 然后,再通过综合提示重新组合这些模块:“将四份备忘录整合为一份 300 词的市议会会议简报,指出一个关键权衡,以及一个需要数据收集的不确定项。”
这些技术可以提升透明性和错误检测能力。它们也需要仔细验证,因为多步骤推理可能引入被忽视的假设、隐含偏见或推测性主张。Chain-of-Thought 会揭示结论如何形成。模块化可以定位错误,使用户能够有针对性地修复,而不必重做整个分析。二者都受益于 CASTROFF。结构决定步骤的顺序和深度。聚焦和功能说明决策目标。角色和受众锚定表达语域,例如分析师用于内部笔记,政策负责人用于简报。约束控制长度和证据边界。输出格式则澄清结果是备忘录、结构化列表还是简报。
随着语言模型支持城市规划、临床分诊或战略等领域中的决策,关键能力不再是引出即时答案,而是设计一个有纪律的推理过程。把 Chain-of-Thought 与模块化提示排序结合,可以实现审慎探索、批判和综合,最终产生可理解、可审计且可以行动的建议。
10.4 面向歧义、不确定性和权衡的提示编程
世界上许多最重要的问题,并不存在单一而直接的答案。相反,它们涉及歧义、不完整信息和相互竞争的价值。无论是设计气候政策、规划医疗治疗方案,还是起草战略性商业决策,用户都经常面对不确定性,并且必须在多个理想但彼此不兼容的结果之间进行权衡。
面对这些情境,提示词工程所需要的不只是指示模型去“解决”问题。它需要以能够揭示歧义、识别冲突性优先事项并支持审议的方式来框定任务。这种方法被称为面向不确定性的提示编程。
在这种语境中,一个结构良好的提示不会要求给出确定答案,而是邀请模型呈现选项、风险和后果。回到城市交通场景,与其问:“减少拥堵的最佳方式是什么?” 更强的提示应当是:“概述在英国城市引入拥堵收费的主要收益、风险和伦理关切。分别呈现低收入通勤者、环保团体和本地商家的视角。” 这种框定能够引出张力,例如公平与效率、短期成本与长期收益,而不会强迫模型过早给出答案。这类探索也需要人类监督,因为开放式推理可能引入有说服力但无法验证的主张。
CASTROFF 框架为这种设计提供了锚点。聚焦清晰定义困境。角色可以要求模型扮演政策顾问、交通经济学家或通勤者倡导者。语气保持平衡,避免过度倡导,同时承认议题敏感性。结构和输出格式则引导模型把相互竞争的论点分开呈现,而不是混合成一个结论。
提示还可以通过脚本化多个视角之间的对话来模拟谈判。例如:“扮演三位利益相关者:城市财政官员、公共交通倡导者和零售协会负责人,围绕新的公交优先走廊提案展开辩论。呈现论点、反驳以及未解决张力的共同总结。” 这不仅让分歧显性化,也有助于映射可能形成共识的条件。
面向歧义的提示,并不是为了犹豫不决;它是为了清晰。暴露权衡,可以让人类在掌握更充分信息的情况下作出决策。在伦理风险高且没有任何结果是零成本的领域中,结构化提示提供了透明性和谦逊感。与其让 AI 输出暗示一种虚假的确定性,不如通过提示编程帮助决策者承认复杂性,并以更强问责感采取行动。
10.5 设计提示:带着约束思考
约束常常被误解为限制,但在设计思维和复杂问题解决中,约束实际上是有生产力的边界。它们引导创造力、聚焦注意力,并澄清优先事项。带着约束进行提示,并不是压制想象力;而是把想象力引导到可行且对语境敏感的结果上。
当用户定义语气、长度、受众或伦理考量等参数时,他们并不只是给出指令。他们是在嵌入问题的设计逻辑。这种实践被称为设计提示,它有意地施加边界,使想法在现实框架内浮现出来。它区分了开放探索与面向决策的推理。
探索性提示会邀请广泛生成,而设计提示则嵌入反映真实世界因素的条件。例如,不是询问“改善城市出行的方法”,而是这样写设计提示:“提出三种在不修建新道路、且年度预算不超过 1000 万英镑的情况下,减少英国中等规模城市拥堵的策略。” 通过突出财政和基础设施约束,这个提示使解决方案必须对现实权衡负责。
这种方法与 CASTROFF 框架天然整合。约束限定可接受的解决方案空间;结构和输出格式引导推理路径;语气和角色校准权威感,例如专家规划师或社区倡导者的声音。它们结合起来,使用户能够模拟一种决策环境,在这种环境中,权衡被明确表达,而解决方案必须在真实条件下竞争。
回到交通场景,规划者可以从一个探索性提示开始,列出所有可想象的干预措施,例如道路收费、新公交走廊、自行车基础设施和数字票务。随后,设计提示可以收窄范围:“识别三项可以在两年内实施、尽量减少对低收入通勤者影响,并降低排放的减堵措施。” 这些约束会过滤掉那些技术上优雅但政治上或社会上不可行的想法,只留下那些能够在可行性、公平性和可持续性之间取得平衡的方案。
设计提示在利益相关者密集的语境中尤其强大。在产品设计中,它可以为视觉障碍用户生成低成本设备功能。在教育中,它可能要求教案在课程覆盖与语言可访问性之间取得平衡。在交通规划中,它确保拥堵策略与预算现实、环境承诺和公平性保持一致。关键在于,输出要接受有意义边界的检验,而不是停留在无约束猜想中。
目标不是困住模型,而是训练用户的推理。清楚表达约束可以建立决策素养:也就是提出“什么使一个方案可行、可接受或公正”的能力。在 AI 辅助工作中,看似合理的答案常常掩盖不可行性,而这种素养至关重要。
本质上,设计提示把提示转化为一门专业技艺。它教用户如何框定可能性空间、权衡相互竞争的价值,并负责任地评估结果。约束远不是缩小创造力,而是锚定创造力,使 AI 成为塑造既有想象力又扎根现实的解决方案的伙伴。
10.6 场景提示:探索可能性与后果
场景提示是处理复杂且不确定问题的有力工具。通过模拟未来条件、投射替代路径或设置可信困境,这些提示帮助用户探索决策可能如何随时间或从不同视角展开。它们并不寻求即时答案,而是澄清假设、测试策略韧性,并暴露隐藏利害。在公共政策、医疗、教育或气候适应等领域,基于场景的提示能够揭示静态查询无法揭示的问题结构。
场景提示与一般问题的区别,在于它面向偶然性和条件性。与其问“管理城市交通的最佳方式是什么?”,场景提示可能是:“设想现在是 2035 年,一座英国中等规模城市增长了 30%。道路空间没有变化。哪些交通政策可以在可持续性、公平性和经济增长之间取得平衡?” 二者差异微妙但重要。这个提示现在嵌入了价值和约束,要求模型在动态且相互依赖的条件下推理,而不是给出永恒、通用的修复方案。
当场景提示纳入基于角色的视角或道德张力时,尤其有效。在交通例子中,可以要求模型分别作为:a)依赖低成本公交的通勤者;b)担心配送延迟的企业主;c)需要在排放目标和选民压力之间平衡的地方议员来回应。通过并置这些声音,提示会引出效率、公平和政治可行性之间的张力。类似地,要求模型预判意外后果,例如公平风险、迁移影响或信任侵蚀,可以突出那些原本不可见的断层线。
大型语言模型擅长跨参照框架生成连贯叙事,而场景提示正是利用这种生成能力。一个结构良好的场景提示,可以实现一种心理预演:映射小型干预如何向外扩散、相互竞争的优先事项如何冲突,以及策略如何在压力下适应。对于城市交通,实践者可以测试多种场景:拥堵收费被接受、被抵制,或被技术变化削弱。这种叙事实验支持早期规划、政策原型设计和伦理审议。
CASTROFF 通过形式化关键维度来强化场景设计。角色指定模型模拟利益相关者、政策分析师还是中立观察者。语气必须适配任务,例如风险分析需要谨慎,社会影响分析需要共情。结构应定义一个序列,例如“当前条件 → 预测变化 → 后果映射”。输出格式可以是比较表或叙事草图,确保不同场景容易比较。最后,聚焦和功能通过要求明确限定语,防止推测性主张被误认为事实。
因此,场景提示不只是想法生成器;它们也是前瞻工具。它们训练用户识别复杂系统如何演化、决策如何跨社会、经济和伦理边界传播,以及未来冲击如何改变轨迹。经过精心设计时,它们会把提示提升为认知建模:一种有纪律的可能性预演,使决策更透明、更适应性强,也更负责任。
10.7 苏格拉底式提示:引导反思与伦理推理
并非所有问题都需要立即解决。有些问题需要时间、对话,以及洞察的逐步展开。无论在专业、公民还是个人领域,人们都会遇到一些难题,它们无法通过技术修复来解决,而需要反思、价值澄清或伦理审议。在这类情况下,提示的角色会从提取答案转向培养问题,因此苏格拉底式提示变得至关重要。
苏格拉底式提示旨在通过提出开放式、分层或反思性问题来激发批判性思维,鼓励更深入的分析。它们不是给出裁决或结论,而是引导用户经历一个探询过程。当人们面对道德不确定性、人际复杂性,或涉及身份、责任和冲突原则的决策时,这类提示尤其有价值。在这些语境中,一个设计良好的提示不会简化问题,而是为更深入的参与创造空间。
这一技术得名于经典的苏格拉底方法:一种偏好有纪律提问,而非陈述式教学的教育方法。当被应用于提示时,这种方法鼓励用户慢下来,审视自己的假设、动机和潜在后果。例如,不是向模型提问“我应该接受这份工作吗?”,而是用苏格拉底式表述:“在职业生涯中,对我来说最重要的价值是什么?这个机会可能如何与这些价值一致或冲突?” 这种重新框定邀请用户进行自我探询,而不是寻求外部指令,从而强化用户在决策过程中的主体性。
苏格拉底式提示特别适合引导伦理推理。当处理数据隐私、算法公平、环境可持续性或公共卫生等领域的权衡时,实践者可以指示 LLM 提出澄清性问题、考察相互竞争的伦理框架,或模拟利益相关者对话。这种方法不仅照亮隐藏张力,也促进一种更加多元且可问责的推理模式。通过提示用户解释、论证或重新考虑自己的立场,苏格拉底方法有助于揭示支撑其选择的底层价值。
重要的是,苏格拉底式提示的有效性取决于语气和节奏。提示设计者应引导模型在充分探索和清晰表达之间取得平衡,确保它既不会过早得出结论,也不会用不必要的复杂性压垮用户。一个恰当提出的问题,可能比一长串备选方案更有转化力。CASTROFF 框架仍然相关,因为它允许设计者把角色框定为睿智顾问、深思熟虑的同伴或反思型咨询者。语气应温和、好奇且非评判。功能不是说服或预测,而是引导反思。结构可以包括一系列问题,从具体情境走向抽象价值,或从选项走向后果。
在专业场景中,苏格拉底式提示可以帮助团队澄清设计决策或政策提案中的伦理维度。在公民语境中,它可以通过帮助公民表达自己的推理,支持公共审议。在个人生活中,它也可以作为情感清晰和价值对齐的工具。跨越这些领域,苏格拉底式提示说明,有效提示并不总是关于找到正确答案;它也关乎提出正确问题。
通过把这一传统嵌入提示设计,用户开始把 LLM 看作镜子,而不是神谕。它们以深化理解的方式映照用户思考。在自动化和信息过载的时代,这种反思能力可能是提示词工程师能够培养的最有价值技能之一。
10.8 面向战略、创新与洞察的提示模板
有效提示需要有意设计,而不是即兴发挥。虽然创造性探索受益于自发性,但战略性问题解决需要能够跨语境使用的、可适配且可复用的结构。从这个意义上说,提示模板是一种智识脚手架:它们是灵活的形式,支持生成性思考,而不规定具体内容。当这些模板被审慎应用时,它们可以加速创新、深化洞察,并支持组织战略、公民规划和研究设计等领域中的系统性反思。
提示模板不只是一个句子开头或格式辅助。它是一种可复用的概念结构,编码了探询逻辑。例如,“基于当前趋势提出三种未来场景,识别它们的风险和机会,并提出一种战略回应”这样的模板,并不只是请求信息;它嵌入了一套方法论。它邀请分析、比较推理和战略综合。这个格式可以被适配到气候适应、医疗规划或产品开发等不同领域,同时保持底层逻辑。
当模板与特定认知目标对齐时,会变得尤其强大。某些提示结构会通过请求反例或分析失败模式,专门暴露盲点;另一些则通过比较竞争性模型或识别不同案例中的模式来促进综合。还有一些模板通过要求模型在变化约束下想象替代方案来支持创意构思。例如,一个创新模板可以这样问:“重新设计这个系统,使其能够在低资源环境中服务不同用户需求,什么会发生变化,为什么?” 这种结构鼓励横向思维和适应性设计。
在专业实践中,提示模板可以帮助个人和团队更快地从歧义走向洞察。它们支持可重复过程,同时不牺牲创造力。战略人员可以维护一套个人提示库,用于竞争分析、利益相关者映射或决策框定。政策制定者可以为利益相关者咨询、场景测试或伦理审查改造模板。构造良好的模板能够启动结构化审议,将自然语言的适应性与流程化推理的方法论严谨性结合起来。
实践者应把这些模板视为灵活指南,而不是僵硬公式,用它们来组织思考,而不是限制创造力。设计良好的提示模板会结合固定元素,例如角色、语气和结构,以及可定制字段,以容纳用户意图、价值观或内容特定细节。这种适应性确保模板在多样化使用场景中保持相关性,同时保留原始设计的方法论完整性。
CASTROFF 框架为构建这类模板提供了有原则的方法。约束决定可接受输出的范围。受众塑造语气和复杂度。结构定义推理阶段。角色和功能决定模型视角和目的。输出格式标准化回应。聚焦于安全兜底,确保伦理或上下文保障。通过把这些元素编码进模板,用户不仅可以提升输出质量,也可以建立一种透明、符合伦理且具备上下文意识的可重复提示实践。
总之,提示模板代表创造力与控制的汇合。它们把提示从临时活动转化为专业方法,通过为用户提供持久的思维工具来支持复杂问题解决。随着组织越来越依赖 LLM 提供战略洞察,那些能够有效设计、适配并部署提示模板的人,将在塑造知情、敏捷且以人为中心的决策方面拥有关键优势。
10.9 面向利益相关者视角与价值冲突的提示
复杂问题很少只涉及单一视角。公共政策、医疗、城市设计和组织战略,都要求利益相关者通过协商来形成解决方案,以调和不同需求、优先事项和伦理承诺。在这类环境中,提示需要的不只是技术清晰性;它还需要有意识地建模价值冲突、角色差异和谈判动态。本节介绍如何设计提示,以暴露、比较并综合利益相关者视角,从而支持更具包容性且更有伦理根基的决策。
这一实践从根本上承认,每个问题都需要通过特定视角来审视。一个没有指定视角的提示,往往会默认采用主流或规范性视角,从而边缘化异议声音,或遮蔽伦理权衡。为应对这一点,提示词工程师必须学会构造能够主动模拟角色变化和利益相关者张力的交互。
多角色提示指示模型采用面对同一困境的多个利益相关者视角。例如,用户可以这样提示:“扮演一名提出减堵政策的城市规划师。然后以一名关注可访问性的残障权利倡导者身份回应。总结双方关切,并提出一个平衡折中方案。” 这种结构让模型能够表达相互竞争的价值,而不是把它们压缩为虚假共识。它使用户在得出立场之前预演审议过程,暴露原本可能不可见的张力。
这种技术也允许围绕冲突性优先事项进行基于场景的推理。比如这样的提示:“设想一名医院管理者、一位慢性病患者和一名公共卫生官员正在讨论一项新的分诊协议。他们主要有哪些共识和冲突?” 模型并不只是列出意见;它是在映射问题的伦理地形。这类模拟能帮助用户预判阻力、制定更公平的政策,并明确说明哪些需求应当优先。
在这种实践中,CASTROFF 框架尤其有价值。设计者必须为每个利益相关者明确角色,并根据权力动态、情感风险或沟通风格调整语气。输出结构应在综合之前保留每一种声音的完整性。此外,提示功能,无论是理解、调解还是决策,都必须被清楚说明。
重要的是,这类提示并不限于机构或公民语境。即便在组织环境中,利益相关者冲突也会出现:软件团队在用户需求和工程约束之间平衡,营销部门在品牌声音和文化敏感性之间协商,领导团队在增长和可持续性之间管理权衡。在每种情况下,能够暴露利益相关者立场的提示,都支持更加透明、有意识和包容的规划。
这种方法也具有教学意义。它训练用户,尤其是没有正式谈判或政策经验的用户,练习认知同理心和批判性反思。通过提示设计进入多个视角,用户能够提升伦理推理能力,并更加敏锐地意识到自身决策的社会后果。
总之,面向利益相关者视角的提示不是抽象概念。它是伦理问题解决的重要工具。它承认解决方案会对真实的人产生后果,而这些人之间存在根本差异;如果得到恰当引导,AI 可以帮助我们暴露这些张力,从而服务于更公正、更有效的结果。
10.10 面向自我引导与人生决策的反思性提示
并不是所有问题都出现在公共系统或专业领域中。我们面对的一些最复杂挑战,是个人性的:我们是否应该换职业?如何在抱负和身心健康之间取得平衡?我们想要建立什么样的人生?这些问题并没有固定答案,而是会随语境、身份和生活经验不断演化的反思。在这类情况下,提示不再是一种控制方法,而是一种自我探询方式。本节介绍反思性提示的概念:这是一种大型语言模型帮助用户澄清价值、探索目标,并以结构和关照应对个人歧义的实践。
不同于面向任务的提示,后者旨在生成输出或解决方案,反思性提示邀请对话。它不把模型视为专家,而是把它视为思考伙伴:一个能够提出有洞察力的问题、组织想法,并把正在浮现的模式镜像回来的伙伴。它不是心理治疗,也不能替代人类建议。相反,它是一种反思脚手架技术,通过结构化语言帮助用户理解自己的优先事项。
考虑这样两种问法的区别:向模型问“我应该离职吗?”,以及提示:“扮演一名职业教练。问我五个问题,帮助我澄清在考虑换工作时的目标、价值观和约束。” 第二个提示把模型的角色从决策者重新框定为促进者。这种方法迫使用户停下来,审视多个维度,并在得出结论前表达自己的视角。这个过程体现了反思性提示的核心原则:审慎、细致且自我引导的决策。
CASTROFF 框架通过为语气、角色和输出结构提供精确性来支持这一过程。在这种语境中,语气尤其关键;反思性提示受益于温和、好奇且非指导性的声音。角色需要被精确定义,例如教练、导师或中立倾听者,以避免模型建议显得像规定性建议。输出结构可以包括列出关键考虑事项、总结困境,或按时间顺序安排反思性问题。设计者应加入安全兜底,明确提醒用户:模型输出是思考催化剂,而不是权威来源。
反思性提示也可以扩展到伦理困境、人际关系和人生规划。例如,“帮我思考为工作搬家与留在家人身边之间的权衡”,或“扮演一名中立调解者。帮助我反思我和同事冲突中的双方立场”,都展示了提示如何在不绕过人类主体性的前提下,支持情感清晰度和有原则的推理。在每个案例中,目标不是逃离不确定性,而是更智慧地身处其中。
从教学角度看,反思性提示说明大型语言模型不仅可以辅助认知,也可以辅助元认知。它教用户提出更好的问题、暴露隐含价值,并更有意图地组织内在对话。对于那些可能从不在专业设计或公民规划中使用提示的读者来说,这一应用极其个人化,但同样有价值。
在一个决策越来越快速、越来越被媒介化和算法塑造的世界中,慢下来思考、反思和建构意义,本身就是一种抵抗。反思性提示为用户提供了一种简单却有力的工具,使他们能够在复杂和不确定时代重新把自己的声音放回中心。它提醒我们,提示不仅是与机器互动的技能;它也是一种让我们成为更深思、更有伦理意识、更具自我觉察的人类的实践。
10.11 用量规评估想法质量
复杂问题解决不仅关乎生成想法,也关乎评估想法质量。如果没有清晰的评估标准,提示可能生成看起来令人印象深刻,但实际上不可行、伦理上有缺陷,或与利益相关者需求不一致的输出。为解决这一问题,实践者可以使用“想法质量量规”(Idea Quality Rubric),这是一种结构化工具,用于从四个维度评估创造性输出:
- 新颖性:与现有方法相比,这个想法有多原创?
- 可行性:这个想法能否在成本、技术和政策等现实约束下实施?
- 利益相关者适配度:这个想法是否回应了受影响最大群体的需求和视角?
- 伦理风险:这个想法是否可能造成伤害、不平等或意外后果?
提示可以针对其中一个标准优化,也可以同时平衡多个标准。例如,在持续讨论的城市交通规划场景中,一个发散提示可以强调新颖性:
“提出减少拥堵的非常规方法,即便它们具有推测性。”
一个收敛型后续提示则可以强调可行性:
“从上面的列表中,识别出两个可以在五年预算周期内实施的方案。”
类似地,一个利益相关者导向提示可以优先考虑:
“从依赖公共公交的低收入通勤者视角,评估这些交通选项。”
最后,为了突出伦理风险,一个红队提示可以问:
“识别拥堵收费方案可能造成的潜在伤害或排斥。”
通过组合这些标准,用户可以构造迭代工作流,让模型在不同评估视角下既提出想法,也测试想法。
CASTROFF 支持这一过程:约束建立可行性阈值,受众引导利益相关者聚焦,语气塑造伦理敏感性,结构确保输出被组织成适合比较的形式。
想法质量量规可以由人工审阅者手动应用,也可以直接整合进提示本身。例如:
“请从 1 到 5 分,对以下交通方案在新颖性、可行性、利益相关者适配度和伦理风险方面打分,然后推荐排名最高的选项。”
这不仅生成比较数据,也训练用户以批判方式思考评估,而不是把模型的第一答案当作足够好的答案。
将量规嵌入提示实践,会把创造性问题解决转化为一个有纪律且透明的过程。它澄清权衡、暴露弱点,并促进问责。最重要的是,它确保创造力服务的不只是原创性,也服务于责任感,交付那些富有想象力、现实可行、具备包容性且伦理可靠的解决方案。
10.12 小结
本章将提示重新框定为一种方法,不只是完成简单任务的工具,而是用于应对复杂、不确定且价值负载问题的方法。本章从复杂性的定义开始,展示了城市交通规划等持续场景如何把抽象技术锚定到现实语境中,而在这些语境里,相互竞争的价值和权衡必须被处理。
结构化策略,例如发散与收敛提示、Chain-of-Thought 推理、模块化工作流、利益相关者映射和红队测试,展示了用户如何拓宽视角、压力测试假设,并综合平衡的提案。想法质量量规进一步为实践者提供了标准——新颖性、可行性、利益相关者适配度和伦理风险——用于系统且透明地评估输出。
关键在于,这些方法把提示设计置于一种伦理作者身份之中。合在一起,这些技术形成一种灵活的推理序列,用户可以根据任务复杂度组合或分层使用。CASTROFF 仍然是核心脚手架,确保创造性探索同时与包容性、责任和专业标准保持一致。
本章最后将提示定位为认知伙伴:一种审议、评估和前瞻的方式。无论是在公民政策、专业实践还是个人反思中,创造性提示都能让用户以更深入、更审慎、更协作的方式与机器共同思考。
10.13 自测题
1. 在提示语境中,“复杂问题”与简单问题或技术问题的区别是什么?
a) 当前 AI 模型无法解决它。
b) 它通常涉及数字推理或编程逻辑。
c) 它包含歧义,涉及多个利益相关者,并且没有单一正确解决方案。
d) 它需要超过一百个 token 的提示。
2. 为什么在复杂问题解决中,将发散提示和收敛提示配对具有教学价值?
a) 它允许模型给出相互矛盾的答案用于比较。
b) 它在创造性探索和结构化评估选项之间取得平衡。
c) 它缩短提示长度,同时不丢失信息。
d) 它确保不同模型版本之间输出格式一致。
3. 模块化提示对推理任务的主要好处是什么?
a) 它增加输出生成的随机性。
b) 它生成更长输出,因此更容易评估。
c) 它通过隔离复杂任务的子组件来简化推理。
d) 它避免了在每一步指定角色或语气的需要。
4. 苏格拉底式提示如何帮助 LLM 进行伦理问题解决?
a) 通过鼓励模型直接提供法律建议。
b) 通过指示模型避开有争议话题。
c) 通过引导用户经历一系列反思性问题,而不是直接断言结论。
d) 通过把所有答案改写为被动语态,以保持中立。
5. 在个人语境中,是什么使反思性提示成为 LLM 的一种伦理上独特的应用?
a) 它绕过了使用 CASTROFF 框架的需要。
b) 它完全依赖预定义模板。
c) 它把模型定位为思考伙伴,用于支持用户主体性和自我觉察。
d) 它鼓励用户为人生困境寻求快速答案。