你问AI一个问题,它秒回你一大段。
你看了两眼,说不上哪里不对,就是觉得没法直接用。
这种感觉很常见。多数人会觉得是AI不够聪明。
其实不是。是你问得太直接了。
前三篇我们聊的都是怎么把需求说清楚。给背景、给例子、给角色、给推理步骤。有一个问题,就想办法把它描述得更精确,AI就给你更精确的回答。
这条路没错。但走到一定程度会撞墙。
有些问题,不是你描述得不够精确,是提问的起点就偏了。
就像你问一个顾问"我该不该降价",如果他只围着降和不降两个选项打转,说明他思考问题的层次不够。但你不能怪他,因为是你把他框在了这两个选项里。
AI也一样。你给它什么样的起点,它就在什么层次上思考。
今天聊两个技巧,都有一个共同特点:反直觉。你以为直接问最快,但这两种方法都要你多绕一步。绕完之后,输出质量会有明显的跃升。
第一个技巧:后退一步再提问(Step-Back Prompting)
说一个你大概率遇到过的场景。
你的SaaS产品定价299/月,竞品刚降到199/月。你问AI:"我该不该降价?"
AI的回答大概是这样的:竞品降价了,你如果不跟可能丢客户,但降价会影响利润,建议你做个市场调研再决定。
看完什么感觉?
说了等于没说。
问题出在哪?你问它该不该降价,它就围着"降"和"不降"两个选项打转。它不知道定价决策还牵扯哪些变量,不知道你的客户留存率、获客成本、差异化优势应该怎么放在一起分析。
回答不是错了,是浅了。
浅的原因是你给它的思考起点太低。
Step-Back Prompting做的事情很简单:在你问真正的问题之前,先问一个更宏观更深层次的问题。
还是定价那个例子。不要直接问"该不该降价",先问第一个问题:
"B2B SaaS产品的定价决策,核心需要考虑哪些变量?竞品降价时,跟进和不跟进各自适合什么情况?请给出一个系统的分析框架。"
AI会给你一个包含客户价格敏感度、差异化程度、市场阶段、毛利结构等多个变量的框架。
然后你再问第二个问题:
"基于上面的框架,分析我们的情况:产品定价299/月,竞品降至199/月。我们的优势是服务响应速度和客户成功体系,留存率90%,但新客户获取成本偏高。目标客户是50-500人规模的企业。请给出定价建议和理由。"
同样一个定价问题,两种问法,拿到的东西完全不在一个层次上。
原因不复杂。第一步那个"后退一步"的问题,帮AI激活了训练数据里关于定价策略的系统知识。它不再围着降和不降打转,而是拿着一个多维度的分析框架来审视你的具体情况。
你去看那些好的咨询顾问,没有人上来就回答"该不该降价"。他一定先说:"我们先看看定价策略的核心变量有哪些。"
看完全局,再回来讨论你的情况。这一步退后看全局,让建议有了根基。
Step-Back就是让AI也走这一步。
再看一个例子。你是一家15人的AI SaaS公司,创始人自己做销售,月流水30万,想招第一个销售负责人。
你问AI:"帮我写一个销售总监的JD。"
AI给你一份标准的销售总监岗位描述。5年以上销售管理经验、带过20人以上团队、有大客户资源。
你拿着这份JD去招人,大概率招来一个在大公司待惯了的管理者。到你这里没有团队让他管、没有流程让他跑、没有品牌帮他敲门,三个月后彼此失望。
换一种问法。先退一步:
"一家从0到1阶段的B2B创业公司,招第一个销售负责人,最核心的3个能力维度是什么?和成熟公司招销售总监有什么本质区别?"
AI会告诉你:早期公司需要的不是管理能力,而是亲自打单的能力、从零搭建流程的能力、和创始人协同的能力。
然后你再说:
"基于这个分析,帮我写一份JD。我们15人,月流水30万,目标6个月做到100万。请基于你刚才分析的能力维度来写,不要写成大公司的JD模板。"
出来的JD,和之前那份是两个物种。
Step-Back的操作结构就两步。第一步:在回答你的具体问题之前,请先回答一个更宏观的问题。第二步:基于上面的分析,结合我的具体情况来回答。
什么时候该用?四个信号。
AI给的答案感觉正确但太浅,缺底层逻辑支撑。你面对的决策变量很多,不知道从哪切入。你想让AI的建议禁得起追问。你自己对这个领域的系统知识不够扎实,需要先建框架再做判断。
什么时候不用?有明确答案的事实性问题,直接问就好。你已经很清楚框架只需要AI执行,不用再退。时间紧急需要快速方向性判断,用上一篇讲的CoT更高效。
多花30秒问一个前置问题,能省你30分钟改方案。
这笔账不难算。
第二个技巧:同一个问题多问几遍(Self-Consistency)
后退一步你可能还好理解。毕竟"先看全局再做判断"这个道理做生意的人都懂。
接下来这个就有点奇怪了:同一个问题,你得让AI回答好几遍。
听起来像是浪费时间。先看一个案例你就明白了。
有一封邮件,发件人叫"Harry the Hacker"。邮件语气很友好,但内容是在报告一个网站的安全漏洞,里面提到了JavaScript注入的技术细节。
用CoT提示词让AI判断这封邮件"重要还是不重要",提交三次,结果是这样的:
第1次:IMPORTANT。AI识别出了安全漏洞风险,注意到了JavaScript注入的技术细节。
第2次:NOT IMPORTANT。AI被友好的语气和"feel free to leave the bug"这句话误导了,判断为不重要。
第3次:IMPORTANT。AI再次识别出安全风险,关注到了发件人自称Hacker的身份。
取多数票:2比1,IMPORTANT。正确答案。
同一个提示词,同一封邮件,三次回答两种结论。
这不是bug。
AI每次回答问题,内部会走不同的推理路径,注意到不同的细节,有时候就会得出不同的结论。
你可以把它想象成抛硬币,只不过这个硬币不是五五开,是有倾向性的。单独抛一次你不确定,多抛几次,哪面朝上多,哪面就更可能是对的。
Self-Consistency的做法就是:让AI多走几次,看哪个结论出现得最多。
5次里4次说"重要",那"重要"大概率是对的。这不是确定正确,但比只听一次靠谱得多。
跟你做重要决定之前找三个朋友分别问一遍,一个道理。三个人里两个说不靠谱,你多半会再想想。
操作方法有两种。
基础版:手动多次提交。同一个提示词提交3到5次,记录每次结果,取多数。简单粗暴,但有效。适合偶尔遇到的重要判断。
进阶版:一次性要求多个角度。在一条提示词里让AI从不同角度独立分析,最后给综合判断。
比如分析一封客户投诉邮件是否需要升级处理,你可以这样写:
"请从三个不同角度分析这封投诉是否需要升级处理:角度一,从客户情绪和用词的激烈程度来判断;角度二,从问题的实际影响范围来判断;角度三,从客户的重要性来判断。每个角度给出独立判断和理由,最后给出综合判断。"
不如真正的多次提交严格,但实操性强,一条提示词搞定。
什么场景适合用?
合同风险排查,一次判断可能漏掉隐含风险,让AI从甲方、乙方、律师三个角度分别排查。
候选人简历初筛,AI可能过度看重某个维度,同一份简历提交3次看判断是否一致。
客户投诉分级,语气和实际严重程度可能不一致,从情绪、影响、客户价值三个角度独立判断。
竞品动态解读,公开信息可能有多种解读方式,让AI给出2到3种可能的解读并标注可信度。
但Self-Consistency有成本。同一个问题问多次,时间更长。所以它不是日常工具,是关键时刻的保险杠。
判断标准很简单:这个判断如果出错,代价有多大?
代价大于多问几次的时间成本,就用。日常对话、内容创作、头脑风暴,一次CoT就够了。
那我怎么知道什么时候用哪个?
从第1篇到现在,你接触了一串技法。Zero-Shot、Few-Shot、Role Prompting、Contextual Prompting、CoT、Step-Back、Self-Consistency。
名字不重要。
重要的是你3秒钟能判断出,手上这个任务该用哪种。
一张表就够了。
有明确答案的事实性问题,直接问,Zero-Shot。需要复现某种风格的创作任务,给例子,Few-Shot。需要从不同角色审视同一个问题,给角色,Role Prompting。需要基于具体材料做分析,喂文档,Contextual Prompting。需要逐步推导的分析任务,让AI显示推理过程,CoT。复杂决策、需要底层框架支撑,先退一步问,Step-Back。重要判断、不容许犯错,多问几遍取多数票,Self-Consistency。
这些技法不互斥,实际用的时候经常组合。
让AI扮演投资人角色同时显示推理过程,这是Role Prompting加CoT。先退一步建立分析框架再用Few-Shot确保输出风格一致,这是Step-Back加Few-Shot。上传一份合同让AI排查风险同时从三个角度分别判断,这是Contextual Prompting加Self-Consistency。
选哪个,不看哪个高级,看哪个匹配你手上的活。
技法本身不值钱。知道什么场景用什么技法,才值钱。
从第1篇到第4篇,你走了一条不短的路。
从"AI不好用"到"原来是我没说清楚"。从"说不清风格"到"给个例子就行"。从"AI只能写文案"到"AI能帮我想问题"。
到现在,"直接问"变成了"绕一步问,质量翻倍"。
这四步,解决的是同一个问题:你给AI的思考起点有多好,它的输出就有多好。
下一篇聊最后一件事:怎么把这些零散的技巧变成一套系统,让AI不是你偶尔用一下的工具,而是每天替你干活的员工。
去试试吧。