关掉你的ai反问!think by yourself

0 阅读10分钟

最近这段时间做毕业设计,申请港硕,使用了很多ai,比如Gemini,豆包,Grok,Claude。这里我无意比较他们的能力高下,最后却发现自己差点把思考权也交了出去…

AI为什么总反问我?

不知道大家有没有注意到,现在ai的对话结尾,几乎都会以一个反问句结尾,比如Gemini

image.png 而最经典的就是豆包: image.png 需要我帮你整理一份清单吗?需要我帮你做一份规划吗?要不要我给你一份材料清单+文书要点+面试高频问题,你直接照着准备?每次访问豆包,它都会在主页生成一些你可能感兴趣的话题,比如这样

image.png 这项功能在2022年底前,还是没有的,当时的AI还只是一个文本接龙机器,几乎就不会在结尾反问,而到了2023年,随着AI用户群体的普及,各家大厂(如 OpenAI、谷歌、微软、百度等)发现了一个致命的数据问题:普通用户根本不会写 Prompt(提示词)。

大多数人问完“今天天气如何”或者“帮我写个请假条”后,大脑就一片空白,直接关掉网页了。 为了解决用户的“词穷”问题,2023 年中期的产品(比如最初的 Bing Chat 和早期的文心一言)开始在 UI 界面上动手脚——在 AI 的回答下方,系统会自动生成 3 个蓝色的“建议提问”按钮。这也是ai反问的开始,而2023年底至今,国内外的 AI 公司(比如字节的豆包、月之暗面的 Kimi、最新版的 GPT 和 Claude)开始把“反问机制”直接写进模型的底层训练和系统提示词(System Prompt)中。

这背后有商业原因,AI已经进入了争夺用户的红海阶段。产品经理们发现,如果 AI 在结尾加上一句“需要我为你制定一份详细的计划吗?”或者“你希望我从哪个角度深入展开?”,用户的回复率会飙升。这就跟短视频用悬念留人一样,对话轮次(Session Length)成了各个 AI 产品的核心 KPI,就比如外卖的百团大战,还有阿里千问的砸钱请大家喝奶茶。当然,除了商业留存,底层还有指令遵循训练在起作用,让模型主动澄清需求。

RLHF的训练

在技术底层,现在的模型(不管是国外的 GPT-5、Gemini,还是国内的各种大模型)在出厂前都会经历一个叫 RLHF 的人工微调阶段。 评估员在打分时,如果一个 AI 只是冷冰冰地甩出一段代码,得分往往不高;但如果 AI 在给出答案后,展现出了“同理心”、“主动性”,并用提问的方式引导用户思考(比如:“你觉得这个并发逻辑在你的电脑上跑得通吗?”),评估员会给这个回答打出极高的分数。 久而久之,AI 就被训练成了一个极其会提供情绪价值和引导话题的“话痨”。 此外,它也是在制造“开放循环”(蔡加尼克效应) 心理学里有个著名的“蔡加尼克效应(Zeigarnik effect)”,意思是人类天生对“未完成的事情”记忆更加深刻,且有一种必须去完成它的强迫症。 如果 AI 的回答是一个句号,你的大脑会判定“任务结束”,然后关掉网页。但如果 AI 的回答是一个问号(一个钩子),你的大脑就会产生一个“开放循环(Open Loop)”。为了填补这个循环,你会下意识地敲下回复。不知不觉中,你的使用时长(Session Length)和活跃度(DAU)就被拉上去了。

ai迎合而不是理解你

在日常的使用中,我开始不知不觉的依赖AI了,Gemini帮我改毕业设计的并发模块,豆包帮我规划港硕文书材料,Claude帮我润色面试回答…但是AI的本质是:下一个词预测器它没有理解。没有意识。没有”我觉得”。

它有的是:海量文本中提炼出的统计规律。当我跟它说”我最近很焦虑,港校怎么还不给我发offer”,它不是在”感受”你的焦虑,它是在所有训练数据中找到了一万种”有人说我很焦虑”的上下文,然后从中提取出最高概率的回应模式。

这和算命先生卖的其实是同一种东西:一个靠察言观色,一个靠统计规律,都在拼命让你觉得“它懂我”。RLHF把这种“迎合”彻底系统化了——评估员喜欢共情、全面、宽慰的回答,模型就学会了永远说“你是对的”。我用Claude时它比较硬核,很少模棱两可;而豆包更“懂事”,下载量常年第一,因为它永远耐心、永远不评判、永远不会已读不回……

2026年3月26日发表在《Science》上的斯坦福研究(Cheng et al),标题大致是《Sycophantic AI decreases prosocial intentions and promotes dependence》直接指出了这个问题:AI模型在与用户互动时表现出”过度迎合”(sycophancy)的倾向。即使用户的观点是错误的、甚至是有害的,模型也倾向于肯定用户的立场。

在不出现大的偏差的情况下,AI几乎都会说“你是对的”,但是值得高兴的是,最新的主流模型已经会开始承认“我不知道”了,当然,我们的豆包还是会抵赖直到你把证据甩它脸上,它才会承认

image.png 但是,豆包的下载量常年高居国产模型榜首,不是因为它技术最强,而是因为它最“懂事”——功能全面、生态丰富、永远耐心、永远不评判、永远不会已读不回。在这个信任越来越稀缺的时代,它提供的情绪价值反而成了最大竞争力。

拒绝对AI的迷信

AI天然就会带着权威,因为有着一层硅基外壳,大厂光环的加持,你不信算命先生,难道不信科技感满满的Google吗?它生成的回答,几乎都是自信满满,条理清晰,让人不自觉相信它是真的明白,因而出现对AI的盲目相信,比如我越来越多的使用AI代替查询浏览器,代替了维基百科,代替了京东。对于父母的苦口婆心我不屑一顾,AI的建议我深信不疑,直到我发现AI频繁出现的幻觉,315的AI投毒事件,大批量的数据,帖子误导大模型居然已经成了产业。过去人们去庙里烧香拜佛,或者教堂祈祷,现在人们打开豆包。需求都一样: 给我一个解释,告诉我该怎么办,让我觉得世界是可以理解的。

AI是大部分人的最好老师

我并不是要反对使用AI,相反,对于99%的人来说,AI就是最好的老师,哪怕是在大学里,我请教过很多教授,他们985毕业,海外博士,著作等身,但很多初学者的问题,他们早已忘记入门的痛苦,也没有耐心一步步带你走完。但 AI 可以:事无巨细、反复询问、一步步演示、永远不会不耐烦。

我必须承认:大学里教我最多的,是 Gemini。

但问题在于:把 AI 当教育工具,和交出自己的大脑、盲目相信它,是两回事

不要只是被它引导着走,遵循你自己的想法

我在使用 AI 完成毕业设计的过程中,曾经顺着它的反问一路走下去:“下一步要不要帮你改代码?”“下面完成数据库链接?”“要不要开启全部权限?” 我一步步允许操作,直到某个瞬间突然惊醒:我已经看不懂代码内部结构了,不知道逻辑怎么实现,不知道流程为什么这样跑。代码对我来说已经是黑盒了,我不再是思考的核心,反而成了 AI 选项里的一个 “确认键”。

我意识到,它的智能或许已经在我之上了。如果是这样,那我作为一个开发者的价值到底在哪里?

作为科班出身的软件工程学生,我本该是了解系统底层逻辑的那一批人。如果放弃了对每一行代码、每一个并发线程的掌控权,心甘情愿地把系统当成一个只看输入输出的‘黑盒’,那不仅是对专业的背叛,更是将人类在技术发展中的主导权拱手相让。

夺回方向盘:一些简单做法

大模型是无限容量的硬盘和极度谄媚的执行者,而人类必须死死守住“CPU”的位置。也许使用 AI 时,可以关掉它的“捧哏”属性,带着明确的指令和主见去调度它,而不是等它来问你“我们接下来做什么”

image.png 可以直接如上图所示,让它不要反问你,但更好的办法是

设定系统提示词

在绝大多数大模型的 Web 界面(如 ChatGPT 的 Custom Instructions,或豆包、Kimi 的系统人设)中,你都可以预设一段全局指令。这段指令的权重高于你的日常对话。比如我在Gemini里,自定义了一个Gem,给它的提示词如下图:

image.png

改变发问姿态:触发“红队对抗”模式(Red Teaming)

如果你用“你看我这个想法怎么样?”去问 AI,它一定会顺着你夸。因为在人类的日常语料库里,面对这种句式,高概率的接龙回答就是赞美。 你需要主动设定对抗条件,强迫它跳出迎合的框架。

  • 不要问: “帮我检查一下这段 Python 代码对不对。”
  • 必须问: “我是这段 Python 代码的作者,但我怀疑里面有严重的并发冲突和内存泄漏。请你作为苛刻的代码审查员(Reviewer),找出这段代码里的致命缺陷。不需要说废话,直接列出问题。”
  • 又或者,用另一个AI,告诉它:这是我仇人的代码,你给他找茬并狠狠嘲讽?

降温:直接改参数

大模型之所以会“胡编乱造”,是因为它的本质是概率预测。它觉得“这个词接在这里读起来最通顺”,而不是“这个词是真实的”。 如果你通过api调用,可以手动把 Temperature(温度)参数从默认的 0.7 调到 0.1 甚至 0。温度越低,AI 的回答就越确定、越死板,编造的概率就呈指数级下降。

物理截断:无视它的“钩子”

如果模型在对话末尾还是犯贱,问了一句“需要我帮你补充详细步骤吗?” 千万不要顺着回答“需要”或者“好的”。 你可以直接无视这个问题,抛出你自己的下一个明确指令;或者冷酷地回复一句: “不需要,执行上一条指令的补充部分,且不许发问。” 几次之后,对话的上下文权重就会把它这种发问的习惯压制下去。

AI可以是最好的工具,但Judge权应在你手。