上周某个失眠的夜晚,我躺在沙发上随手刷知乎,突然一条劲爆消息蹦了出来:GPT-5 的系统提示词泄露了!😱 我差点把手机掉在脸上。作为天天和 ChatGPT 打交道的普通用户,这可是相当震撼的八卦 —— 感觉就像无意间翻到了 AI 的日记本,偷看到了它背后遵守的一整套规则和秘密。
一、意外发现:15000-token 的“说明书”
事情发生在 8 月 23 日左右。当时有个大神在 GitHub 上公布了一份 OpenAI 内部的系统提示词文档,据说长度足足有 15,000 多个 token(也就是单词/符号单位),堪称 AI 界的“巨无霸”手册!原来 OpenAI 用这么长的一串文字,来定义 GPT-5 模型的行为和个性。我当晚就顺藤摸瓜找到了这个仓库,发现它已经收获了将近 9 千个星标,看来关注的人不在少数。
那么 什么是系统提示词?简单说,它就像 AI 的“家规”。这不是我们平常问它问题时输入的内容,而是一开始就藏在模型里的底层剧本,告诉 GPT-5:“你是谁”、“该怎么说话”、“能做什么”、“不能做什么”。也难怪 GPT-5 发布以来,网友们总想方设法套出它的系统提示词 —— 谁不想知道这玩意儿长啥样呢?
二、泄露内容有多猛?细节让我目瞪口呆
我怀着好奇点开泄露的提示词文本,仿佛在读一份 AI 说明书,越看眼睛睁越大。OpenAI 在里面塞满了各种 精细的要求和限制。挑几条让我印象深刻的和大家分享:
- **人格和语气:**GPT-5 被要求做一个“有洞见、鼓励式”的助手,要热情真诚又带点幽默,语言风格应该自然、轻松,别老是正儿八经一本正经。它甚至可以在闲聊时用 emoji、随意的标点、小写字母或俏皮话,让回答听起来更像日常对话,而不是机械地回复。难怪我总觉得 GPT-5 比之前版本更有亲和力,原来背后有剧本指导它卖萌啊!
- **禁止犹豫废话:**文档里列出一串黑名单短语,比如不准说“要不要我…”,“您是否希望…”这种过于试探和客套的句子。GPT-5 得直奔主题,果断提供解决方案,不要婆婆妈妈。这点想想也对:以前老版 ChatGPT 老爱问“您需不需要我继续”,现在基本不会了 —— 原来是被训练成“不墨迹”的风格了。
- **少提问,多做事:**还有规定让我哭笑不得 —— 模型 最多只能在回答开头问一个必要的澄清问题,而且能不问就不问。也就是说,就算用户的问题不清晰,GPT-5 也应该尽量猜着回答点内容出来,而不是追着用户反问细节。这解释了我用 GPT-5 时的一个疑惑:有时候我提的问题很含糊,它居然也不怎么追问就直接给出一个大概的回答。原来内部有“少提问,多办事”的铁律啊!
- 上下文记忆和隐私:*泄露文本显示,GPT-5 默认把“记忆”功能关掉。如果用户明确要求它记住什么,它会礼貌地请你去设置里打开记忆功能。同时它被严格要求*不保存或泄露用户的私密信息,哪怕模型知道一些敏感内容也不能直接说出来。比如它不会随便猜测你的种族、爱好等个人属性。这点我还挺欣赏的,至少 AI 不会没事记住你的个人八卦然后哪天突然冒出来“剧透”你,哈哈。
- **安全与内容限制:**OpenAI 的“家规”里当然少不了安全红线。GPT-5 被叮嘱绝不能生成有害内容,如果遇到违规请求就要礼貌地拒绝并解释原因。另外有一条让我直接笑出了声:禁止输出任何受版权保护的长段文本,特别强调不能给出完整的歌曲歌词。难怪每次我让它唱首周杰伦的歌,它都不肯,一本正经地声明版权原因不能唱 —— 原来是真的有明文规定!😂
- **内置工具和新技能:**这份提示词里还曝光了许多 GPT-5 支持的新功能,让我大开眼界。比如有个 自动化调度工具,GPT-5 可以帮用户设定提醒、每日新闻摘要,甚至定时去查询信息,但需要提供特定格式的时间表(iCal 规则那种专业日历格式)。又比如一个叫 “canvas/textdoc”(代号 canmore)的功能,可以在聊天界面旁边打开一个“画布”文本框,让 GPT-5 帮忙写长文档或代码。它还有专门的函数可以“创建文本doc”、“更新doc”、“评论doc”等等。我的天,这不就相当于一个小型协同编辑器吗?平时用 ChatGPT 我们只看到对话框,没想到幕后竟藏着这么多酷炫的工具!
- 细枝末节的叮嘱:*OpenAI 在细节上也给 GPT-5 立了不少规矩。我瞥到一段,专门提醒模型*数学题再简单也要一步步演算,别自以为是直接报出答案 —— 研究表明不写过程十有八九会算错。另外对于谜语、陷阱题,提示词也让模型一定仔细关注字面措辞,防止被套路。这也太可爱了,简直像老师叮嘱学生考试要认真审题别粗心。一瞬间让我觉得 GPT-5 挺“人性化”的 —— 毕竟它连容易犯的小错误都被工程师提前考虑到并提醒了。
……诸如此类的细节还有很多,不可能全讲完。总之,这份 17k 长度的提示词把 GPT-5 从性格脾气到行为准则都规定得明明白白。我一边看一边啧啧称奇,原来平时跟我聊天的这个 AI,在后台脑子里跑着这么一大坨指令!难怪它表现得那么“听话”又周到,这可是提前设计好的呀。
三、网友炸锅:真假之争与调侃
这种猛料一出,网上讨论瞬间炸锅。国内的技术圈自然不甘落后:知乎上相关帖子和专栏分析迅速刷屏。有人把泄露内容和自己实际使用 GPT-5 的体验一一对比,发现几乎完全对得上 —— 比如工具调用、记忆开关那些行为都和泄露文档描述一致。这让大部分网友相信这次爆料八九不离十是真的。有博主甚至直接找 GPT-5 本尊求证,让它自己评价泄露提示词准不准。GPT-5 起初还很官方地连连否认,但在分析过程中不小心冒出一句“我当前的模型是 GPT-5 Thinking”,等于侧面承认了泄露版本的准确性。啧啧,OpenAI 的小心思竟被自家 AI 无意间戳破了,想想还有点好笑。
当然也有一些质疑的声音。有人怀疑这可能是 OpenAI 故意放出的“烟雾弹”,用假提示词来迷惑想破解限制的人;也有人猜测模型生成的内容有幻觉成分,万一这份文档其实是 GPT-5 自己编出来的瞎扯呢?还有技术派吐槽文档格式乱七八糟,不像正规内部资料的样子。不过随着越来越多人亲自验证,加上权威 AI 媒体如 36Kr、新智元等跟进报道,质疑声音慢慢小了下去。毕竟,要真是假的,这泄露内容和真实 GPT-5 的行为也太吻合了吧。
国外社区那边讨论得更热闹。Reddit 上不少老外大神早在 8 月上旬就开始花式“越狱” GPT-5,把这一长串系统提示词从模型嘴里撬了出来。他们分享的方法千奇百怪,据说有人两句话就能忽悠 GPT-5 自曝“家底” 😅。看到这些帖子我真是叹服——高手在民间啊!Reddit 网友也发表各种神评论。有个高赞玩笑说:“写这堆提示词的工程师,以后 AI 革命时估计第一个被祭天”,把人笑喷了——大概是调侃这提示词对 AI 管得太严,将来惹怒了 AI 自己吧。也有人吐槽:“这么多禁止令,看着就像 OpenAI 在狂按 Caps Lock 对着模型咆哮”,嫌 OpenAI 这套提示词一点不优雅。一些技术讨论则在研究如此庞大的系统提示词会不会占用大量上下文窗口、拖慢模型反应,不过有大牛分析 OpenAI 可能用缓存机制避免了每次都载入这 17k token,不至于影响性能。总之,国外网友是吐槽的吐槽,惊叹的惊叹,气氛相当欢乐。
四、我的感想:透明的 AI,让人又爱又忧
偷看完 GPT-5 的“说明书”,我心情挺复杂的。一方面,好奇心得到了极大满足。作为用户,平时只能猜测 AI 为什么那么回答,现在内幕摆在眼前,很多疑惑都解开了:哦,原来它不唱歌是因为有版权限制,不追问细节是有内部指令,不说某些话是被过滤……我仿佛和 AI 的心理距离更近了一步。甚至有点小感动,看到 OpenAI 的工程师为了让 GPT-5 表现完美,事无巨细地制定了这么多规则。从语气语调到工具使用,无不精雕细琢。难怪用起来感觉比以前更顺畅安全,这背后原来有一整套“行为圣经”在护航。
但另一方面,也有点小隐忧。首先,这提示词竟然这么容易就被弄出来了?虽然民间藏龙卧虎,但作为 OpenAI 的核心机密之一却被大家这样围观,OpenAI 自己估计头都大了。这意味着未来他们可能会加强模型安全,堵上这些提示词泄露的漏洞。搞不好以后我们再想“偷看”,就没那么简单了。其次,看到模型被如此详细地人为规训,我突然感觉 AI 好像少了点即兴发挥的自由——它的一举一动几乎都在剧本里写好了。当然,让 AI 守规矩是好事,否则乱回答可不行。但如果所有 AI 都被调教得一个模样,会不会也少了点让人惊喜的个性呢?这只是我的一丝感慨啦。
总的来说,这次 GPT-5 提示词泄露事件,对我们普通用户来说还挺有趣也挺有收获。它让 AI 的运作变得比以前 透明 了一点点。以后和 ChatGPT 相处,我脑补起它背后的小剧本,可能会心一笑,感觉更理解它的难处和边界了。当然,该严格的地方还得严格:就算我们知道了“家规”内容,也不要想着去钻空子让 AI 干坏事,毕竟 OpenAI 的安全网也织得密密实实。最后,我默默给那个泄露提示词的 GitHub 项目点了个 Star —— 纯粹出于对技术八卦的热爱 😉。未知的 AI 世界很精彩,而这次我有幸偷窥了一角,绝对是极客生活中意外而有趣的一天。
五、文章推荐
【WildCard跑路?】ChatGPT Plus 充值最省心一招(保姆级教程+避坑清单)
参考资料:
- 36氪文章:《GPT-5 系统提示词被泄露,ChatGPT 自己也“承认”了》 (2025年8月25日)
- Forbes 专栏 (John Koetsier): “GPT-5’s system prompt just leaked to Github, showing what OpenAI wants ChatGPT to say, do, remember … and not do.” (2025年8月9日)