有人刚刚泄露了来自主流AI工具(包括Cursor、Perplexity、v0、Lovable、Devin等)的10,000多行系统提示词。这些并非随机配置,而是支撑价值数十亿美元产品正常运行的精准指令。目前所有内容都已上传至一个公开的GitHub仓库。
此次泄露:其中究竟包含什么内容
涉及对象:v0、Cursor、Manus、Same.dev、Lovable、Devin、Replit Agent、Windsurf Agent、VSCode Agent、Perplexity、Xcode、Trae AI、Cluely、Dia Browser、Spawn、Orchids.app 等。
为何重要:
现在你可以了解到:
-
Cursor是如何处理多文件编辑的(包含数百行规则)
-
Perplexity精确的搜索整合逻辑
-
v0的组件生成模式
-
Devin的任务分解策略
阅读这些提示词,就如同获取到成功AI产品的带注释源代码。你不仅能看到它们“做什么”,还能了解它们“如何思考”。
对开发者的即时价值:
-
借鉴经过验证的对话结构
-
学习内存管理技巧
-
掌握语气与个性塑造方法
-
了解不同公司如何解决相同问题
有些提示词出人意料地简洁(例如Xcode的提示词),有些则篇幅冗长如一篇小说(例如Cursor的提示词),但所有提示词都具有指导意义。
消失的一章:为何Claude Code能脱颖而出
有一样东西并未泄露:Claude Code——它可以说是目前市面上最佳的AI编码Agent。
开发者们对它的青睐远超其他工具。基于相同的Claude基础模型,却能产出截然不同的结果。原因何在?
已有多位开发者通过逆向工程来探寻答案。
Claude Code提示词抢先预览
在反编译了443,000行JavaScript代码并拦截API调用后,他们发现了一个出乎意料的结论:Claude Code的优势在于复杂精妙的提示词工程,而非更优秀的模型。
证据显而易见:
-
重复=可靠性:TodoWrite工具以多种形式在提示词中出现了5次以上。结果:95%的执行率。而lint命令呢?仅被提及1次。结果:50%的执行率。两者的相关性完全吻合。
-
系统提醒解决记忆问题:每项任务结束后,Claude Code都会插入关于当前目标的提醒模块。若没有这些提醒,该Agent会忘记你在前三条消息中提出的需求。问题不在于你的指令——而在于它们的“记忆能力”。
-
全流程采用自然语言:任务管理、git工作流、代码审查——这些环节均未采用硬编码,全部基于提示词实现。修改文本内容,即可改变工具行为,无需编写任何代码。
-
格式=功能:像和这样的XML标签并非装饰性元素,它们能构建模型可解析的语义结构。全大写(ALL CAPS)的警告信息确实有效。合理的格式能使任务完成率提升20%。
-
模型特定优化:这些提示词仅在Claude上能发挥最佳效果。若在GPT-4或其他模型上运行,性能会下降40%。对于相同任务,不同模型系列需要不同的指令。
这一发现表明:Anthropic凭借文本构建了其竞争优势。无关架构,无关训练,仅仅是通过精心设计、并进行策略性重复的指令。
你的行动指南:即刻可落地的三大技巧
1. 5倍法则
-
用5种不同方式阐述关键需求
-
使用不同表述:“始终(Always)”、“切勿忘记(NEVER forget)”、“重要提示(IMPORTANT)”
-
在状态变更后设置提醒
-
结果:关键任务的可靠性达90%以上
2. 结构化格式
<task>
<description>需要完成的工作内容</description>
<constraints>具体要求</constraints>
<examples>
<good>正确做法</good>
<bad>需避免的情况</bad>
</examples>
</task>
该结构能显著提升模型的理解能力。
3. 递进式提醒
-
初始指令:明确目标
-
首次输出后:“继续推进[目标]”
-
子任务完成后:“牢记主要目标:[目标]”
-
完成前:“确保[目标]已完全实现”
核心启示
此次泄露印证了一个重要事实:优秀AI与顶尖AI之间的差距,并非源于模型本身(随着每次模型版本更新,这种差距正不断缩小)——而在于你如何与模型“沟通”。
所有争相打造更大型模型的公司都偏离了重点。真正的赢家,是那些掌握了AI指令语言的从业者。泄露的提示词为你展示了“词汇”,而Claude Code的技巧则为你揭示了“语法”。
这种差距并非暂时现象。随着模型逐渐走向商品化,提示词工程将成为核心差异化因素。无论使用何种模型,掌握更优指令的公司终将胜出。
给你的行动建议:下载泄露的提示词,研究其中模式,测试相关技巧,进而打造更优质的产品。
如今,各大AI公司的“核心秘诀”已公之于众。你将运用这些知识打造出什么成果?