我写了一套 Prompt 协议,彻底解决了 AI 编程的“幻觉”问题

32 阅读1分钟

【开源】我写了一套 Prompt 协议,彻底解决了 AI 编程的“幻觉”问题 正文:

Problem: 在使用 Agentic IDE (如 Trae/Cursor) 时,AI 倾向于提供“看起来正确”但无法运行的代码。人工验证成本极高。

Solution: 既然 AI 能写代码,为什么不强制它先写“验收脚本”? 我构建了一个轻量级的沙盒环境 scripts/verify/。

The Protocol:

锁定环境:通过 .gitignore 和 README 规范 AI 行为。

强制模版:提供 _template.ts/py,强制 AI 进行“脏数据注入”和“Happy Path”测试。

验收标准:Human Loop 只看终端的 [PASS] 输出。

Results: 实测 LogPanel 组件修复任务,Trae 在第一次尝试失败后(API 400),自动修正了测试逻辑并最终通过。全过程无需人工干预。

Access: 这套配置已打包,适合所有不想当 AI 测试员的开发者。

ace523e787a590b348fde81e83e690b8.png

0fb29b0a81f0e313c799d3a4d4422ffe.png

e65309c98863b396203fa4cf76c4747e.png

7401b56b5a6d3bd5a2d93346aa358de9.png

6788b168f0a06c1b921f057b6829e556.png

6788b168f0a06c1b921f057b6829e556.png

eb5b8422dbc7eb651e9d753c27535656.png

80e231b75de5ecc8ba455d0f1189042f.png

d601778be5f26d170528c9dbc8f1ba0d.png

7fb7235346cd11ee908e91ad48db631d.png

26cb06610b9dd6cca54fc14f02122f78.png

23638eb1616dd30bb54eefeef9582f30.png