警惕“上下文污染”:为什么建议你频繁重置 AI 对话?

80 阅读1分钟

在使用 LLM 时,我们常遇到“风格漂移”和“逻辑幻觉”。 比如你让 AI 扮演 Python 专家“只写代码不解释”,但因为你中间追问了一次“为什么”,它在后续的回答里就开始喋喋不休地解释。

这是因为大语言模型的注意力是有限的。 当异质性内容(不同类型的话题)在历史记录中堆积,初始指令的权重就会被不可避免地削弱。

解决办法:

1. 一事一议 绝不混用窗口。写代码的窗口别用来写诗,翻译的窗口别用来做数学题。

2. 物理隔离 任务一旦结束,或者话题一旦转换,立刻关闭当前对话。

3. 学会“手动垃圾回收” 当你发现 AI 开始不听话,试图通过打字去纠正它(比如“请回到刚才的设定”)通常效果很差,因为这增加更多的噪音。 最高效的方法是:直接开新窗口,重新输入提示词。

让每一个对话窗口都只为一个明确的目标服务。你会发现,那个“听话、聪明、精准”的AI,又回来了。