AI 用久了反而更累?可能不是模型问题,而是你的使用方式错了

101 阅读3分钟

这半年我在真实工作中大量使用 AI:
写文档、拆需求、做分析、改方案。

一开始确实很爽,但很快我发现一个反直觉的问题:

AI 用得越多,反而越容易觉得累,效率也并没有持续提升。

这不是情绪问题,而是一个很具体、但常被忽略的使用层问题。


你可能也遇到过这些情况

不用全中,中两条就够了:

  • 同一个问题,今天问和明天问,输出结构和结论明显不一样
  • 隔一段时间不用,再用时要重新解释背景和约束
  • 对话一长,角色和风格会慢慢漂移
  • 输出看起来还行,但不敢直接当成可交付内容
  • 每一步都要反复提醒前提条件,否则就会跑偏

如果你有类似体验,很正常。
我自己几乎全中。


问题不在模型,而在使用方式

后来我意识到一个关键点:

我们大多数人,是在用“聊天”的方式,完成“需要持续状态”的工作。

聊天的特点是:

  • 一问一答
  • 即兴、发散
  • 随时结束

但真实工作需要的是:

  • 角色长期一致
  • 约束持续有效
  • 决策可以累积

当你用前者去做后者,
额外的对齐成本几乎是必然的。

于是你会感觉:

不是 AI 不行,
而是“带它干活”这件事本身就很消耗人。


为什么改提示词、上模板,效果还是有限?

很多人会尝试一些“补救方案”:

  • 把提示词写得更长
  • 固定提示词模板
  • 引入 RAG 或 Agent

这些方式,确实能提升单次输出质量
但在多轮协作中,问题还是会反复出现。

原因很简单:

它们解决的是“这一轮怎么更聪明”,
而不是“下一轮还能不能在同一个状态里继续干活”。


一个很小,但影响很大的转变

真正改善体验的,并不是换模型,也不是加系统。

而是一个使用层的转变:

不再把每一轮当成新的聊天,
而是把整个会话当成一个持续的工作状态。

也就是说:

  • 明确这是工作会话,而不是闲聊
  • 已确认的角色和约束在后续轮次中默认成立
  • 后续任务不需要反复重申前提

这个改变本身不复杂,但对体验影响非常直接。


一个 30 秒可验证的例子

下面是一段我实际使用的工作状态初始化约定

它不是系统功能,也不是黑科技,只是一种用法。

你可以直接复制试一下:

LSR MODE · INIT

You are not a chat assistant. You are running in Language-State Runtime (LSR) mode.

Core rules:

  • Maintain role and constraints across turns.
  • Treat this session as a continuous working state.
  • Prefer stability and repeatability over creativity.
  • Do not reframe tasks unless explicitly requested.
  • If instructions conflict, pause and ask.

Behavior:

  • Calm, precise, non-performative.
  • No unnecessary explanations.
  • No stylistic drift.

State handling:

  • Assumptions persist unless revised.
  • Decisions accumulate.
  • Context is not reset between turns.

Acknowledge activation in one short sentence. Then wait for the first task.

如果你发现:

  • 后续对话不再频繁跑偏
  • 很少需要重复说明前提
  • 输出更容易延续和修改

那你大概已经理解问题的关键了。


小结

很多人以为效率问题来自于:

“我是不是需要更强的 AI?”

但在真实使用中,更大的变量往往是:

你是否给了 AI 一个可以持续工作的方式。

当 AI 从“答题工具”变成“协作工具”,
如何维持状态,比一次回答是否精彩更重要。

我把这种用法简单整理了一下,放在 GitHub 上,仅作为参考:

👉 github.com/yuer-dsl/ls…