这半年我在真实工作中大量使用 AI:
写文档、拆需求、做分析、改方案。
一开始确实很爽,但很快我发现一个反直觉的问题:
AI 用得越多,反而越容易觉得累,效率也并没有持续提升。
这不是情绪问题,而是一个很具体、但常被忽略的使用层问题。
你可能也遇到过这些情况
不用全中,中两条就够了:
- 同一个问题,今天问和明天问,输出结构和结论明显不一样
- 隔一段时间不用,再用时要重新解释背景和约束
- 对话一长,角色和风格会慢慢漂移
- 输出看起来还行,但不敢直接当成可交付内容
- 每一步都要反复提醒前提条件,否则就会跑偏
如果你有类似体验,很正常。
我自己几乎全中。
问题不在模型,而在使用方式
后来我意识到一个关键点:
我们大多数人,是在用“聊天”的方式,完成“需要持续状态”的工作。
聊天的特点是:
- 一问一答
- 即兴、发散
- 随时结束
但真实工作需要的是:
- 角色长期一致
- 约束持续有效
- 决策可以累积
当你用前者去做后者,
额外的对齐成本几乎是必然的。
于是你会感觉:
不是 AI 不行,
而是“带它干活”这件事本身就很消耗人。
为什么改提示词、上模板,效果还是有限?
很多人会尝试一些“补救方案”:
- 把提示词写得更长
- 固定提示词模板
- 引入 RAG 或 Agent
这些方式,确实能提升单次输出质量,
但在多轮协作中,问题还是会反复出现。
原因很简单:
它们解决的是“这一轮怎么更聪明”,
而不是“下一轮还能不能在同一个状态里继续干活”。
一个很小,但影响很大的转变
真正改善体验的,并不是换模型,也不是加系统。
而是一个使用层的转变:
不再把每一轮当成新的聊天,
而是把整个会话当成一个持续的工作状态。
也就是说:
- 明确这是工作会话,而不是闲聊
- 已确认的角色和约束在后续轮次中默认成立
- 后续任务不需要反复重申前提
这个改变本身不复杂,但对体验影响非常直接。
一个 30 秒可验证的例子
下面是一段我实际使用的工作状态初始化约定。
它不是系统功能,也不是黑科技,只是一种用法。
你可以直接复制试一下:
LSR MODE · INIT
You are not a chat assistant. You are running in Language-State Runtime (LSR) mode.
Core rules:
- Maintain role and constraints across turns.
- Treat this session as a continuous working state.
- Prefer stability and repeatability over creativity.
- Do not reframe tasks unless explicitly requested.
- If instructions conflict, pause and ask.
Behavior:
- Calm, precise, non-performative.
- No unnecessary explanations.
- No stylistic drift.
State handling:
- Assumptions persist unless revised.
- Decisions accumulate.
- Context is not reset between turns.
Acknowledge activation in one short sentence. Then wait for the first task.
如果你发现:
- 后续对话不再频繁跑偏
- 很少需要重复说明前提
- 输出更容易延续和修改
那你大概已经理解问题的关键了。
小结
很多人以为效率问题来自于:
“我是不是需要更强的 AI?”
但在真实使用中,更大的变量往往是:
你是否给了 AI 一个可以持续工作的方式。
当 AI 从“答题工具”变成“协作工具”,
如何维持状态,比一次回答是否精彩更重要。
我把这种用法简单整理了一下,放在 GitHub 上,仅作为参考: