我放弃让 AI 自动写法律文书之后,反而第一次觉得它“真的好用”

41 阅读6分钟

前言

最近一段时间,大模型在技术圈的讨论,几乎都围绕着:

  • Prompt 怎么写
  • 模板怎么复用
  • 如何让 AI 一次性给出“正确答案”

但当我把 AI 引入到高风险文本场景(需要由人承担现实后果的正式文本)后,发现这些讨论突然变得不太重要了。

真正重要的问题反而变成了:

我是在用 AI,还是在被 AI 带着走?


一、为什么“自动生成”在高风险场景里不太对劲

如果你让 AI 直接生成一份完整文本,往往会出现这些情况:

  • 内容很流畅,但你很难确认每一句是否都在你的责任边界内
  • 有些话“看起来没问题”,但一旦被采纳,后果却完全由你承担
  • 出了问题之后,你甚至说不清:是哪一步做了关键判断

在低风险场景中,这些问题可以忽略;
但在高风险场景中,它们会被无限放大。


二、我做的改变,其实非常简单

我没有换模型,也没有堆 Prompt,
只是换了一种和 AI 交互的顺序

从:

给指令 → 等结果

变成:

先给事实边界 → 再看变量 → 人做选择 → AI 整理表达

这个顺序一变,体验完全不同。


三、一个最小可跑的人机协作 DEMO(尝鲜版)

下面这个示例不涉及任何真实主体,只是展示交互方式本身

1️⃣ 人先提供事实和边界

文书类型:答辩类文本

立场边界:不同意对方主张,但以风险可控为优先

已确认事实:
- 某时间点存在明确的合同关系
- 后续产生争议,关键沟通记录存在
- 对方主张主要基于单一文件

已有证据:
- 证据A:沟通记录
- 证据B:文件回执

注意:
这里只是事实和边界,没有任何法律结论。


2️⃣ 给 AI 的任务只有这三条

1)扫描可能影响结果的关键变量  
2)指出潜在的表达风险点  
3)给出多种处理路径的利弊对比(不替我选择)

此时 AI 的角色更像是:

变量扫描器 + 风险雷达

而不是“代写者”。


3️⃣ 人选路径,AI 再整理

只有在我明确选择路径之后,
AI 才被允许整理成结构化草稿,并标注:

  • 哪些内容来自哪些事实
  • 哪些点仍需要人工确认
  • 哪些地方是可回退区

四、真正的爽点:不是效率,而是“我知道自己在干什么”

第一次用这种方式时,我最大的感受是:

原来我以前不是不会用 AI,
而是从来没被迫面对自己的判断。

人机协作带来的,不是依赖感,
而是一种非常清晰的掌控感。


五、为什么我反而不追求“AI 写得更好看”

从工程视角看:

  • 漂亮 ≠ 稳定
  • 自动化 ≠ 可控
  • 表达优化 ≠ 风险控制

在高风险场景中,我更在意的是:

  • 判断是否可回溯
  • 风险是否被显性化
  • 是否允许人工随时接管

而这些,恰恰是“自动生成”最容易忽略的部分。


六、这其实是一次交互范式的变化

我并不是在否定 AI 的能力,
而是在重新放置它的位置:

AI 不做决定,
但必须把决定相关的所有变量摊在桌面上。

一旦这个位置放对了,
AI 的价值反而被放大了。


结语

如果你只是写文案、做总结,
那 AI 自动生成当然是效率最优解。

但当场景涉及真实后果时,
也许更值得问的问题是:

这个系统,有没有逼我在关键时刻做出确认?

对我来说,
这正是人机协作存在的意义。


常见问题(Q&A)

Q1:你为什么在法律场景中如此强调“人机协作”,而不是让 AI 自动生成?

A:
因为在高风险场景中,真正危险的不是“写得不好”,而是判断权和责任被无意识地交给系统
我强调人机协作,是为了确保:判断在我,责任在我,AI 只做结构与风险显影。


Q2:可我并不懂法律,这样的人机协作不会更危险吗?

A:
恰恰相反。
正因为不懂法律,更不能把不可逆的判断交给自动化系统。
人机协作不是要求你变成专家,而是防止你在不知情的情况下越界表达


Q3:为什么法律场景不是“针锋相对”,而是你说的“博弈”?

A:
因为法律系统的目标不是情绪对抗,而是风险裁剪与结果收敛
针锋相对会放大变量,而博弈是在控制变量。
我不追求语言漂亮,是因为“漂亮”往往意味着越界。


Q4:你为什么总强调“最终责任必须落在人身上”?

A:
因为只要责任不在人身上,系统行为一定会变形。
AI 可以分析、提醒、模拟后果,但不能替人承担后果
责任是决策的锚点,不是负担。


Q5:你这样是不是在压制 AI 的潜力?

A:
我压制的不是 AI 的能力,而是AI 作为代理决策者的幻觉
真正的 AI 潜力,是放大人的判断,而不是取代人的位置。


Q6:如果人判断错了,AI 为什么不直接纠正?

A:
因为“纠正”本身就是一种决策权。
AI 可以指出风险、列出变量、对比路径,但最终选择必须由人完成,否则责任链会断裂。


Q7:这种人机协作方式,为什么比 AI 自动化更难被抄走?

A:
因为自动化抄的是输出,而人机协作绑定的是人的判断与责任结构
你可以复制形式,但复制不了“哪些话明明能写,却被主动放弃”。


Q8:你为什么一直强调要改变人与 AI 的交互范式?

A:
因为旧范式在高风险场景下是结构性失效的。
问题不在模型能力,而在人把什么权力交给了 AI
我不是要 AI 更像人,而是要人始终站在判断与责任的中心。


Q9:文中的 DEMO 为什么这么“简单”?

A:
因为 DEMO 展示的是交互顺序与协作方式,不是具体能力。
真正的价值在“谁先判断、谁后表达”,而不在模板本身。


Q10:这种方式适合所有人吗?

A:
不适合。
它天然筛掉那些只想“一键搞定”的人。
但对需要承担真实后果的场景来说,这种筛选本身就是安全机制。