很多人问:模型都这么强了,为什么现实里的 AI 产品还是“翻车”不断?
我越来越确信:问题的核心已经从“能力”转移到“治理”。
当 AI 从工具变成基础设施,我们需要的不只是更强的模型,而是更好的制度。
这篇文章不谈代码、不谈实现细节,只谈一个简单但常被忽略的命题:AI 进入社会化规模后,决定上限的不是推理分数,而是制度结构。
1. 先定义问题:AI 失败往往不是“不会做”,而是“做得不可控”
今天的主流路径是什么?
- 一个模型负责输出;
- 一堆规则负责拦截;
- 出问题靠人工补丁;
- 追责与复盘靠“再加一条规则”。
这套方法在 demo 阶段效果不错,但一旦系统承担长期、连续、多目标的决策,它的天花板会非常低:
你能提升单次回答的正确率,却很难保证长期行为的可预测性与可解释性。
换句话说,很多事故并不是“模型不够聪明”,而是“系统没有治理能力”。
2. 为什么说这是制度问题,而不是能力问题
当 AI 进入真实世界,它面对的不是单一任务,而是持续决策:
- 目标之间会冲突(效率 vs 安全、增长 vs 合规);
- 资源会竞争(算力、配额、队列、时延);
- 风险需要分级(低风险自动化,高风险需要确认/授权);
- 责任必须可归属(谁批准、谁执行、谁承担后果);
- 组织要可协作(跨模块协同,而非单点模型“自说自话”)。
这些问题的共同点是:它们不是推理题,是治理题。
在政治学和组织学里,人类社会早就总结过规律:
当系统复杂度上升,单点能力的提升并不能解决结构性不稳定,必须依赖制度把不确定性“压扁”。
3. 没有制度的 AI,会出现三种必然症状
我把它们总结为三个“不可”:
(1)不可追溯
做了什么、为什么做,无法形成一致的决策链与证据链。
出了问题很难复盘,纠错只能靠补丁堆叠。
(2)不可约束
高风险动作缺少可验证的边界:
谁有权触发?在什么条件下触发?冲突时谁能否决?能否强制停机?能否审计?
如果这些边界不清,“能力越强”反而意味着“风险越大”。
(3)不可进化
系统能变强,但不会变稳。
没有闭环反馈机制,治理策略就无法收敛,长期只会在“上线—翻车—补丁—再翻车”循环里打转。
4. 从“智能体”到“治理体”:AI 需要被建模成一个组织
要解决上述问题,关键不是再写几个拦截规则,而是把 AI 系统升级成一个可治理的组织。
至少要完成三件事:
- 结构化决策过程:重大变更分阶段论证、分层授权,而不是“一跳到底”;
- 显性化权力边界:高权限动作可验证、可拒绝、可审计;
- 闭环化组织反馈:绩效、奖惩、选拔、轮换等机制可以驱动系统长期收敛。
这听起来像管理学,但它会越来越像工程学:
因为 AI 系统一旦成为基础设施,治理不再是“写在文档里”的愿望,而必须是“写进运行时”的现实。
5. 一个更重要的问题:我们一直在问错问题
过去我们习惯问:“模型能不能做?”
但进入现实世界,更关键的问题变成:
- 谁有权决定它做不做?
- 冲突出现时谁来裁决?
- 错误发生后如何追责与复盘?
- 系统如何防止权力被绕过?
这些不是“技术细节”,而是制度设计问题。
只是现在,它们被搬进了计算系统。
6. 结语:AI 的终局竞争,是制度竞争
未来最有价值的 AI,不会是“最会回答问题的 AI”,
而是“最能在约束中长期稳定进化的 AI”。
能力决定下限,制度决定上限。
模型决定你能走多快,治理决定你能走多远。
AI 的下一场竞争,不是参数竞争,而是制度竞争。
联系方式
如果你也在做 AI 治理、合规与可审计架构,欢迎交流:
QQ 邮箱:1093993119@qq.com