2026年1月29日,PeopleCert正式发布了ITIL 第5版。作为ITIL官方中国区产品大使,我将会推出系列文章帮大家解读ITIL 第5版到底有哪些重大的更新。
在很多组织里,AI 是这样被引入管理体系的:
先从工具开始
再慢慢扩大使用范围
最后不知不觉参与了决策
一开始,没有人觉得这有什么问题。
直到某一天,事情出了偏差,大家才突然发现一个尴尬的现实:
这个决定,到底是谁做的?
一、当 AI 还只是工具时,管理问题并不复杂
在传统 IT 管理语境中,工具的角色非常清晰:
- 工具提供信息
- 人做判断
- 人对结果负责
即便工具出错,责任归属也并不模糊。
因为没有人会说:
是监控系统“决定”忽略了告警
是报表工具“决定”错过了风险
工具,从来只是被使用的对象。
二、问题出在:AI 不再只是“被动工具”
AI 真正改变游戏规则的地方,不在于它算得更快,而在于它开始:
- 主动推荐行动
- 自动触发流程
- 在没有人工确认的情况下执行决策
这时,AI 的角色已经悄然变化。
它不再只是一个工具,而更像一个:
参与决策的“同事”
而大多数管理体系,并没有为这种角色预留位置。
三、ITIL第5版 的一个重要判断
在 ITIL第5版 中,有一个非常清晰但不太显眼的判断:
管理体系必须假设 AI 会参与决策
不是未来
不是假设场景
而是现在
这意味着,传统那套:
人负责,工具辅助
的隐含前提,已经不成立了。
四、管理体系必须补上的第一课:责任归属
当 AI 参与决策之后,最先暴露出来的问题,永远是责任。
比如:
- AI 推荐了一个错误的处理方案
- AI 自动执行了一个高风险动作
- AI 基于有偏的数据做出了不公平判断
这时,如果管理体系里没有明确规定:
谁对 AI 的行为负责
谁有权否决 AI 的建议
谁承担最终结果
那组织就会陷入一种危险状态:
人人都参与了,
但没有人真正负责。
ITIL第5版 在这里传递的信号非常明确:
责任不能被算法稀释。
五、第二课:决策边界必须被重新划清
在 AI 介入之前,很多决策边界是隐含存在的。
比如:
- 哪些决策需要审批
- 哪些可以自动执行
- 哪些属于例外情况
但当 AI 出现之后,这些边界如果不被重新定义,就会变得非常模糊。
ITIL第5版 强调的不是:
尽可能多地自动化
而是:
明确哪些决策绝不能自动化
明确哪些决策必须保留人工判断
明确哪些场景需要人工介入兜底
换句话说:
不是 AI 能做什么,
而是 AI 不该做什么。
六、第三课:失控预案,而不是成功故事
大多数 AI 项目在介绍时,都会强调成功案例。
而 ITIL第5版 反而更关注一个不那么“好听”的问题:
如果 AI 出错了,怎么办?
这不是技术问题,而是管理问题。
一个成熟的管理体系,必须在 AI 正常工作之前,就回答清楚:
- 谁能紧急叫停?
- 人工接管的流程是什么?
- 数据如何回溯?
- 责任如何追踪?
没有这些问题的答案,AI 带来的不是效率,而是不确定性。
七、为什么这对 IT 管理者尤其残酷
因为在很多组织里,AI 是由 IT 引入的,但:
- 决策影响业务
- 风险影响合规
- 后果影响组织声誉
这意味着,IT 管理者很容易被推到一个位置:
工具是你引入的
系统是你管理的
问题自然也是你的
而如果管理体系没有提前补课,个人往往只能被动兜底。
八、从 ITIL第5版 看真正的“AI 治理”
在 ITIL第5版 的语境中,AI 治理并不是:
制定几条使用规范
限制几个应用场景
而是把 AI 作为一个新型参与者,正式纳入管理系统:
- 明确角色
- 明确权限
- 明确责任
- 明确退出机制
这和对待一个新岗位的管理逻辑,本质上是一样的。
九、给组织和个人的一句提醒
如果你现在还在用下面这句话安慰自己:
AI 只是辅助
最后还是人决定
那你最好再检查一次:
你的系统里,有没有允许 AI 在无人干预的情况下行动?
如果有,那它已经不是工具了。
当 AI 从工具变成“同事”,
管理体系如果不升级,
责任就会消失在算法里。
而 ITIL第5版,正是在提醒我们:
在效率之前,
先把责任讲清楚。
我是AI+ITIL教练长河achotsao,欢迎交流。关注我,即可第一时间获得ITIL 第5版最新动态及官方特邀中国区大使的深度解析,全网同名。