ITIL v5告诉你:AI 从工具变成“同事”,管理体系必须补上哪一课

33 阅读5分钟

2026年1月29日,PeopleCert正式发布了ITIL 第5版。作为ITIL官方中国区产品大使,我将会推出系列文章帮大家解读ITIL 第5版到底有哪些重大的更新。

在很多组织里,AI 是这样被引入管理体系的:

先从工具开始

再慢慢扩大使用范围

最后不知不觉参与了决策

一开始,没有人觉得这有什么问题。

直到某一天,事情出了偏差,大家才突然发现一个尴尬的现实:

这个决定,到底是谁做的?

一、当 AI 还只是工具时,管理问题并不复杂

在传统 IT 管理语境中,工具的角色非常清晰:

  • 工具提供信息
  • 人做判断
  • 人对结果负责

即便工具出错,责任归属也并不模糊。

因为没有人会说:

是监控系统“决定”忽略了告警

是报表工具“决定”错过了风险

工具,从来只是被使用的对象。

二、问题出在:AI 不再只是“被动工具”

AI 真正改变游戏规则的地方,不在于它算得更快,而在于它开始:

  • 主动推荐行动
  • 自动触发流程
  • 在没有人工确认的情况下执行决策

这时,AI 的角色已经悄然变化。

它不再只是一个工具,而更像一个:

参与决策的“同事”

而大多数管理体系,并没有为这种角色预留位置。

三、ITIL第5版 的一个重要判断

在 ITIL第5版 中,有一个非常清晰但不太显眼的判断:

管理体系必须假设 AI 会参与决策

不是未来

不是假设场景

而是现在

这意味着,传统那套:

人负责,工具辅助

的隐含前提,已经不成立了。

四、管理体系必须补上的第一课:责任归属

当 AI 参与决策之后,最先暴露出来的问题,永远是责任。

比如:

  • AI 推荐了一个错误的处理方案
  • AI 自动执行了一个高风险动作
  • AI 基于有偏的数据做出了不公平判断

这时,如果管理体系里没有明确规定:

谁对 AI 的行为负责

谁有权否决 AI 的建议

谁承担最终结果

那组织就会陷入一种危险状态:

人人都参与了,

但没有人真正负责。

ITIL第5版 在这里传递的信号非常明确:

责任不能被算法稀释。

五、第二课:决策边界必须被重新划清

在 AI 介入之前,很多决策边界是隐含存在的。

比如:

  • 哪些决策需要审批
  • 哪些可以自动执行
  • 哪些属于例外情况

但当 AI 出现之后,这些边界如果不被重新定义,就会变得非常模糊。

ITIL第5版 强调的不是:

尽可能多地自动化

而是:

明确哪些决策绝不能自动化

明确哪些决策必须保留人工判断

明确哪些场景需要人工介入兜底

换句话说:

不是 AI 能做什么,

而是 AI 不该做什么。

六、第三课:失控预案,而不是成功故事

大多数 AI 项目在介绍时,都会强调成功案例。

而 ITIL第5版 反而更关注一个不那么“好听”的问题:

如果 AI 出错了,怎么办?

这不是技术问题,而是管理问题。

一个成熟的管理体系,必须在 AI 正常工作之前,就回答清楚:

  • 谁能紧急叫停?
  • 人工接管的流程是什么?
  • 数据如何回溯?
  • 责任如何追踪?

没有这些问题的答案,AI 带来的不是效率,而是不确定性。

七、为什么这对 IT 管理者尤其残酷

因为在很多组织里,AI 是由 IT 引入的,但:

  • 决策影响业务
  • 风险影响合规
  • 后果影响组织声誉

这意味着,IT 管理者很容易被推到一个位置:

工具是你引入的

系统是你管理的

问题自然也是你的

而如果管理体系没有提前补课,个人往往只能被动兜底。

八、从 ITIL第5版 看真正的“AI 治理”

在 ITIL第5版 的语境中,AI 治理并不是:

制定几条使用规范

限制几个应用场景

而是把 AI 作为一个新型参与者,正式纳入管理系统:

  • 明确角色
  • 明确权限
  • 明确责任
  • 明确退出机制

这和对待一个新岗位的管理逻辑,本质上是一样的。

九、给组织和个人的一句提醒

如果你现在还在用下面这句话安慰自己:

AI 只是辅助

最后还是人决定

那你最好再检查一次:

你的系统里,有没有允许 AI 在无人干预的情况下行动?

如果有,那它已经不是工具了。

当 AI 从工具变成“同事”,

管理体系如果不升级,

责任就会消失在算法里。

而 ITIL第5版,正是在提醒我们:

在效率之前,

先把责任讲清楚。

我是AI+ITIL教练长河achotsao,欢迎交流。关注我,即可第一时间获得ITIL 第5版最新动态及官方特邀中国区大使的深度解析,全网同名。