什么是「勤勉尽责型 AI」?

12 阅读5分钟

过去两年,AI 在金融行业的应用几乎以“压倒性效率优势”推进。智能客服、投研助手、投顾问答、营销推荐、合规检索……越来越多机构开始尝试让 AI 直接面向客户输出判断与建议。

但一个关键问题正在变得越来越清晰,却仍被刻意回避:今天的 AI,本质上是无目的、无使命、无职责的系统。

在金融服务中,这并不是一个哲学问题,而是一个合规与责任问题。

一、当前主流 AI 并“不知道自己在干什么”

从工程角度看,大多数大模型系统具备以下共同特征:

没有内在目标(Goal),没有服务使命(Duty),没有责任边界(Responsibility),没有对“后果”的持续承担能力。

它们的工作方式本质是:在给定输入和上下文条件下,生成统计上最合理的输出。

这意味着 AI 并不知道自己是不是在“提供投资建议”,这条建议是否适合“这个客户”,是否触及了某种监管红线,是否需要触发披露、提醒或拒绝回答等。

它,只是在完成一次“生成任务”。

这在金融服务中是致命的。在金融领域,判断本身不是最重要的,责任才是。

一个投资建议是否合规,通常取决于三个核心问题:

  1. 当时是否掌握了必要信息?

  2. 判断过程是否合理、审慎?

  3. 是否遵循了适当性与内部流程?

这正是监管中反复强调的 “勤勉尽责”。而一个无目的、无职责的 AI,根本无法“尽责”,它不会意识到自己需要“谨慎”,自己有“不该回答”的时刻,自己要为历史行为保持一致性。

二、AI 给出“看似合理、实则违规”的建议

我们来看一个极其常见、但风险极高的场景。

客户问:“现在要不要卖掉?”

对于通用 AI 来说,它可能会:

  1. 分析近期市场波动

  2. 给出多空两种可能性

  3. 提供情绪安抚式语言

  4. 加一句“仅供参考,不构成投资建议”

但从金融合规角度看,问题恰恰在于:

  • 这是不是已经构成投资建议行为?
  • 是否了解客户的风险承受能力?
  • 是否符合客户既定投资目标?
  • 是否忽略了过往行为与情绪特征?
  • 是否需要进行适当性判断或风险提示?

AI 不会主动问这些问题,因为它并不知道“这些问题是必须的”。

很多行业讨论把焦点放在: 模型幻觉,数据准确性,回答是否“专业”。但从监管与内控视角,真正关心的是:当 AI 被用于影响客户决策时,它是否具备“可被审查的决策过程”。

这正是《证券期货投资者适当性管理办法》《金融消费者权益保护办法》等监管规则背后的核心逻辑:决策必须有依据,行为必须可解释,过程必须可追溯,而不是“AI 当时是这么算的”,“模型概率最高是这个答案”

三、“无目的AI”的三类系统性合规风险

1、适当性风险:AI 无法判断客户是否适合该类建议,当前情境是否应当“保持沉默”,是否需要人工介入等,这会导致跨越适当性边界的自动输出。

2、行为管理风险:金融服务强调决策过程的合理性,以及行为的一致性与可解释性。但无使命的 AI每次判断都是一次性生成,不对过去负责,不对未来负责,这在审计与纠纷中几乎无法成立。

3、责任错配风险:一旦出现纠纷,问题会变成:这是模型的责任?是技术团队的责任? 还是业务部门的责任?

这些风险,让AI多说一句“仅供参考”也解决不了问题,更有可能被认定为:适当性判断缺失,规避实质责任,同时,持续、系统性输出仍可能被认定为投顾行为。

四、勤勉尽责型 AI”的真正含义

我们认为,“勤勉尽责型 AI”并不是指 AI 更聪明,而是指它至少具备以下方向性的能力:

  • 知道什么时候该谨慎
  • 知道什么时候不该回答
  • 知道自己是在履行一种受监管职责
  • 能够被审计、被复盘、被解释

换句话说:它不只是一个生成器,而是一个被纳入责任体系的系统

这是一条绕不开的分水岭。

金融行业已经经历过互联网金融、智能投顾、大数据风控等多次技术浪潮。每一个阶段解决问题的思路都是:先解决效率问题,再面对责任问题。

AI时代,也不例外。当 AI 开始直接影响客户资产决策时,“它有没有勤勉尽责能力”,将不再是一个技术问题,而是一个底线问题。

在接下来的文章中,我们将进一步讨论:

  • 为什么“记忆”是勤勉尽责的技术前提
  • 为什么一次性推理无法承担长期责任
  • 金融 AI 要如何被设计为“可被审查的系统”

欢迎关注,一起把这件事讲清楚、做扎实。


微信公众号:Fiduciary AI,聚焦AI 在财富管理等金融服务中的应用,探讨如何让AI 勤勉尽责