过去两年,AI 在金融行业的应用几乎以“压倒性效率优势”推进。智能客服、投研助手、投顾问答、营销推荐、合规检索……越来越多机构开始尝试让 AI 直接面向客户输出判断与建议。
但一个关键问题正在变得越来越清晰,却仍被刻意回避:今天的 AI,本质上是无目的、无使命、无职责的系统。
在金融服务中,这并不是一个哲学问题,而是一个合规与责任问题。
一、当前主流 AI 并“不知道自己在干什么”
从工程角度看,大多数大模型系统具备以下共同特征:
没有内在目标(Goal),没有服务使命(Duty),没有责任边界(Responsibility),没有对“后果”的持续承担能力。
它们的工作方式本质是:在给定输入和上下文条件下,生成统计上最合理的输出。
这意味着 AI 并不知道自己是不是在“提供投资建议”,这条建议是否适合“这个客户”,是否触及了某种监管红线,是否需要触发披露、提醒或拒绝回答等。
它,只是在完成一次“生成任务”。
这在金融服务中是致命的。在金融领域,判断本身不是最重要的,责任才是。
一个投资建议是否合规,通常取决于三个核心问题:
-
当时是否掌握了必要信息?
-
判断过程是否合理、审慎?
-
是否遵循了适当性与内部流程?
这正是监管中反复强调的 “勤勉尽责”。而一个无目的、无职责的 AI,根本无法“尽责”,它不会意识到自己需要“谨慎”,自己有“不该回答”的时刻,自己要为历史行为保持一致性。
二、AI 给出“看似合理、实则违规”的建议
我们来看一个极其常见、但风险极高的场景。
客户问:“现在要不要卖掉?”
对于通用 AI 来说,它可能会:
-
分析近期市场波动
-
给出多空两种可能性
-
提供情绪安抚式语言
-
加一句“仅供参考,不构成投资建议”
但从金融合规角度看,问题恰恰在于:
- 这是不是已经构成投资建议行为?
- 是否了解客户的风险承受能力?
- 是否符合客户既定投资目标?
- 是否忽略了过往行为与情绪特征?
- 是否需要进行适当性判断或风险提示?
AI 不会主动问这些问题,因为它并不知道“这些问题是必须的”。
很多行业讨论把焦点放在: 模型幻觉,数据准确性,回答是否“专业”。但从监管与内控视角,真正关心的是:当 AI 被用于影响客户决策时,它是否具备“可被审查的决策过程”。
这正是《证券期货投资者适当性管理办法》《金融消费者权益保护办法》等监管规则背后的核心逻辑:决策必须有依据,行为必须可解释,过程必须可追溯,而不是“AI 当时是这么算的”,“模型概率最高是这个答案”
三、“无目的AI”的三类系统性合规风险
1、适当性风险:AI 无法判断客户是否适合该类建议,当前情境是否应当“保持沉默”,是否需要人工介入等,这会导致跨越适当性边界的自动输出。
2、行为管理风险:金融服务强调决策过程的合理性,以及行为的一致性与可解释性。但无使命的 AI每次判断都是一次性生成,不对过去负责,不对未来负责,这在审计与纠纷中几乎无法成立。
3、责任错配风险:一旦出现纠纷,问题会变成:这是模型的责任?是技术团队的责任? 还是业务部门的责任?
这些风险,让AI多说一句“仅供参考”也解决不了问题,更有可能被认定为:适当性判断缺失,规避实质责任,同时,持续、系统性输出仍可能被认定为投顾行为。
四、勤勉尽责型 AI”的真正含义
我们认为,“勤勉尽责型 AI”并不是指 AI 更聪明,而是指它至少具备以下方向性的能力:
- 知道什么时候该谨慎
- 知道什么时候不该回答
- 知道自己是在履行一种受监管职责
- 能够被审计、被复盘、被解释
换句话说:它不只是一个生成器,而是一个被纳入责任体系的系统。
这是一条绕不开的分水岭。
金融行业已经经历过互联网金融、智能投顾、大数据风控等多次技术浪潮。每一个阶段解决问题的思路都是:先解决效率问题,再面对责任问题。
AI时代,也不例外。当 AI 开始直接影响客户资产决策时,“它有没有勤勉尽责能力”,将不再是一个技术问题,而是一个底线问题。
在接下来的文章中,我们将进一步讨论:
- 为什么“记忆”是勤勉尽责的技术前提
- 为什么一次性推理无法承担长期责任
- 金融 AI 要如何被设计为“可被审查的系统”
欢迎关注,一起把这件事讲清楚、做扎实。
微信公众号:Fiduciary AI,聚焦AI 在财富管理等金融服务中的应用,探讨如何让AI 勤勉尽责