上一篇我得出了一个结论:AI 在电商链路里真正有价值的地方,是认知负担最重和人工成本最高的两类场景。售后工单是后者的典型——规则明确、量大、重复,AI 来做意图识别再合适不过。
但写完那篇之后,我一直在想一个没展开的问题:
AI 做出判断之后,然后呢?
这个"然后",大多数产品设计都跳过了。技术团队花了很多精力让模型的意图识别更准,却很少认真想:当 AI 已经判断出"这个客户想退货",界面接下来应该发生什么?自动触发退货流程?等客服确认?还是让客户自己再按一次?
这条边界——什么时候 AI 该自己执行,什么时候必须等人——不是技术问题,是设计问题。
你有没有在这里停留,然后思考一下,下一步应该是什么样的?
从一个工单说起
想象这样一条售后消息:
"我上周买的外套,收到发现颜色和图片差太多了,能退吗?"
对一个训练充分的意图分类模型来说,这条消息的处理不难:退货意图,原因是色差,属于"货不对板"类目,符合平台退货政策。置信度 0.94。
好,模型判断完了。现在问题来了:
界面该做什么?
选项 A:直接自动发起退货申请,给客户发确认短信。
选项 B:在客服工作台标注"建议:退货申请(置信度 94%)",等客服点击确认。
选项 C:给客户发一条消息:"您是否需要申请退货?",等客户自己确认。
选项 D:根据置信度动态决定——高于某个阈值自动执行,低于阈值转人工。
这四个选项,背后是四种完全不同的产品逻辑。没有哪个天然正确,但选哪个会直接影响:客户体验、客服工作量、出错之后谁来担责、以及商家对这套系统的信任程度。
工单的完整旅程:AI 介入的三个阶段
在讨论"自动执行还是人工确认"之前,先把一条工单从进来到处理完的完整路径摊开来看。
这张图里有几个细节值得注意:
第一,置信度和风险是两个独立维度,不能只看置信度高低;
第二,无论哪条路径,操作记录都是必须的,不是可选项;
第三,人工处理的结果应该回流到模型,这个闭环在很多产品里是缺失的。
四类工单,四种处置
把意图清晰度和出错风险交叉,能得到四种典型工单,每一种的正确处置方式都不一样:
| 工单类型 | 示例消息 | AI 置信度 | 出错风险 | 建议处置 |
|---|---|---|---|---|
| 意图明确 · 低风险 | "这个能退货吗,我不喜欢" | 高(~95%) | 低(可撤销) | 自动发起退货申请,显示撤销入口 |
| 意图明确 · 高风险 | "我要投诉,这个产品质量有问题" | 高(~90%) | 高(涉及品牌声誉) | 工作台标注意图 + 建议回复模板,客服确认后发送 |
| 意图模糊 · 可引导 | "东西有点问题,怎么处理" | 中(~65%) | 中 | 列出 2-3 个意图候选,客服快速选择;或给客户发引导消息 |
| 意图不明 · 情绪激动 | "太差劲了!!!退退退!!!" | 低(~40%) | 高(情绪化客户需要人工安抚) | 直接转人工,标注"情绪风险",优先级提升 |
第四类是最容易被忽视的。"退退退"这个词在字面上是退货意图,模型可能识别出高置信度的退货分类——但这条消息需要的不是触发退货流程,而是先安抚情绪。纯文本意图识别不等于理解语境,这是 AI 介入工单处理时最容易翻车的地方。
「 做了一个可以玩的版本,→ 在线体验 」
出错了,界面怎么兜底
AI 判断出错不是概率问题,是必然会发生的事。问题不是"怎么避免出错",而是"出错之后系统怎么行动"。
常见的出错场景有三种:
场景一:自动执行了错误动作。 客户说"我想换个颜色",AI 识别为退货并自动发起了退货申请。客户收到退货确认短信,困惑,打电话进来。这时候客服看到的界面应该是:清晰标注"系统于 10 分钟前自动发起退货申请",一键撤销,同时自动生成一条道歉模板消息。如果这个撤销入口藏在三层菜单里,出错的代价就从"小麻烦"变成了"客户愤怒"。
场景二:置信度虚高,判断方向错了。 "我朋友说这个质量不好,我有点担心"——这条消息的关键词触发了模型的"质量投诉"分类,置信度 88%。但实际上客户只是在表达顾虑,还没有购买,根本没有工单可以处理。这类情况,界面的兜底方式是:在工作台显示判断依据("触发词:质量不好"),让客服能快速理解为什么 AI 这么判断,并在纠正之后把这条记录标注为"误判样本"。
场景三:正确意图,错误时机。 客户下单后两小时内发消息"我想取消订单",AI 正确识别为取消意图,自动触发取消流程——但这时候订单已经进入打包环节,取消会触发额外的仓储费用。AI 不知道订单状态,做了一个技术上正确但业务上错误的决定。这个场景说明:意图识别和动作执行之间,需要一层业务规则校验,不能让模型的输出直接触发操作。
我尝试建立一个判断框架
反复想这个问题之后,我觉得影响"自动执行 vs 人工确认"这条边界的,主要是三个变量:
1. 出错的代价有多高?
同样是退货场景,"误触发了一个客户不想退的退货申请",代价是:客户困惑、需要撤销、产生额外沟通。麻烦,但可以修复。
换一个场景:AI 判断某个账号存在异常交易,自动冻结——如果判断错了,代价是:正常用户被误封,投诉升级,信任崩塌。不可轻易修复。
出错代价越高,越需要人工确认作为缓冲。 这个逻辑不复杂,但容易被"模型准确率已经很高了"这个理由绕过。准确率 99% 听起来很高,但如果每天处理一万条工单,就有一百条出错——这一百条落在真实用户身上,每一条都是一个完整的糟糕体验。
2. 可逆性如何?
自动执行之后,这个动作能撤销吗?
退货申请发出了,可以撤销。优惠券发出去了,不好收回。退款打出去了,追回来很麻烦。物流揽件指令发出去了,基本不可逆。
可逆性越低,越需要在执行前确认。 这和出错代价是两个维度——有些事出错代价不高,但就是无法撤销;有些事代价很高,但可以事后补救。两者叠加才是完整的风险评估。
3. 这个判断需要上下文吗?
有些工单,AI 光看消息文本就能判断得很准。但有些情况,真正的意图藏在文本之外:
- 客户历史上退过几次货了?
- 这个订单是否处于促销期,退货会触发特殊规则?
- 客服备注里有没有这个客户的特殊情况?
如果正确判断需要的上下文,模型当前不具备,那置信度数字本身就是虚高的——模型不知道自己不知道什么。这种情况,再高的置信度也不该触发自动执行。
用这个框架重新看那个工单
回到开头那条退货消息,套进三个变量:
- 出错代价:中等(触发了不该触发的退货申请,可以撤销,但产生摩擦)
- 可逆性:高(申请发出后客户可以主动取消)
- 上下文依赖:低("颜色和图片差太多"意图明确,不需要额外信息)
这个组合,倾向于可以自动执行,但要给客户一个明确的撤销入口。客服不需要介入每一条,但系统要在操作后保留一个清晰的"撤销窗口"和操作记录。
换一条消息试试:
"我买的东西有点问题,你们怎么说?"
- 出错代价:不确定(不知道"问题"是什么,处理方式差异很大)
- 可逆性:取决于后续动作
- 上下文依赖:极高("有点问题"几乎没有信息量)
这个组合,模型的置信度无论多高,都不该自动执行任何流程。正确的界面行为是:标注"意图不明确,建议人工介入",并把可能的意图选项列出来,让客服快速选择而不是从头处理。
界面设计的几个具体含义
这个框架落到界面上,会带来几个具体的设计要求,是我觉得目前大多数产品做得不够的地方:
置信度要可见,但不能只是一个数字。
"置信度 94%"对普通客服来说没有意义。更有用的呈现是:把这个数字翻译成行动建议——"建议直接处理"、"建议确认后处理"、"建议人工介入"。数字留给系统日志,界面上给人看的是判断,不是概率。
自动执行之后,操作记录必须显眼。
如果 AI 自动触发了某个流程,这个动作不能藏在日志里。它应该在工作台上有明显的呈现:"系统已自动发起退货申请 · 10分钟内可撤销"。人工覆盖的成本越低,越敢放权给 AI 自动执行。
人工覆盖不该是"报错",是正常流程的一部分。
很多系统设计里,人工覆盖 AI 判断是一个"异常路径"——操作步骤多、界面不顺畅、有时候还要填理由。这个设计隐含了一个假设:AI 是对的,人工推翻是例外。
但实际上,人工覆盖是正常的。模型不可能永远对,边缘案例永远存在。界面应该让"我不同意这个判断"这个操作和"我同意"一样顺畅——一个点击,不需要解释,不需要走审批流。
商家后台的同一个问题
这个框架不只适用于售后工单,商家后台里同样存在大量"AI 已判断,然后呢"的设计问题。
比如 AI 检测到某个 SKU 的库存即将断货,预测三天内售罄——界面该做什么?
自动触发补货申请?发一条通知让运营确认?还是只在数据看板上标注一个预警色,等运营自己发现?
套进同样的框架:
- 出错代价:高(错误补货会导致积压或资金占用)
- 可逆性:低(补货指令发出之后,供应链已经启动)
- 上下文依赖:高(补货决策依赖当前促销计划、账期、仓库容量……这些数据模型不一定都有)
这个组合,答案很清晰:不该自动执行,应该是"高优先级提醒 + 一键确认" 。AI 做信息聚合和预测,人来做最终决策。界面的工作是把"确认"这个动作做得足够顺畅,减少决策摩擦,而不是代替决策。
还没想清楚的地方
置信度阈值该怎么定,谁来定?
我说的"高于某个阈值自动执行",这个阈值应该是固定的系统参数,还是让商家自己配置?不同规模的商家、不同品类的商品,对出错的容忍度差异很大。把这个权力交给商家配置,是更诚实的设计,但也带来了新的认知负担——商家未必知道 94% 和 87% 的置信度在实际操作里意味着什么。
当 AI 频繁被人工覆盖,系统该怎么反应?
如果某类工单的 AI 判断被客服推翻的比例很高,这是一个明确的信号:要么模型在这个类目表现差,要么界面的行动建议设计有问题,要么这类工单本来就不适合 AI 介入。这个反馈机制,应该是自动的,而不是靠数据团队定期去看日志才能发现。
与这个系列的关系
第一篇建立了一个框架:AI 在哪两类场景真正有价值。这篇往前走了一步:当 AI 真的介入之后,界面的责任不是消失,而是变了——从"帮用户完成操作",变成"在 AI 和人之间建立一个合理的权力分配机制"。
下一篇打算进入决策层,聚焦导购 Agent——那里的问题方向相反:不是"AI 判断了,人怎么接管",而是"用户说不清楚自己要什么,AI 怎么开始"。
这篇是观察和思考的笔记,框架还很粗糙。如果你在做类似的产品或界面设计,欢迎交流——特别是那个阈值配置的问题,我还没想到好的解法。