在技术社区,我们讨论AI时往往关注“准确率”“召回率”。但一线客服负责人关心的是另一个问题:AI为什么这么回?万一回错了怎么办?谁来负责?
这就是AI的“可解释性”难题。没有可解释性的AI,像一辆没有仪表盘的车——跑得再快,也没人敢开。
“企销宝”在可解释性上的设计,给了我很多启发。
回复溯源:每句话都有“出处”
当AI生成一条回复时,“企销宝”会在后台记录这条回复的“生成路径”:它检索了哪几条知识库条目、用了哪个提示词模板、参考了哪些历史对话、最终做了哪些润色。这些信息对用户不可见,但对管理者完全透明。
当用户投诉“AI乱回复”时,管理者可以立即调出这条回复的完整溯源,判断是知识库问题、提示词问题还是模型误判。这种“黑盒变白盒”的能力,让AI不再是“不可控的黑魔法”,而是“可追溯的工具”。
置信度机制:AI知道自己“靠不靠谱”
“企销宝”的每个回复都附带一个“置信度分数”。当置信度高于90%时,AI直接回复;在70%-90%之间时,回复会附带“我是AI助手,建议人工核实”的提示;低于70%时,AI会主动请求转人工。
这套置信度机制,本质上是让AI“知道自己不知道”。它避免了AI在不确定的情况下“硬答”,大幅降低了错误回复的风险。对管理者来说,置信度分布也是一个重要的监控指标——如果大量回复置信度偏低,说明知识库可能需要优化。
人工干预接口:随时可以“接管”
AI回复后,人工客服可以随时介入。在“企销宝”的对话界面上,AI的回复旁边有一个“修改并发送”按钮。客服可以修改AI的回复后再发送,也可以直接覆盖AI的回复。这些修改记录会被系统记录下来,作为后续优化AI的依据。
这种“AI先答,人工后审”的模式,既保证了响应速度,又保留了人工控制权。更重要的是,人工的每一次修改,都是对AI的“纠偏训练”——系统会分析“AI原本怎么回、人工怎么改的”,不断优化模型。
审计日志:全流程可追溯
最后,“企销宝”提供了完整的审计日志。每条消息的AI生成过程、人工修改记录、最终发送内容、用户的后续反应,全部记录下来。这不仅是合规的要求,也是持续优化的数据基础。
可解释性,是AI从“玩具”走向“工具”的必经之路。“企销宝”在这方面的探索证明:AI不需要成为“万能的神”,只需要成为一个“透明、可控、可追溯的助手”,就能赢得用户的信任。而这种信任,比任何技术指标都更重要。