首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
可解释性人工智能
顾京
创建于2024-10-18
订阅专栏
学习对深度学习模型进行解释
等 2 人订阅
共3篇文章
创建于2024-10-18
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
模型的可解释性之SHAP
SHAP(SHapley Additive exPlanations)是由华盛顿大学研究人员于2017年在NIPS会议提出。它与之前的LIME都是采用局部近似方法以达到解释模型的效果。
模型的可解释性之CAM系列
CAM是class activation mapping(类激活映射)的简称,由周博磊等人2016年的cvpr会议提出,其方法简单,应用广泛,还启发了大量的基于CAM的研究,如Grad-CAM等。
可解释的模型之LIME
可解释的AI 为什么需要XAI(Explainable AI) 技术 当使用机器学习用于医疗或者恐怖分子检测的时候,预测是不可盲目相信的,因为预测错误的后果是灾难性的,因此我们需要对模型结果进行解释。