缺乏可解释性是创建可持续的、负责任的和值得信赖的人工智能的一个重要障碍。GitHub上有几个专注于解释黑盒模型、审计模型数据和创建透明模型的库。下面,我们列出了解决人工智能模型黑箱问题的顶级GitHub库。
iModels
imodels打包了最前沿的技术,用于简明、透明和准确的预测建模。这个Python库由加州大学伯克利分校的研究人员创建,为拟合和使用最先进的可解释模型提供了一个简单的界面。iModels为许多最先进的可解释模型技术提供了一个简单的统一接口和实现,从而填补了这一空白。
在这里查找库
Captum
Captum 是一个由Facebook开发的PyTorch模型可解释性和理解性库。它由最先进的算法组成,帮助研究人员和开发人员找出有助于模型输出的特征。Captum提供了易于实现的可解释性算法,与PyTorch模型互动。它包括对PyTorch模型的综合梯度、显著性地图、平滑等级、vargrad等的通用实现。
在这里找到该库
在这里阅读论文
InterpretML
InterpretML是一个提供机器学习可解释性技术的开源包,用于训练可解释的玻璃箱模型和解释黑箱系统。它进一步帮助研究人员理解模型的全局行为和单个预测背后的原因。
在这里找到该库
LIME
LIME是Local Interpretable Model-agnostic Explanations for ML models的缩写。LIME是一种解释任何机器学习分类器的预测的技术,并评估其在各种信任相关任务中的有用性。研究人员声称LIME可以解释任何具有两个或更多类别的黑盒分类器。
在这里找到图书馆
在这里阅读论文
阿里巴巴 解释
Alibi解释是一个开源的Python库,用于ML模型检查和解释。它是由Seldon技术有限公司和剑桥大学的研究人员开发的。它为分类和回归的黑盒、白盒、局部和全局方法提供了不同解释的高质量实现。此外,Alibi提供了一套称为解释器的算法或方法,提供了对模型的洞察力。
在这里找到该库
在这里阅读论文
Aequitas
Aequitas是一个为数据科学家、机器学习研究人员和政策制定者提供的开源偏见审计工具包。该工具包由芝加哥大学数据科学与公共政策中心的研究人员创建。它使用户能够轻松地测试模型的几个偏差和有关多个人口子群的公平性指标。此外,它还有助于审计ML模型的歧视和偏见。Aequitas可以作为一个网络审计工具、Python库和命令行工具使用。
在这里找到该库
在这里阅读论文
DeepVis工具箱
DeepVis研究人员在一篇深度学习论文中介绍了两个用于可视化和解释神经网络的工具。第一个工具是在处理图像或视频的过程中,将训练过的convnet的每一层产生的激活可视化。追踪因用户输入而变化的实时激活,有助于建立关于 convnets 如何工作的宝贵直觉。第二个工具通过图像空间中的正则优化,将DNN每一层的特征可视化。DeepVis Toolbox是运行Deep Visualization Toolbox和使用正则优化生成逐个神经元可视化所需的代码。
在这里找到该库
在这里阅读论文
IBM AI Explainability 360
IBM的工具包是一个开源的工具包,帮助开发者理解机器学习模型在整个AI应用生命周期中如何通过各种手段预测标签。它由八个最先进的算法组成,涵盖了解释的不同维度以及代理可解释性指标。研究人员还提供了一个分类法,以帮助需要解释的实体浏览解释方法的空间,以及一个可扩展的软件,供数据科学家根据他们在人工智能建模管道中的位置来组织方法。
在这里找到图书馆
在这里阅读论文
TensorFlow库
Tensorboard的WhatIf是一个屏幕,用于分析推理结果和数据输入之间的相互作用。它允许开发人员以最少的编码来直观地探究训练过的机器学习模型的行为。Tensorflow的cleverhans是一个对抗性例子库,用来衡量机器学习系统对对抗性例子的脆弱性。Tensorflow的 lucid是一个基础设施和工具的集合,用于研究神经网络的可解释性。最后,Tensorflow的 模型分析是一个用于评估TensorFlow模型的库。它允许用户以分布式方式在大量数据上评估他们的模型,使用他们的训练器中定义的相同指标。
The postTop GitHub libraries for building explainedable AI modelsappeared first onAnalytics India Magazine.