在统计学中,Cohen's Kappa被用来衡量两个评分者或法官之间的一致程度,他们各自将项目划分为相互排斥的类别。
科恩卡帕的计算公式为:
K = (po-pe) / (1 -pe)
其中:
- po:评价者之间的相对观察一致性
- pe:假设的偶然一致的概率
Cohen's Kappa不只是计算测评者同意的项目的百分比,而是试图考虑测评者可能碰巧在某些项目上达成一致的事实,这纯粹是偶然的。
科恩卡帕的值总是在0和1之间:
- 0 表示两个评分者之间没有一致
- 1表示两个评分者之间完全一致
下表总结了如何解释Cohen's Kappa的不同数值:
下面的例子显示了如何用Python计算Cohen's Kappa。
例子。用Python计算Cohen's Kappa
假设两个艺术博物馆的馆长被要求对15幅画作进行评分,看它们是否足够好,以便在一个新的展览中展出。
下面的代码显示了如何使用sklearn库中的**cohen_kappa_score()**函数来计算这两个评分者的Cohen's Kappa:
from sklearn.metrics import cohen_kappa_score
#define array of ratings for both raters
rater1 = [0, 1, 1, 1, 0, 0, 1, 0, 1, 0, 1, 1, 0, 1, 0]
rater2 = [0, 0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 1, 0, 1, 0]
#calculate Cohen's Kappa
cohen_kappa_score(rater1, rater2)
0.33628318584070793
Cohen's Kappa结果是0.33628。
根据前面的表格,我们可以说这两个评分者只有 "一般 "水平的一致。
如果你想计算三个或更多评分者之间的一致程度,建议使用Fleiss'Kappa代替。
你可以使用statsmodels库中的fleiss_kappa()函数来计算这个指标。
注意:你可以在这里找到cohen_kappa_score()函数的完整文档。
额外资源
以下教程提供了关于Cohen's Kappa的额外资源: