如何用Python计算Cohen's Kappa

641 阅读2分钟

在统计学中,Cohen's Kappa被用来衡量两个评分者或法官之间的一致程度,他们各自将项目划分为相互排斥的类别。

科恩卡帕的计算公式为:

K = (po-pe) / (1 -pe)

其中:

  • po:评价者之间的相对观察一致性
  • pe:假设的偶然一致的概率

Cohen's Kappa不只是计算测评者同意的项目的百分比,而是试图考虑测评者可能碰巧在某些项目上达成一致的事实,这纯粹是偶然的。

科恩卡帕的值总是在0和1之间:

  • 0 表示两个评分者之间没有一致
  • 1表示两个评分者之间完全一致

下表总结了如何解释Cohen's Kappa的不同数值:

Cohen's Kappa

下面的例子显示了如何用Python计算Cohen's Kappa。

例子。用Python计算Cohen's Kappa

假设两个艺术博物馆的馆长被要求对15幅画作进行评分,看它们是否足够好,以便在一个新的展览中展出。

下面的代码显示了如何使用sklearn库中的**cohen_kappa_score()**函数来计算这两个评分者的Cohen's Kappa:

from sklearn.metrics import cohen_kappa_score

#define array of ratings for both raters
rater1 = [0, 1, 1, 1, 0, 0, 1, 0, 1, 0, 1, 1, 0, 1, 0]
rater2 = [0, 0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 1, 0, 1, 0]

#calculate Cohen's Kappa
cohen_kappa_score(rater1, rater2)

0.33628318584070793

Cohen's Kappa结果是0.33628

根据前面的表格,我们可以说这两个评分者只有 "一般 "水平的一致。

如果你想计算三个或更多评分者之间的一致程度,建议使用Fleiss'Kappa代替。

你可以使用statsmodels库中的fleiss_kappa()函数来计算这个指标。

注意:你可以在这里找到cohen_kappa_score()函数的完整文档。

额外资源

以下教程提供了关于Cohen's Kappa的额外资源:

科恩卡帕简介
如何在Excel中计算科恩卡帕
科恩卡帕计算器