私はコーエンの河童を使用して、2人の裁判官間の同意を計算しています。
次のように計算されます。
ここで、は一致の割合、は偶然の一致の確率です。P (E )
次のデータセットの場合、期待される結果が得られます。
User A judgements:
- 1, true
- 2, false
User B judgements:
- 1, false
- 2, false
Proportion agreed: 0.5
Agreement by chance: 0.625
Kappa for User A and B: -0.3333333333333333
両方の裁判官があまりよく合意していないことがわかります。ただし、次の両方の裁判官が1つの基準を評価する場合、カッパはゼロと評価されます。
User A judgements:
- 1, false
User B judgements:
- 1, false
Proportion agreed: 1.0
Agreement by chance: 1.0
Kappa for User A and B: 0
これで、偶然の一致が明らかに1であることがわかります。これにより、カッパはゼロになりますが、これは信頼できる結果としてカウントされますか?問題は、私は通常、基準ごとに3つ以上の判断を下さないことです。そのため、これらはすべて0より大きいカッパには評価されません。これは、あまり代表的ではないと思います。
私の計算は正しいですか?別の方法を使用して相互合意を計算できますか?
ここでは、kappaが複数の判断に対してうまく機能していることがわかります。
User A judgements:
- 1, false
- 2, true
- 3, false
- 4, false
- 5, true
User A judgements:
- 1, true
- 2, true
- 3, false
- 4, true
- 5, false
Proportion agreed: 0.4
Agreement by chance: 0.5
Kappa for User A and B: -0.19999999999999996
information-retrieval
ここのタグはよくわかりません。