バランスの取れた精度とF-1スコア


14

誰もがバランスの取れた精度の違いを説明できるかどうか疑問に思っていました

b_acc = (sensitivity + specificity)/2

およびf1スコア:

f1 = 2*precision*recall/(precision + recall) 

回答:


19

数学的には、b_accはrecall_Pとrecall_Nの算術平均であり、f1はrecall_Pとprecision_Pの調和平均です。

F1とb_accはどちらも分類子評価のメトリックであり、クラスの不均衡を(ある程度)処理します。2つのクラス(NまたはP)のどちらが他のクラスよりも多いかに応じて、各メトリックは他のクラスよりも優れています。

1)N >> Pの場合、f1の方が優れています。

2)P >> Nの場合、b_accの方が優れています。

ラベル切り替えが可能な場合、明らかに、上記の2つの不均衡のいずれの場合でも両方のメトリックを使用できます。そうでない場合は、トレーニングデータの不均衡に応じて、適切なメトリックを選択できます。


1
ありがとう
ジン

@ginの2番目のリクエストのうち、2つを選択する方法についての詳細情報を求めたいと思います。Nが約8%のデータがあります。上記の答えでは、バランスの取れた精度を使用する必要があるようです。私はこの選択に関する他の参照を探していました(P> N-> b_acc)が、何も見ていません。
anguyen1210

これは私には意味がありません。ラベルスイッチングでは、バランスの取れた精度は不変です。ラベルスイッチングが変更されない場合、どうすれば「改善」できますか?
TCプロクター
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.