単純ベイズ分類器が0-1損失に最適なのはなぜですか?


13

Naive Bayes分類器は、クラスメンバーシップの事後の最大化に基づいてアイテムバツをクラス割り当て、アイテムの特徴が独立していると仮定する分類器です。P C | x CPC|バツ

0-1の損失は、分類ミスに「1」の損失を割り当て、正しい分類に「0」の損失を割り当てる損失です。

私はよく(1)「単純ベイズ」分類器が0-1の損失に最適であることを読みました。なぜこれが本当ですか?

(1)1つの典型的なソース:ベイズ分類器とベイズエラー


2
「「単純ベイズ」分類子は、0-1損失に最適であるとよく読みますというステートメントの参照を提供できますか?同様に、過去にこのタイプのステートメントをどこで読んだことがありますか
ジョン

1
編集され、exemplatoryソースを追加

回答:


16

実際、これは非常に単純です。ベイズ分類器は、事後発生確率が最大のクラス(いわゆる最大事後推定)を選択します。0-1損失関数不利の誤分類は、それが正しい分類の最大数を有する溶液に最小の損失を割り当てるすなわち したがって、両方のケースで、モードの推定について話しています。モードはデータセットで最も一般的な値、または最も可能性の高い値であるため、事後確率の最大化と0-1損失の最小化の両方がモードの推定につながることを思い出してください。

正式な証明が必要な場合は、アンジェラJ.ユーによるベイジアン決定理論の概要の論文で説明されています。

0-1バイナリ損失関数の形式は次のとおりです。

lx(s^,s)=1δs^s={1ifs^s0otherwise

ここで、はクロネッカーデルタ関数です。(...)予想される損失:δ

Lx(s^)=slx(s^,s)P(s=sx)=s(1δs^s)P(s=sx)=sP(s=sx)dssδs^sP(s=sx)=1P(s=sx)

これは、一般的に事後推定の最大値に当てはまります。したがって、事後分布がわかっている場合、0-1の損失を仮定して、最適な分類ルールは事後分布のモードを取ることであり、これを最適ベイズ分類器と呼びます。実際には、通常、事後分布はわかりませんが、むしろ推定します。Naive Bayes分類器は、経験的分布を見て、予測子の独立性を仮定することにより、最適な分類器を近似します。したがって、単純ベイズ分類器自体は最適ではありませんが、最適なソリューションに近似します。あなたの質問では、これら2つのことを混同しているようです。


私は理解していると思う:だから、正式な証明はLoss(action_1)= 1-P(action_2 | data)<---の線に沿ったものになるだろう。これを最小限に抑えたい。これを最小化することは、正しいクラスの前を最大化することと同じです(つまり、P(action_2 | data)を最大化します。しかし、混乱するのは、すべての分類子がこの点に関して最適ではない理由です。データサンプルをクラスに割り当てるため、常にデータサンプルをより高い事後のクラスに割り当てることを選択した場合、この最適性は自動的に

@TestGuestは、正式な証拠のために私の編集をチェックします。
ティム

That is the most complicated formalism I have seen for such a proof:)) thank you however, I hope it helps others as well.
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.