Naive Bayes分類器は、クラスメンバーシップの事後の最大化に基づいてアイテムをクラス割り当て、アイテムの特徴が独立していると仮定する分類器です。P (C | x )
0-1の損失は、分類ミスに「1」の損失を割り当て、正しい分類に「0」の損失を割り当てる損失です。
私はよく(1)「単純ベイズ」分類器が0-1の損失に最適であることを読みました。なぜこれが本当ですか?
(1)1つの典型的なソース:ベイズ分類器とベイズエラー
Naive Bayes分類器は、クラスメンバーシップの事後の最大化に基づいてアイテムをクラス割り当て、アイテムの特徴が独立していると仮定する分類器です。P (C | x )
0-1の損失は、分類ミスに「1」の損失を割り当て、正しい分類に「0」の損失を割り当てる損失です。
私はよく(1)「単純ベイズ」分類器が0-1の損失に最適であることを読みました。なぜこれが本当ですか?
(1)1つの典型的なソース:ベイズ分類器とベイズエラー
回答:
実際、これは非常に単純です。ベイズ分類器は、事後発生確率が最大のクラス(いわゆる最大事後推定)を選択します。0-1損失関数不利の誤分類は、それが正しい分類の最大数を有する溶液に最小の損失を割り当てるすなわち したがって、両方のケースで、モードの推定について話しています。モードはデータセットで最も一般的な値、または最も可能性の高い値であるため、事後確率の最大化と0-1損失の最小化の両方がモードの推定につながることを思い出してください。
正式な証明が必要な場合は、アンジェラJ.ユーによるベイジアン決定理論の概要の論文で説明されています。
0-1バイナリ損失関数の形式は次のとおりです。
ここで、はクロネッカーデルタ関数です。(...)予想される損失:
これは、一般的に事後推定の最大値に当てはまります。したがって、事後分布がわかっている場合、0-1の損失を仮定して、最適な分類ルールは事後分布のモードを取ることであり、これを最適ベイズ分類器と呼びます。実際には、通常、事後分布はわかりませんが、むしろ推定します。Naive Bayes分類器は、経験的分布を見て、予測子の独立性を仮定することにより、最適な分類器を近似します。したがって、単純ベイズ分類器自体は最適ではありませんが、最適なソリューションに近似します。あなたの質問では、これら2つのことを混同しているようです。