Naive Bayesはどのように線形分類器ですか?


31

私はここで他のスレッドを見ましが、答えが実際の質問を満たしたとは思いません。私が絶えず読んでいるのは、Naive Bayesが線形分類器であるということです(例:ここ対数オッズデモンストレーションを使用し)である(線形決定境界を描画する)ことです。

ただし、2つのガウス雲をシミュレートし、決定境界に適合させて、そのような結果を得ました(naiveBayes()を使用してrのライブラリe1071) 1-緑、0-赤

ご覧のとおり、決定境界は非線形です。パラメーター(条件付き確率)は、分類子自体がデータを線形に分離するというよりも、対数空間における線形結合であると言っているのですか?


どのように決定境界を作成しましたか?分類器の真の決定境界ではなく、フィッティングルーチンに関係していると思われます。通常、象限内のすべてのポイントで決定を計算することにより、決定境界を生成します。
seanv507

それは私がやったことです、私はX = [Min(x)、Max(x)]とY = [Min(Y)、Max(Y)]の2つの範囲を0.1の間隔で取りました。私は、訓練された分類器を用いてすべてのこれらのデータポイントを取り付け、対数オッズは-0.05と0.05の間であったことポイントは、見出さ
ケビン・ペイ

回答:


30

一般に、単純ベイズ分類器は線形ではありませんが、尤度係数指数族からのものである場合、単純ベイズ分類器は特定の特徴空間の線形分類器に対応します。これを見る方法は次のとおりです。p(xic

任意の単純ベイズ分類器を次のように記述できます*

p(c=1x)=σ(ilogp(xic=1)p(xic=0)+logp(c=1)p(c=0))

ここで、ロジスティック関数です。場合は、P X I | C )は、指数分布族からのもので、我々はそれをとして書くことができますσp(xic

pバツc=hバツexpあなたはcϕバツAあなたはc

それゆえ

pc=1バツ=σwϕバツ+b

どこで

w=あなたは1あなたは0b=ログpc=1pc=0Aあなたは1Aあなたは0

これは、ϕ iで定義された特徴空間におけるロジスティック回帰(線形分類器)に似ていることに注意してください。3つ以上のクラスの場合、同様に多項ロジスティック(またはソフトマックス)回帰を取得します。ϕ

場合はガウス分布である場合、φ IX Iを= X Ixは2を私が、私たちは持っているはずです wはI 1pバツcϕバツ=バツバツ2

w1=σ12μ1σ02μ0w2=2σ022σ12b=ログσ0ログσ1

p c = 1 = p c = 0 = 1と仮定pc=1=pc=0=12


*この結果を導き出す方法は次のとおりです。

pc=1バツ=pバツc=1pc=1pバツc=1pc=1+pバツc=0pc=0=11+pバツc=0pc=0pバツc=1pc=1=11+expログpバツc=1pc=1pバツc=0pc=0=σログpバツc=1pバツc=0+ログpc=1pc=0

私が今理解している導出に感謝します。式2以下の表記を説明できますか?(u、h(x_i)、phi(x_i)など)P(x_i | c)は、単にpdfから値を取得するだけの指数族ですか?
ケビン・ペイ

あなたはϕ

1
ϕバツ=バツバツ2w

この答えは誤解を招きます:ちょうどコメントで指摘したように、そしてすぐ下の答えで、ガウスナイーブベイズは元の特徴空間では線形ではなく、これらの非線形変換です。したがって、従来の線形分類器ではありません。
ゲールヴァロクオー

pバツ|cϕバツ=バツバツ2Tバツバツ/σ

8

クラス条件付き分散行列が両方のクラスで同じ場合にのみ線形です。これを見るには、対数事後の比率を書き留めて、対応する分散が同じ場合にのみ線形関数を取得します。それ以外の場合は2次です。


3

もう1つ追加したい点があります。混乱の原因は、「単純ベイズ分類」を実行することの意味にあります。

「ガウス判別分析(GDA)」の広範なトピックには、QDA、LDA、GNB、およびDLDA(2次DA、線形DA、ガウスナイーブベイ、対角LDA)といういくつかの手法があります。[更新] LDAとDLDAは、与えられた予測子の空間で線形でなければなりません。(たとえば、Murphy、4.2、DAについては101ページ、NBについては82 ページを参照してください。注:GNBは必ずしも線形ではありません。離散NB(フードの下で多項分布を使用)は線形です。 、Hart&Storkセクション2.6)。QDAは、他の回答が指摘しているように2次関数です(そして、グラフィックスで何が起こっていると思います-以下を参照)。

Σc

  • Σc
  • Σc=Σ
  • Σc=dagc
  • Σc=dag

e1071ドキュメントでは、クラス条件付き独立(つまりGNB)を想定していると主張していますが、実際にQDAを行っているのではないかと疑っています。一部の人々は、「単純ベイズ」(独立仮定を行う)と「単純ベイズ分類規則」を混同します。GDAメソッドはすべて、後者から派生しています。ただし、前者を使用するのはGNBとDLDAのみです。

大きな警告です。e1071のソースコードを読んで、その動作を確認していません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.