線形判別分析へのベイジアンとフィッシャーのアプローチ


10

LDAを実行する2つのアプローチ、ベイジアンアプローチフィッシャーアプローチを知っています。

データ(x,y)とします。ここで、xp次元予測子であり、yKクラスの従属変数です。

ベイジアンアプローチにより、事後p y k | x = p x | y kp y kを計算します

p(yk|x)=p(x|yk)p(yk)p(x)p(x|yk)p(yk)
、および本で述べられているように、p(x|yk)がガウスであると仮定すると、k番目のクラスの判別関数は、Iが見ることができるFKxはの線形関数であるXので、すべてのために、K個のクラス我々はKを判別関数線形。
fk(x)=lnp(x|yk)+lnp(yk)=ln[1(2π)p/2|Σ|1/2exp(12(xμk)TΣ1(xμk))]+lnp(yk)=xTΣ1μk12μkTΣ1μk+lnp(yk)
fk(x)xKK

x(K1)W

私の質問は

fk(x)xfk(x)x

fk(x)

更新

ESLブックによると、@ amoebaのおかげで、私はこれを見つけました: ここに画像の説明を入力してください

Σfk(x)

Σ1μkx

もう一度更新

セクション4.3.3から、これらの投影法は次のように導き出されました。

ここに画像の説明を入力してください

WWKW


1
あなたは二つのことを混ぜ合わせて質問します。前回の質問について、私たちの会話を消化していないと思います。最初に説明するのは、分類へのベイジアンアプローチです(「LDAへのベイジアンアプローチ」ではありません)。このアプローチは、(1)分類子としての元の変数とともに、または(2)分類子としてのLDAで取得された判別子とともに使用できます。それではフィッシャーのアプローチは何ですか?
ttnphns 2014年

1
(続き)さて、「Fisher's LDA」は単にK = 2のLDAです。そのようなLDA内で分類を行うとき、フィッシャーは分類を行うための彼自身の公式を発明しました。これらの式は、K> 2でも機能します。ベイズのアプローチがより一般的であるため、彼の分類方法は現在ほとんど使用されていません。
ttnphns 2014年

1
@ttnphns、私が混乱している理由は、私がこのベイズのアプローチを使用してLDAについて話しているほとんどすべての本が、生成モデルとしてLDAを講義しているためです。 。
アボカド2014年

1
@loganecolss:以下の私の答えを見ましたか?それについて質問がありますか?コメントでもう一度質問していることを説明したので、少し混乱しています。"Between-within variance"アプローチは、等しい共分散を想定した "Bayesian approach"と数学的に同等です。必要に応じて、これを驚くべき数学的定理と考えることができます。証明は、オンラインで無料で入手できるHastieの本、および他のいくつかの機械学習の教科書にも記載されています。したがって、「LDAを行うための唯一の確実な方法」が何を意味するのかはわかりません。これら2つの同一の方法。
アメーバはモニカ

1
@loganecolss:信じてください、それらは同等です:)はい、あなたは予測を導き出すことができるはずですが、等しい共分散行列の追加の仮定が必要です(私の回答で書いたように)。以下の私のコメントを参照してください。
アメーバはモニカを

回答:


10

短い非公式の回答のみを提供します。詳細については、統計学習の要素のセクション4.3を参照してください。

アップデート:「Elementsは」非常に詳細にカバーに起こる正確にあなたがあなたの更新で書いたものを含め、ここで求めている質問。関連するセクションは4.3、特に4.3.2-4.3.3です。

(2)2つのアプローチは相互に関連していますか?

x

xx

重要な洞察は、1つのすべてのクラスが同じ共分散持っていることを前提とした場合の方程式はかなり簡素化することである[ 更新:あなたはすべてに沿って、それを想定した場合、これは誤解の一部であったかもしれません]。その場合、決定境界は線形になります。そのため、この手順は線形判別分析(LDA)と呼ばれます。

この場合、式は実際にはフィッシャーが彼のアプローチを使用して計算したものとまったく同じになることを理解するには、いくつかの代数的操作が必要です。それを数学的な定理と考えてください。すべての計算については、Hastieの教科書を参照してください。

(1)ベイジアンアプローチを使用して次元削減を実行できますか?

「ベイジアンアプローチ」によって、各クラスで異なる共分散行列を処理することを意味する場合、そうではありません。少なくとも私が上で書いたもののため、それは(LDAとは異なり)線形次元削減ではありません。

Σ1μkkM μ KΣ1MMμk


1
+1。QDA stats.stackexchange.com/a/71571/3277について言及している自分の回答にもリンクする場合があります。
ttnphns 2014年

私の質問への対応の一部として+1 2)。中間分散分析を行うことにより、元の変数を射影し、それらの判別式を取得するための最良の方向を見つけることができることを知っています。私が今苦労しているのは、その間の分散比を参照せずに、ベイジアンを使用してそれらの投影方向を見つけることできるかどうかです。X
アボカド2014年

@loganecolss:私が言ったように、すべてのクラスが同じ共分散行列を持っているとさらに仮定する必要があります!次に、ベイジアンアプローチ+この仮定から始めて、標準のLDA予測を導出できます。考えはを対角化することです。これについては、統計学習の要素、セクション4.3で詳しく説明しています。Σ
アメーバはモニカを

後でそのセクションを読みます。あなたが言ったように、すべてのクラスが同じ共分散行列を持っていると仮定して、私は私の投稿で書いたものである関数を導き出すことができますよね?そして、は確かに線形関数であり、あなたのコメントによれば、はLDA射影行列であるべきですか?F KX X Σ - 1 μ Kfk(x)fk(x)xΣ1μk
アボカド2014年

セクション4.3のクリップを追加して投稿を更新します
アボカド
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.