スペクトルクラスタリングのコンテキストで、アフィニティ行列の固有ベクトルとグラフラプラシアン固有ベクトルの違いは何ですか?


8

スペクトルクラスタリングでは、固有ベクトル問題を解くのが標準的な方法です

Lv=λv

ここで、はグラフラプラシアン、は固有値関連する固有ベクトルです。VのλLvλ

私の質問:なぜわざわざグラフラプラシアンをとるのですか?このビデオでやったように、グラフ(アフィニティマトリックス)自体の固有ベクトル問題を解決することはできませんか?

PS:CrossValidatedで同じ質問をしましたが、これはより適切なチャネルだと思います。私が間違っていたら私を許してください。


ビデオリンクが壊れています:(
wcochran

回答:


4

概念は同じですが、データのタイプによって混乱しています。Ngらのスペクトルクラスタリング 説明は、標準データのクラスタリングについてですが、ラプラシアン行列は、代数グラフ理論で使用されるグラフ導出行列です。

つまり、オブジェクトの類似性をマトリックスにエンコードするときはいつでも、このマトリックスをスペクトルクラスタリングに使用できるということです。

標準データ、つまりサンプル特徴マトリックスがある場合、近接性または類似性、またはマトリックスとして呼び出したいものを見つけて、スペクトルクラスタリングを適用できます。

グラフがある場合、この類似性は隣接行列、距離行列、ラプラシアン行列のようなものであり、そのような行列の固有関数を解くと対応する結果が得られます。

隣接ではなくラプラシアンを使用することのポイントは、いわゆるアフィニティマトリックスを正の半正定に保つことです(正規化されたラプラシアンマトリックスは、0と2の間の正規化された固有値を与え、グラフの構造をより明確に示すため、より良い選択です)。

つまり、要するに、データの類似性を含む行列がある限り、一般的にスペクトルクラスタリングを使用できるということです。違いは詳細です(igで述べた正規化ラプラシアンのプロパティ)


はい、少し混乱しています。まだはっきりしていません。標準データ(アフィニティ関連なし)がある場合、データサンプル間のペアワイズ距離をとることで、アフィニティマトリックスAにすることができます。ここで、Aをグラフとして見ると、ラプラシアンを取得して固有ベクトルを解いて、解を得ることができます。Aをグラフとして表示しない場合は、単純に行列固有ベクトル(PCA)を解いて、解を得ることができます。違いは何ですか?
felipeduque

あなたの質問をもう一度読みました。答えはプロパティ(たとえば、私の答えで述べたもの)です。ラプラシアン行列は、より良い分解を提供します。ただし、類似性に関連するマトリックスの固有関数を絶対に単一化して、詳細だけが異なるいくつかの結果を得ることができます。たとえば、あなたが述べたPCAについて:PCAは、分散が高い場所をキャプチャするように共分散行列を取得しますが、一般に、概念は他のスペクトル分解手法と同じ方向に従います。「Saturday Night」の文が表示されたら、すぐに回答を校正します;)
Kasra Manshaei
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.