スペクトルクラスタリングでは、固有ベクトル問題を解くのが標準的な方法です
ここで、はグラフラプラシアン、は固有値関連する固有ベクトルです。Vのλ
私の質問:なぜわざわざグラフラプラシアンをとるのですか?このビデオでやったように、グラフ(アフィニティマトリックス)自体の固有ベクトル問題を解決することはできませんか?
PS:CrossValidatedで同じ質問をしましたが、これはより適切なチャネルだと思います。私が間違っていたら私を許してください。
スペクトルクラスタリングでは、固有ベクトル問題を解くのが標準的な方法です
ここで、はグラフラプラシアン、は固有値関連する固有ベクトルです。Vのλ
私の質問:なぜわざわざグラフラプラシアンをとるのですか?このビデオでやったように、グラフ(アフィニティマトリックス)自体の固有ベクトル問題を解決することはできませんか?
PS:CrossValidatedで同じ質問をしましたが、これはより適切なチャネルだと思います。私が間違っていたら私を許してください。
回答:
概念は同じですが、データのタイプによって混乱しています。Ngらのスペクトルクラスタリング 説明は、標準データのクラスタリングについてですが、ラプラシアン行列は、代数グラフ理論で使用されるグラフ導出行列です。
つまり、オブジェクトの類似性をマトリックスにエンコードするときはいつでも、このマトリックスをスペクトルクラスタリングに使用できるということです。
標準データ、つまりサンプル特徴マトリックスがある場合、近接性または類似性、またはマトリックスとして呼び出したいものを見つけて、スペクトルクラスタリングを適用できます。
グラフがある場合、この類似性は隣接行列、距離行列、ラプラシアン行列のようなものであり、そのような行列の固有関数を解くと対応する結果が得られます。
隣接ではなくラプラシアンを使用することのポイントは、いわゆるアフィニティマトリックスを正の半正定に保つことです(正規化されたラプラシアンマトリックスは、0と2の間の正規化された固有値を与え、グラフの構造をより明確に示すため、より良い選択です)。
つまり、要するに、データの類似性を含む行列がある限り、一般的にスペクトルクラスタリングを使用できるということです。違いは詳細です(igで述べた正規化ラプラシアンのプロパティ)