Johnson-Lindenstraussの補題により、高次元空間の点を低次元の点に表すことができます。最適な低次元空間を見つけるときの標準的な手法は、特異値分解を見つけてから、最大の特異値によって生成された部分空間を取得することです。SVD上でJohnson-Lindenstraussを使用するのはいつ関心がありますか?
Johnson-Lindenstraussの補題により、高次元空間の点を低次元の点に表すことができます。最適な低次元空間を見つけるときの標準的な手法は、特異値分解を見つけてから、最大の特異値によって生成された部分空間を取得することです。SVD上でJohnson-Lindenstraussを使用するのはいつ関心がありますか?
回答:
2つのアプローチは、非常に異なる保証を提供します。
JL Lemmaは基本的に「あなたが望む誤差を与えてくれ、その誤差までの距離を捉える低次元の空間を与えます」と言っています。また、最悪の場合のペアワイズ保証です:ポイントの各ペアなど
SVDは基本的に「どの次元に住みたいか教えて、可能な限り最高の埋め込みを提供します」と約束しています。ここで、「最良」は平均として定義されます。
したがって、理論的な観点からは、非常に異なる問題を解決します。実際には、どちらが必要かは、問題のモデル、より重要なパラメーター(エラーまたはディメンション)、および必要な保証の種類によって異なります。
SVDとJLも、将来のポイントを異なる方法で推定します。
つまり、データが基礎となる分布からのものであると想定する場合、原則として、同じ分布からサンプリングされる限り、SVDは将来のポイントに対して「良好」のままである必要があります。一方、JLのターゲットディメンションはポイントの数に依存します。つまり、JL変換を追加のポイントに適用すると、エラーの確率が高くなる可能性があります。
これは、たとえば、他のアルゴリズムの前処理ステップとして次元削減を使用している場合に関連します。トレーニングデータのSVD境界はテストデータを保持できますが、JLは保持しません。
これはSureshの回答のフォローアップです-彼の回答を読んだ後、少しグーグルで調べて、次のような理解を思いつきました。私はもともとこれを彼の答えに対するコメントとして投稿するつもりでしたが、増え続けました。
答えの誤りを指摘してください。私はこの分野の専門家ではありません。
ある意味では、JLとSVDはリンゴとオレンジのようなものです。
1)彼らが解決する問題は完全に異なっています。1つはペアワイズ距離に関係し、もう1つは最適な表現に関係します。1つは最悪の場合、もう1つは平均的な場合です。
(これは正確ではありません。これについては後で詳しく説明します)
3)JLは非構成的で、SVDは構成的です-構成的という用語が正確に定義されていないため、この点は少しあいまいです。SVDを計算するための決定論的なアルゴリズムがありますが、JL空間を見つけるためのアルゴリズムはランダム化されています。ランダムな投影を行い、失敗した場合は再試行してください。
4)SVDは一意です(部分空間は一意ではない場合がありますが、目標値はすべての部分空間で同じです)。上記のEqn(1)は、JLがペアワイズ距離の不一致を最小化することについて実際には話していないという意味で正確ではありません-距離が最大になる小さな部分空間の存在を保証します実際の値とは異なります。このようなサブスペースは多数存在する可能性があり、一部は他よりも優れています。
(回答のストライキ部分に関する説明については、コメントを参照してください)。
編集:@ john-myles-whiteはJLに関する投稿を書いて、その主張を検証し、予測の構築方法を示しています:http : //www.johnmyleswhite.com/notebook/2014/03/24/a-note- on-the-johnson-lindenstrauss-lemma /