オートエンコーダーは距離を維持しますか?


7

私の理解に基づいて、オートエンコーダを使用して、重要な基本情報を含む入力機能のコンパクトな表現を見つけます。

元の入力空間のL2距離と縮小(コンパクト)空間の間に関係はありますか?そうでない場合、コンパクトな表現が変換後の距離を維持するようにネットワークをトレーニングできますか?


1
結局のところ、人々はオートエンコーダの潜在スペースを使用して、より意味のある類似性を持たせることを期待しません。たとえば、イメージでconvオートエンコーダをトレーニングすると、類似の潜在ベクトルは、イメージではなく、意味的に関連するイメージに対応します。ピクセル空間で似ています。
Jakub Bartczuk

2
「(ペアワイズ)距離を保持する」とは、入力空間のすべての点の間、またはトレーニングセットの点の間だけを意味しますか?つまり、トレーニング時に使用されなかった新しい入力ポイント(テストポイント)を取得するとします。あなたはオートエンコーダは、表現を学ぶことを期待してくださいの距離ように減少した空間内の任意の点からは、の距離と同じ距離である元の空間では?PZZP
DeltaIV

1
それとも、トレーニングセットのポイントのペアワイズ距離を維持するトレーニングセットの表現を学習するだけのオートエンコーダーで満足でしょうか?つまり、多次元スケーリングのようなものですか?
DeltaIV

1
@DeltaIV確認したいプロパティは、テストセット内のサンプルが元のスペースのトレーニング/テストセット内のポイントに近い場合、縮小されたスペースでも近くなるということです。
Mahdi、

どうもありがとうございました。この情報を質問の本文に含めてください。すべての重要な情報がそこにあるはずです。コメントは一時的なものです。
DeltaIV

回答:


5

いいえ、ありません。基本的に距離を保てないように設計しています。オートエンコーダは、「意味のある」機能を維持しながら、入力の「意味のある」表現を学習するニューラルネットワークです。引用された単語(ディープラーニングペーパーの多くの用語のように)には厳密な定義はありませんが、一連の入力でトレーニングされたオートエンコーダは、これらの入力のいくつかの一般的な機能を学習して、目に見えない入力を小さなエラー1

オートエンコーダーが入力と出力(再構成された入力)の差を最小限に抑える最も簡単な方法は、入力を出力することです。つまり、アイソメトリーである恒等関数を学習することで、距離を保持します。ただし、オートエンコーダがアイデンティティマップを単に学習することは望ましくありません。それ以外の場合は、「意味のある」表現を学習しないためです。つまり、より基本的には、その基本を学習して入力を「圧縮」することを学習しません。セマンティックな機能と細かい詳細(ノイズ、オートエンコーダのノイズ除去の場合)を「捨てる」。

オートエンコーダーが恒等変換を学習し、それが入力を強制的に圧縮するのを防ぐために、オートエンコーダーの非表示レイヤー(ボトルネックレイヤー)のユニット数を減らします。言い換えれば、非線形次元削減の形式を学習するように強制します。線形次元削減のためのよく知られた統計的手順である線形オートエンコーダとPCAの間には深いつながりがあります。

ただし、これにはコストがかかります。オートエンコーダーにある種の非線形次元削減を強制することにより、距離が維持されないようにします。実際、場合、2つのユークリッド空間と間にアイソメトリがない、つまり距離を維持する変換がないことを証明できます(これは暗黙的に証明されます)で別のステートメントのこの証明)。言い換えると、次元を削減する変換は、アイソメにはなり得ません。これは実際には非常に直感的です。オートエンコーダが高次元のベクトル空間要素を、以下に埋め込まれた低次元の多様体要素にマッピングすることを学習する必要がある場合EEメートルメートル<VMV、それが「犠牲」にあるいくつかの方向に持っていますのみこれらの方向に沿って異なる2つのベクトルが同じ要素にマッピングされることを意味し、。したがって、それらの距離(最初はゼロ以外)は保持されません(0になります)。VM

:それがのマッピングを学習することが可能であることができる有限の要素の集合、要素の有限集合へのでは、ペアワイズ距離が保存されます。これは、多次元スケーリングが試みていることです。ただし、距離を維持しながら、すべての要素を低次元空間の要素にマッピングすることは不可能です。V S={v1v}O={w1w}MVW


私の好きなオートエンコーダのバリエーションであるVariational Autoencoderを参照すると、1 つ複雑になりますが、ここではそれらに焦点を当てません。


2
+1いい紙を見つけて!(読みます!)何年も前に読んだステートメントを思い出しました: " 基本的な線形オートエンコーダーは、主成分分析(PCA)と本質的に同じ表現を学習します。"Längkvistet al。パターン認識レター 42(2014)11-24。(非常に多くの素晴らしい論文を読んでいます。読みたい論文の半分を読んでも、読んでいないと、読んだものよりも多くの論文を読むようになると思います。)
usεr11852Jun

2

あなたはあなたが好きな損失関数でネットワークを訓練することができます。したがって、アプローチ1では、ネットワークをプッシュする損失関数を作成して、出力のミニバッチ内のペア間の距離が入力内のペア間の距離と等しくなるようにします。ミニバッチベースで実行し、バッチサイズが16または32である場合、それは実行不可能ではないようです。または、いくつかのペアをサンプリングして、それらの損失を計算することもできます(たとえば、ランダムにサンプリングされた各ミニバッチのペアの数と同じ数)。

距離を維持することが保証されている非線形ネットワークを作成する限り、アプローチ2、1つのアプローチは、回転などの距離を維持するブロックからネットワークを構築することだと思います。このネットワークが線形変換以外のものである可能性があるかどうかはわかりません。シグモイドつぶしなどの非線形性は、距離を変形させます。

距離1が常に維持される保証はなく、アプローチ1はうまく機能すると思います。正確に維持されるわけではありません。2番目のアプローチは、単一の回転変換に制限されると直感的に聞こえますか?

編集:明確にします。「オートエンコーダーで距離を維持する方法を教えてください」という質問に答えています。「オートエンコーダーは距離を維持しますか?」に私が与えている暗黙の答えは?これはデフォルトではありません。ただし、これが当てはまるように一連の脚注を行うこともできます。つまり、上記のアプローチ1です。

編集2:@DeltaIVは次元削減について良い点を持っています。t-SNEなどの存在、つまり高次元空間の低次元投影は、距離を維持しようとすることの両方の制限を示していることに注意してください(グローバル距離とローカル距離の競合、縮小次元で距離を維持する課題)。しかし、特定の警告/妥協を考えると、それはある程度可能であるとも言えます。


1
アプローチ2には欠陥があります-アイソメトリグループが反射、回転、および平行移動で構成されるという事実は別です(したがって、回転だけでなく、3つの任意の構成:ただし、これは単なる専門知識です)、とにかくアイソメグループは計量空間からの全単射 バツ自分自身に。したがって、それらは次元を保持するため、オートエンコーダによって学習される種類の変換ではなく、非線形性(ボトルネック層のないオートエンコーダが恒等変換を学習できる)のためではなく、次元削減のためにです。
DeltaIV

@DeltaIVあなたのポイントに対処するための「編集」を追加しました。つまり、自動エンコーダは一般に距離を維持しないことに同意します。そして、私はさらに一歩進んで、「もし彼らが距離を保つことを望んでいたら、どうしたらいいのだろう?」と考えていました。
ヒューパーキンス

1
Dは、私がこれまでおよそ以前考えるほど持っていなかった、私は告白次元削減の一部を、アドレッシング、「編集2」を追加:):@DeltaIV実は、私は完全に応答する前にあなたのコメントを読んでdidntの実現
ヒュー・パーキンス
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.