PCAとオートエンコーダーの違いは何ですか?


回答:


52

PCAは線形マップに制限されていますが、自動エンコーダーは非線形enoder / decodersを持つことができます。

線形伝達関数を備えた単一層の自動エンコーダーはPCAとほぼ同等です。つまり、AEとPCAによって検出されたは同じではないことを意味しますが、それぞれのまたがる部分空間は同じです。WWW


そうですか!そのため、非線形変換のために2つのレイヤーが必要です。それで、複数の層は非常に複雑な非線形を意味しますか?
RockTheStar 14年

7
@RockTheStar:重要なのは層の数ではなく、アクティベーション関数[伝達関数]です。線形伝達関数を使用すると、非線形オートエンコーダーにつながるレイヤーの数がなくなります。
アメーバは2014

そのため、非線形変換では、隠れユニットのレイヤーは1つだけです。解決策はまだ非線形ですか?
RockTheStar 14年

はい。(隠されたユニットがほぼ線形の領域でアクティブになった場合など、場合によっては線形のままになることもあります。)
bayerj 14年

「隠されたユニットが線形に近い領域で活性化される」とは、シグモイド関数の線形部分を意味しますよね?
RockTheStar 14年

17

bayerjが指摘しているように、PCAはオートエンコーダー(AE)がそうではない線形システムを想定する方法です。AEで非線形関数が使用されておらず、隠れ層のニューロンの数が入力のそれよりも小さい場合、PCAとAEは同じ結果をもたらします。そうしないと、AEは別のサブスペースを見つける可能性があります。

注意すべきことの1つは、AEの非表示層は、入力の次元よりも大きな次元である可能性があることです。そのような場合、AEは次元削減を行っていない可能性があります。この場合、1つの機能空間から別の機能空間への変換を行うものとして、新しい機能空間内のデータが変動要因を解きほぐします。

bayerjへの応答において、複数のレイヤーが非常に複雑な非線形を意味するかどうかについての質問について。「非常に複雑な非線形」の意味によっては、これが当てはまる場合があります。しかし、深さは実際により良い一般化を提供しています。多くの方法では、領域の数に等しいサンプル数が必要です。しかし、Bengio et alによると、「などの非常に多数の領域をO N )の例で定義できる」ことが判明しています。これは、ネットワークの下位層から下位機能を構成することから生じる表現の複雑さの結果です。O2NON


2
あなたのANSのためのTHX!
RockTheStar 14年

6

これはコメントとして適していますが、その評判が低いため、回答として提供されます。

私は、bayerj:sの答えに近いという概念とやや混同しました。ニューラルネットワークの読み取りと主成分分析:証明が与えられた局所最小値のない例からの学習

'自動連想場合...、従ってユニークローカルおよびグローバルに最適なマップWは、第によって張られる空間上に直交射影での固有ベクトルΣ X X「」 pΣXバツ

これは、PCAが対応する対応するスペースではありませんか?


1
あなたが引用する論文は線形オートエンコーダーを使用しています。つまり、非線形活性化関数はありません。そのため、その重みがPCAによって正確に拡張された同じサブスペースにまたがるのです。
エリオット

6

{バツRn}=1NN nバツバツ1バツN

h1=W1バツ+b1バツ^=W2h1+b2

バツ^W1Rn×mW2Rm×nm<n

mW2mバツ

W2mバツバツn×NW2m×nW2Om2nバツOn2Nm<n

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.