出力層を追加せずに、自動エンコーダを教師あり学習に使用できますか?トレーニングのために連結された入出力ベクトルを単純にフィードして、推論を行うときに入力部分から出力部分を再構築できますか?出力部分は、推論中に欠損値として扱われ、補完が適用されます。
出力層を追加せずに、自動エンコーダを教師あり学習に使用できますか?トレーニングのために連結された入出力ベクトルを単純にフィードして、推論を行うときに入力部分から出力部分を再構築できますか?出力部分は、推論中に欠損値として扱われ、補完が適用されます。
回答:
私が知っていて実装したそのような論文の1つは、ラダーネットワークを使用した半教師あり学習です。ここで、モデルの説明を引用します。
私たちのアプローチは、モデルのすべてのレベルで表現をノイズ除去することを補助タスクとするラダーネットワークを提案したValpola(2015)に従います。モデル構造は、エンコーダーからデコーダーへのスキップ接続を備えたオートエンコーダーであり、学習タスクはノイズ除去オートエンコーダーの場合と同様ですが、入力だけでなくすべてのレイヤーに適用されます。スキップ接続を使用すると、デコーダーがエンコーダーによって破棄された詳細を回復できるため、モデルの上位層で詳細を表すというプレッシャーが軽減されます。
アーキテクチャの詳細な説明については、Yoshua Bengioによる「Deconstructing the Ladder Network Architecture」を参照してください。