従来のトレーニングの問題の一部を回避するために事前トレーニングが使用されていることを理解しています。オートエンコーダなどでバックプロパゲーションを使用すると、バックプロパゲーションが遅いために時間の問題が発生することを知っています。また、ローカルオプティマで動けなくなり、特定の機能を学習できない場合もあります。
私が理解していないのは、ネットワークをどのように事前トレーニングするか、具体的に事前トレーニングするために何をするかです。たとえば、制限されたボルツマンマシンのスタックが与えられた場合、このネットワークをどのように事前トレーニングしますか?
2
少数のラベル付きサンプルと多数のラベルなしサンプルがある設定でない限り、事前トレーニングは廃止されたと見なされます。そうでない場合は、整流器の伝達関数と高度なオプティマイザ(rmsprop、adadelta、adam)を使用すると、ディープニューラルネットワークでも同じように機能します。
—
bayerj
ええ、私はラベルなしのサンプルが大量にあり、ラベル付きのサンプルはほとんどないか、まったくないと仮定して作業しています。
—
Michael Yousef