事前トレーニングとは何ですか?また、どのようにニューラルネットワークを事前トレーニングしますか?


10

従来のトレーニングの問題の一部を回避するために事前トレーニングが使用されていることを理解しています。オートエンコーダなどでバックプロパゲーションを使用すると、バックプロパゲーションが遅いために時間の問題が発生することを知っています。また、ローカルオプティマで動けなくなり、特定の機能を学習できない場合もあります。

私が理解していないのは、ネットワークをどのように事前トレーニングするか、具体的に事前トレーニングするために何をするかです。たとえば、制限されたボルツマンマシンのスタックが与えられた場合、このネットワークをどのように事前トレーニングしますか?


2
少数のラベル付きサンプルと多数のラベルなしサンプルがある設定でない限り、事前トレーニングは廃止されたと見なされます。そうでない場合は、整流器の伝達関数と高度なオプティマイザ(rmsprop、adadelta、adam)を使用すると、ディープニューラルネットワークでも同じように機能します。f(x)=max(x,0)
bayerj

ええ、私はラベルなしのサンプルが大量にあり、ラベル付きのサンプルはほとんどないか、まったくないと仮定して作業しています。
Michael Yousef

回答:


2

スタックの各RBMを個別にトレーニングすることから始めて、さらに調整できる新しいモデルに結合します。

RBMが3つあるとすると、RBM1をデータ(画像の束など)でトレーニングします。RBM2は、RBM1の出力でトレーニングされます。RBM3は、RBM2の出力でトレーニングされます。アイデアは、各RBMモデルが画像の代表的な特徴であり、そうすることで学習する重みは、分類のような他の識別タスクで役立つということです。


0

スタックされたRBMを事前トレーニングすることは、定義されたエネルギーを貪欲にレイヤーごとに最小化する、つまり可能性を最大化することです。G.ヒントンはCD-kアルゴリズムを提案しました。これは、ギブスサンプリングの単一の反復と見なすことができます。


したがって、スタックされたRBMを事前トレーニングすると、定義されたエネルギーを最小限に抑え、より良い結果を得ることができます。そして、ヒントンのContrastive Divergenceアルゴリズムは、実際に事前トレーニングする方法です。追加の機能を学習するために、事前トレーニングはどの程度正確に考慮されますか?速度の問題については、CDアルゴリズムは逆伝搬よりもはるかに高速だと思います。
Michael Yousef、2015
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.