「バックプロパ」は、バックプロパゲーションの用語を使用する際の混乱を避けるために、「エラーのバックプロパゲーション」の略です。
基本的に、バックプロパゲーションは、フィードフォワードネットワークWerbosの重みに関するケースワイズエラー関数の勾配を計算する方法を指します。また、backpropは、バックプロパゲーションを使用して勾配を計算するトレーニング手法を指します。
したがって、バックプロパネットワークは、バックプロパゲーションによってトレーニングされたフィードフォワードネットワークであると言えます。
「標準バックプロップ」という用語は、最も広く使用されている教師付きトレーニング法である一般化されたデルタルールの冒涜です。
ソース:バックプロップとは何ですか?Usenetニュースグループcomp.ai.neural-netsのFAQで
参照:
- Werbos、PJ(1974)。回帰を超えて:行動科学における予測と分析のための新しいツール。博士論文、ハーバード大学。
- Werbos、PJ(1994)。バックプロパゲーションのルーツ:順序付きデリバティブからニューラルネットワークおよび政治予測まで、Wiley Interscience。
- Bertsekas、DP(1995)、Nonlinear Programming、ベルモント、マサチューセッツ:Athena Scientific、ISBN 1-886529-14-0。
- Bertsekas、DPおよびTsitsiklis、JN(1996)、Neuro-Dynamic Programming、ベルモント、マサチューセッツ:Athena Scientific、ISBN 1-886529-10-8。
- Polyak、BT(1964)、「反復法の収束を高速化するいくつかの方法」、Z。Vycisl。マット。マット。フィズ、4、1-17。
- Polyak、BT(1987)、Introduction to Optimization、NY:Optimization Software、Inc.
- Reed、RD、およびMarks、RJ、II(1999)、Neural Smithing:Supervised Learning in Feedforward Artificial Neural Networks、ケンブリッジ、マサチューセッツ:MIT Press、ISBN 0-262-18190-8。
- ルメルハート、DE、ヒントン、GE、およびウィリアムズ、RJ(1986)、「エラー伝播による内部表現の学習」、ルメルハート、DEおよびマクレランド、JL、編。(1986)、Parallel Distributed Processing:Explorations in the Microstructure of Cognition、Volume 1、318-362、Cambridge、MA:MIT Press。
- Werbos、PJ(1974/1994)、The Roots of Backpropagation、NY:John Wiley&Sons。Werbosの1974年のハーバード博士を含みます。論文、回帰を超えて。