回答:
逆伝播アルゴリズムは、ニューラルネットワークモデルに適合する勾配降下アルゴリズムです。(@Dikranが言及したように)方法を説明させてください。
正式:下の式[1]内のこの投稿の終わりに勾配の計算を使用すると(勾配降下の定義)、勾配降下を使用する特定のケースとして逆伝播アルゴリズムが得られます。
ニューラルネットワークモデル 正式には、単純な単一層モデルでアイデアを修正します。
ここで、 g :R → Rおよび s :R M → R Mは、すべての m = 1 … 、M、 s (x )[ m ] = σ (x [ m ] )および
二次損失関数は、アイデアを修正するために使用されます。したがって入力のベクトルのR pは実際の出力に装着することができる (Y 1、... 、Y N)のR経験的損失最小化することによって、(ベクトルとすることができる): R N(Aを1、A 2)= n ∑ i = 1(y i − f (xA 1および A 2の 選択に関して。
勾配降下 A grandient降下最小化するための反復そのアルゴリズムである: L + 1 = L - γ L ∇ R(L)、L ≥ 0 よく選ばれたステップサイズに対して(γ L )L(とも呼ばれる学習率逆伝播のフレームワークで)。Rの勾配の計算が必要です。考慮されるケースでは、a l = (A 1 l、A 2
Here I used the R notation: is the vector composed of the coordinates of from index to index .
Back-propogation is a way of working out the derivative of the error function with respect to the weights, so that the model can be trained by gradient descent optimisation methods - it is basically just the application of the "chain rule". There isn't really much more to it than that, so if you are comfortable with calculus that is basically the best way to look at it.
If you are not comfortable with calculus, a better way would be to say that we know how badly the output units are doing because we have a desired output with which to compare the actual output. However we don't have a desired output for the hidden units, so what do we do? The back-propagation rule is basically a way of speading out the blame for the error of the output units onto the hidden units. The more influence a hidden unit has on a particular output unit, the more blame it gets for the error. The total blame associated with a hidden unit then give an indication of how much the input-to-hidden layer weights need changing. The two things that govern how much blame is passed back is the weight connecting the hidden and output layer weights (obviously) and the output of the hidden unit (if it is shouting rather than whispering it is likely to have a larger influence). The rest is just the mathematical niceties that turn that intuition into the derivative of the training criterion.
適切な答えを得るには、司教の本もお勧めします!; o)
これは、フィードフォワード多層ニューラルネットワーク(多層パーセプトロン)をトレーニングするためのアルゴリズムです。Webには、http://neuron.eng.wayne.edu/bpFunctionApprox/bpFunctionApprox.htmlのように、何が起こっているのかを示す素晴らしいJavaアプレットがいくつかあります。また、NNに関するBishopの本は、NNに関連するすべての標準的な参考資料です。