ディープラーニングのディープ残余ネットワークのコンテキストで、残余学習ブロックとは正確には何ですか?


12

私は「画像認識のためのディープ残差学習」という論文を読んでいて、残差ブロックが計算で必要とするものを100%確実に理解することが困難でした。彼らが図を持っている彼らの論文を読む2:

ここに画像の説明を入力してください

これは、残差ブロックがどうあるべきかを示しています。残差ブロックの計算は単純に次と同じですか?

y=σ(W2σ(W1x+b1)+b2+x)

それとも別のものですか?

言い換えれば、多分紙の表記法と一致しようとすることは、次のとおりです。

F(x)+x=[W2σ(W1x+b1)+b2]+x

本当?

円の合計の後、ReLUという単語が用紙に表示されるため、残差ブロック()の出力は次のようになります。y

σ(F(x)+x)=σ([W2σ(W1x+b1)+b2]+x)

1つの追加のReLU非線形性。σ


is x is positive relu(x)= x
Ray Tayek 2017

回答:


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.