Residual Network(ResNet)により、彼は通常の初期化が一般的になったことを知っていました。ResNetでは、He通常の初期化が使用されますが、最初の層はHeの初期化を使用します。
ResNetペーパーと「Delving Deep into Rectifiers」ペーパー(He初期化ペーパー)を調べましたが、通常の初期化と均一な初期化についての言及はありません。
また:
バッチ正規化により、はるかに高い学習率を使用でき、初期化にあまり注意を払う必要がなくなります。
Batch Normalization論文の要約では、Batch Normalizationを使用すると、初期化にあまり注意を払わなくて済むと言われています。
ResNet自体は、通常の初期化と均一な初期化のどちらを使用するか(均一な初期化ではなく)を常に考慮しています。
そう:
- 均一な初期化ではなく、(HeまたはGlorot)正規分布初期化を使用する場合
- バッチ正規化による正規分布初期化効果とは何ですか?
脇のメモ:
- Batch Normalizationで通常のinitを使用することは韻を踏んでいますが、この事実を裏付ける論文は見つかりませんでした。
- Resnetは、Glorot initよりもHe initを使用することを知っていました。なぜなら、彼はinitが深いネットワークでより良い結果をもたらすからです。
- Glorot init対He initについて理解しました。
- 私の質問は、Normal vs Uniform initについてです。