ニューラルネットワークをトレーニングする場合、1つのハイパーパラメーターはミニバッチのサイズです。一般的な選択肢は、ミニバッチあたり32、64、128個の要素です。
ミニバッチの大きさのルール/ガイドラインはありますか?トレーニングへの影響を調査する出版物はありますか?
メモリに収める以外に?
—
エーサンM.ケルマーニ
はい。たとえば、「バッチサイズが大きいほど良い」と書かれている出版物はありますか(メモリに収まる限り)。
—
マーティントーマ
@ EhsanM.Kermaniそれは重要だと思う。CIFAR-100で数回実行しましたが、バッチサイズに応じて異なる結果が得られます(オーバーフィットが問題にならないように早期に停止します)
—
Martin Thoma
より大きな計算はより速く(効率的)、より小さな収束はより速く、より一般化されます。cf. 確率的最適化とこのRNN研究のための効率的なミニバッチトレーニング。問題に対して経験的に見つけたスイートスポットがあります。
—
エムレ
BLEIらのこの最も洞察に満ちた論文は、ちょうど出てきた:確率的勾配降下を近似ベイズ推論として
—
エムレ