いくつかのディープラーニングモデルアーキテクチャと、選択されたミニバッチサイズがあるとします。これらのモデルから、そのモデルをトレーニングするために予想されるメモリ要件をどのように導き出しますか?
例として、次元1000の入力、次元100の4つの完全に接続された非表示層、および次元10の追加の出力層を持つ(非反復)モデルを考えます。ミニバッチサイズは256の例です。CPUとGPUのトレーニングプロセスのおおよそのメモリ(RAM)フットプリントをどのように決定しますか?違いがある場合は、モデルがTensorFlow(したがってcuDNNを使用)を備えたGPUでトレーニングされていると仮定します。