一般的なコンシューマーグレードのGPUでトレーニング可能なニューラルネットワークのサイズについて、経験則を見積もることはできますか?例えば:
歩行(強化)の出現紙は、ニューロンのTANH活性化を使用してネットワークを訓練します。彼らは、プレーナーウォーカー用の300,200,100ユニットの3層NNを持っています。しかし、彼らはハードウェアと時間を報告していません...
しかし、経験則を開発できるでしょうか?また、現在の経験的結果に基づいているため、たとえば次のようになります。
シグモイドアクティベーションを使用するXユニットは、1060で1時間あたりY回の学習反復を実行できます。
または、bの代わりにアクティベーション関数aを使用すると、パフォーマンスが一時的に低下します。
学生/研究者/好奇心がこれらのネットワークで遊ぶためのGPUを購入しようとしている場合、どのように取得するかをどのように決定しますか?1060は明らかにエントリーレベルの予算オプションですが、高出力デスクトップを構築する代わりに安っぽいネットブックを入手して節約した$をオンデマンドクラウドインフラストラクチャに費やすことが賢くないかどうかをどのように評価できますか。
質問の動機:私は1060を購入したばかりで、(賢明なことですが、後で質問するために)$を保持してGoogle Cloudアカウントを作成すればよかったのではないかと思いました。GPUで修士論文シミュレーションを実行できるかどうか。