容量は非公式な用語です。モデルの複雑さに関しては、(同義語ではないにしても)非常に近いです。これは、モデルが表現できるパターンや関係がいかに複雑かを語る方法です。容量が大きいモデルは、容量が小さいモデルよりも多くの変数間のより多くの関係をモデル化できると期待できます。
容量の口語的な定義から類推を引き出すと、それは、モデルが情報で完全に「満たされる」まで、ますます多くのデータから学習する能力と考えることができます。
容量を定式化して数値を計算する方法はさまざまですが、重要なのは、容量の「操作化」の一部にすぎないことです(美しさを計算するための公式を思いついた場合とほぼ同じです)。公式は、美しさの誤った解釈の1つにすぎません)。
VCディメンションは、容量の数学的に厳密な定式化です。ただし、モデルのVC次元とモデルがデータを適合させる実際の能力との間に大きなギャップが生じる可能性があります。VC dimを知ることはモデルの一般化誤差に限界を与えますが、これは通常、あまりにも緩く、ニューラルネットワークでは役立ちません。
ここで参照する別の研究ラインは、容量の尺度としてニューラルネットワークで重み行列のスペクトルノルムを使用することです。これを理解する1つの方法は、スペクトルノルムがネットワークのリプシッツ定数を制限することです。
モデルの容量を見積もる最も一般的な方法は、パラメーターの数を数えることです。パラメータが多いほど、一般的に容量が大きくなります。もちろん、多くの場合、小規模なネットワークは、大規模なネットワークよりも複雑なデータをより適切にモデル化することを学習するため、この測定も完全とはほど遠いものです。
容量を測定する別の方法は、ランダムラベル(Neyshabur et。al)でモデルをトレーニングすることです。ネットワークがランダムラベルとともに大量の入力を正しく記憶できる場合、基本的に、モデルがそれらすべてを記憶できることを示します。個別にデータポイント。「学習」できる入出力ペアが多いほど、容量は大きくなります。
これを自動エンコーダに適応させると、ランダム入力を生成し、ネットワークをトレーニングしてそれらを再構築し、エラー未満で正常に再構築できるランダム入力の数を数えることができます。ε