ディープラーニングが少量のデータでうまく機能しないのはなぜですか?


8

私はディープラーニングが初めてなので、これは簡単な質問かもしれません。しかし、ディープラーニング(またはニューラルネットワーク)が小さなラベル付きデータでうまく機能しないのはなぜでしょうか。私が読んだ研究論文が何であれ、それらのデータセットは巨大です。私たちの脳はそれ自体を訓練するのに多くの時間を費やすので、直感的には驚くことではありません。しかし、そのような場合にニューラルネットワークがうまく機能しない数学的証明や理由はありますか?

回答:


11

典型的なディープラーニングモデルで使用されるニューラルネットワークには、多くの層を持つ非常に多くのノードがあり、したがって推定する必要のある多くのパラメーターがあります。これには大量のデータが必要です。小さなニューラルネットワーク(層が少なく、自由パラメーターが少ない)は、小さなデータセットで正常にトレーニングできますが、これは通常「ディープラーニング」とは言えません。


3
+1。モデルの複雑さは、常にサンプルサイズとともにゆっくりと増大するだけであり、ディープラーニングはかなり複雑なモデルであるため、通常、小さなサンプルサイズではうまく機能しません。Elements of Statistical Learning無料でダウンロード可能)はこれについて議論しています-強くお勧めします。
Stephan Kolassa、2015

ありがとう。それでも、小さなデータを使用してモデルを学習しようとすると、モデルをオーバーフィットすることになりますか?
bluechill 2015

3
モデルのパラメーターの数に比べてデータ量が少ない場合は、オーバーフィットする可能性が高くなります。これは、どのモデルにも当てはまります。これを回避するためにモデルにレギュラライザー(たとえば、大きなウェイトにペナルティを課す、入力データにノイズを追加する、非表示の単位を削除するなど)を追加できますが、それは現時点では科学というよりは芸術のようなものです。
lmjohns3 2015
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.