ディープラーニングはどこで、なぜ輝くのですか?


20

最近のディープラーニングに関するすべてのメディアトークと誇大広告で、私はそれについていくつかの基本的なものを読みました。データからパターンを学習するのは、別の機械学習方法であることがわかりました。しかし、私の質問は次のとおりです。この方法がどこで、なぜ輝くのか。なぜ今それについてのすべての話ですか?つまり、大騒ぎとは何ですか?


4
Geoff HintonとAndrew NgのYouTubeの定性的な講義を見て、なぜそれが優れているのかを簡単に概説してください。
ジェイス14

回答:


22

主な利点は次のとおりです。

(1)非線形学習問題の機能を手作業で調整する必要はありません(手作業は短期的なバンドエイドと見なされるため、時間を節約し、将来に拡張可能です)

(2)学習された機能は、最高の手作業の機能よりも優れている場合があり、非常に複雑であるため(コンピュータービジョン-顔のような機能など)、人間の時間がかかりすぎます。

(3)ラベルのないデータを使用して、ネットワークを事前にトレーニングできます。1000000個のラベルなし画像と1000個のラベル付き画像があるとします。ディープラーニングを使用してラベルなしの1000000個の画像を事前にトレーニングすることにより、教師あり学習アルゴリズムを大幅に改善できます。さらに、一部のドメインではラベル付けされていないデータが非常に多くありますが、ラベル付けされたデータを見つけるのは困難です。このラベルのないデータを使用して分類を改善できるアルゴリズムは価値があります。

(4)経験的に、ディープラーニングメソッドの導入までは漸進的な改善しか見られなかった多くのベンチマークを破壊しました。

(5)同じアルゴリズムが複数の領域で機能し、生の(おそらくは前処理が少ない)入力が行われます。

(6)より多くのデータがネットワークに供給されるにつれて改善を続けます(定常分布など)。


1

上記に加えて別の重要なポイント(コメントとして追加するだけの十分な担当者がいない)は、それが生成モデル(少なくともDeep Belief Nets)であるため、学習した分布からサンプリングできることです-これは学習したクラス/クラスターに対応する合成データを生成する特定のアプリケーションでいくつかの大きな利点があります。


1
これは、深層学習の一般的な特性ではなく、問題の具体的なモデルの特性です。例えば、ロジスティック回帰からではなく、ガウスからサンプリングできます。また、さまざまな深層学習モデル、たとえば、前述の深層信念ネット、深層ボルツマンマシン、深層潜在ガウスモデルなどからサンプリングすることもできます。しかし、すべての印象的なアプリケーション。
バイエルジ14

...ロジスティック回帰からサンプリングできないのはなぜですか?
大井紅14

LRモデルを考える pc|バツ、入力を条件とするクラスをサンプリングできます。ただし、入力をサンプリングすることはできません。したがって、それはより差別的/生成的な区別です。
バイエルジ14

1
しかし、ガウス回帰モデルについても同じことが言えます。それが基本的な線形回帰を意味する場合です。
大井紅14
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.