ディープニューラルネットワークとディープラーニングが一般的な知能を実現するには不十分なのはなぜですか


11

ディープラーニング(DL)およびディープ(er)ネットワークに関連するすべてのものは「成功」しているように見え、少なくとも非常に速く進行しており、AGIが到達可能であるという信念を育んでいます。これは人気のある想像です。DLは、AGIの作成など、非常に多くの問題に取り組むためのすばらしいツールです。しかし、それだけでは十分ではありません。ツールは必要な要素ですが、多くの場合不十分です。

ドメインの主要人物は、他の場所で進歩を目指しています。このレポート/クレームには、Yoshua BengioYann LeCunGeoff Hintonの声明へのリンクが集められています。レポートはまた説明します:

DLの主な弱点(私がそれらを見ると)は、次のとおりです。最も単純な可能なモデルニューロンへの依存(LeCunがそれらを呼び出すときの「漫画」)。エネルギー関数と対数尤度法の基礎である19世紀の統計力学と統計からのアイデアの使用。バックプロップや確率勾配降下法などの手法でこれらを組み合わせると、適用範囲が非常に限定され(オフライン、ほとんどがバッチ処理、教師あり学習)、高度な才能を持つ実務家(別名「確率的大学院降下」)が必要になり、大量の高価なラベル付きのトレーニングデータと計算能力。才能を誘惑または購入し、無制限のリソースを展開してデータを収集し、それを処理することができる大企業にとっては優れていますが、DLはほとんどの人にとってアクセスも有用でもありません。

このような説明は興味深く関連性がありますが、実際には問題の要点を扱っていません。何が不足していますか?

質問は広いようですが、それは単純な答えがないためかもしれません。AGIに欠けているDLを特定する方法はありますか?


回答:


7

ニューラルネットワークを扱うすべての人は、システムを人間のような知能と比較するときに重要なポイントを見逃します。人間が理解できることを行うには何ヶ月もかかりますし、大人の人間がほとんど対処できない問題を解決できることは言うまでもありません。それと人間の脳のサイズは、私たちのニューラルネットワークに比べて巨大です。方向は正しいかもしれませんが、スケールはかなりずれています。人間の脳のニューロンの数はメモリごとに一致させることができますが、リアルタイムでシミュレーションするための並列処理の量はまだ実現できていません(少なくともランダムな研究者にとって)。少し古いですが、これは処理能力がどれだけ不足しているかを理解するのに役立ちます。


この簡潔な回答をありがとうございます。DLテクノロジでのみ、AGI以上を実現するためにサイズだけが重要だと言っていますか?サイズは重要ですが、おそらく何かがまだ不足しています。(この段落のしゃれは完全に意図されています)。
エリックプラトン2017

1
たとえば、Wolframのセルラーオートマトンを考えてみましょう。非常にシンプルですが、驚くほど複雑になります。
エリックプラトン2017

量子コンピューティングは、最終的にどのような形をとっても、この処理の問題に対する提案された解決策の1つですか?
DukeZhou

量子処理は、ある時点で決定に到達するために使用できますが、人間の脳のように連続フローをシミュレートするために使用することはできません。システムが観察されると、量子波形は崩壊し、本質的に遅いシーケンシャルシステムに減少します。
Cem Kalyoncu 2017

1
@CemKalyoncu確かに。しかし、象には人間のほぼ3倍の数がいます。確かにサイズの議論は重要ですが、サイズだけでは十分ではないようです。
エリックプラトン2017

6

ディープラーニングは主に教師あり学習で成功しますが、脳は主に教師なしでカテゴリを作成します。その方法はまだわかりません。(グーグル脳を見てください:16,000コアとこのすべてができることは猫と人間の顔をかなりひどい精度で認識することです。)

ディープラーニングは高度に構造化されていないアクティベーションを使用します。つまり、ニューラルネットワーク分類器での「犬」と「猫」の高レベルの表現は、まったく同じである必要はありません。一方、脳は抑制ニューロンを使用して、意味論的側面に分解可能な疎な分散表現を作成します。これは、類推による抽象化と推論のためにおそらく重要です。

脳には、一緒に働く多くの異なる部分があります。深層学習の研究者は、メモリまたは注意メカニズムをアーキテクチャに統合し始めたばかりです。

脳はさまざまな感覚からの情報を統合します。ほとんどのディープラーニングアプリケーションは、テキストや画像など、1種類の入力のみを使用します。

脳は、シーケンスをカテゴリとしてモデル化できます。(基本的に、すべての動詞は順次(つまり、時間的)カテゴリーに名前を付けます。)次に、これらのカテゴリーを長期的な階層プランに配置できます。これまでのところ、ディープラーニングではそのような方向で何も見ていません。

また、ニューラルネットワークはまだ人間の脳と同じ規模で動作することはできません。この質問の答えを見ると、人間の脳はニューロンの数でさらに数十年先を行くでしょう。ニューラルネットワークは、同様のパフォーマンスに到達するために脳と同じ数のニューロンを必要としない場合があります(精度が高いため)。


ここも面白いポイント、ありがとうございます。ここでの私の懸念は、それが対照的なプロセス([深い]学習)と構造(ネットワークまたは脳の)であるということです。この傾向が正しければ、AGIは私たちが持っているものに基づく時間の問題にすぎません。ディープネットワークでのセマンティックな問題について言及していますが、おそらく敵対的なモデルで最もよく見られます。これは、何かが欠けていることを示しており、この回答で最良の議論の1つです。現在の構造では不十分であることは理解しています(つまり、初期のメモリモデル)。ただし、これは間接的に「なぜ」の問題に対処しています。答えを絞り込む方法がわかりますか?
エリックプラトン2017

MLゲームプレイへの最近の「光学のみ」のアプローチは、教師あり学習から解放される試みですか?
DukeZhou

@DukeZhou:RL技術が教師なし学習に役割を果たすと思いますが、現時点では、RLはまだ高レベルの概念を学習していないようです。
BlindKungFuMaster 2017

1
@EricPlaton:私はあなたのコメントを理解しているとは思いません。私が欠けていると思うのは、1。構造と2.スケールです。そしてもちろんアルゴリズムですが、それらは構造と絡み合っています。
BlindKungFuMaster 2017

3

IMHO最初のハードルはスケールです。Googleの最大のDNNでさえ、脳のスケールに近づくことはなく、数桁の因数で...


2

人間の脳を作る要素がまだ足りていないように思います。多くの異なるネットワークが互いに連携している。

瞑想が脳をより相乗的に機能させることによって認知能力を向上させるのと同じように、それを機械にも適用できます。

たとえば、グーグルは、私たちと同じように、すでに学んだことを強化するために、コンピューターが夢を見ることを学んでいます。 https://medium.com/@tannistho/why-is-google-teaching-its-ai-to-dream-e9ae9ecd0e3a#.gljal6pww

そして、これがニューラルネットワークのネットワークであるパスネットです。 https://medium.com/@thoszymkowiak/deepmind-just-published-a-mind-blowing-paper-pathnet-f72b1ed38d46#.ed0f6pdq7

これらのメカニズムをすべて作成し、それらをすべて組み合わせて、十分なパワーを備えれば、かなり近づきます!


「それ」とは何か明確にしていただけませんか?それはディープラーニングのプロセスかもしれませんし、同様にディープネットワークかもしれません。これらは異なります。
エリックプラトン2017

1
両方ですが、主にディープニューラルネットワークが互いに連携しているため、DNNにも優れた神経可塑性機能があるはずです。しかし、これは基本に触れることしかできなかったものであり、人間の脳がどのように正確に機能するかさえも知りません
Alexander

1

今日の人工知能の支持者は、計算可能性の問題、つまり複雑な問題を迅速に解決する能力に焦点を当てています。この方向で成功しても、特定の領域では確かに人間より優れているとはいえ、人間(一般)の知性にはつながらないというのが私の信念です。代わりに、どんな神経学的事象が感覚を引き起こすのか(クオリアの経験)の研究に向けた努力がなされるべきです。もちろん、これは哲学の難しい問題ですが、私はそれが一般的な知性とその能力のユニークな鍵であると信じています。リバースエンジニアリングとテスト可能な理論は、この目的に向かって前進する必要があります。


1
Quailaはマシンが持つ興味深い特性である可能性があります(特に、これらのマシンに権限を付与する場合)、Quaila自体が哲学において非常に困難な問題であることを除いて、2つの主要な問題があります。(A)インテリジェンス自体はクワイラを必要としない場合があり、主観的な一人称体験を行うことができなくても賢くなります。つまり、哲学的ゾンビ。
左南東に10_6_19

(B)業界は複雑な問題を迅速に解決することだけに関心があり、その高速マシンが考えたり感じたりできるかどうかについては本当に心配していません。AGIは、複雑な問題をすばやく解決できる範囲でのみ必要です。知性は、目的を達成するための手段にすぎません。(実際、そのようなマシンは権利に値するかもしれないので、業界は思考と感情のマシンを望まないかもしれません...そして権利は規制のようなものであり、企業がツールで何ができるかを制限します。)
Left SE On 10_6_19
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.