1960年代に人工知能に取り組んでいる科学者とエンジニアが最初に自信過剰になった理由はありますか?


21

AIとデータマイニングのクラスと本を始めたばかりです。AIアプリケーションプログラミングは、AIの歴史の概要から始まります。最初の章では、1940年代から現在までのAIの歴史を扱います。ある特定の声明が私に突き出ました:

[60年代] AIエンジニアは、約束を超えて不十分に...

自信過剰の理由は何ですか?それは、ブレークスルーが間近に迫っていることを示す数学的予測モデルによるものなのでしょうか、それとも利用し続けるハードウェア能力の増大によるものなのでしょうか?


4
Hubrisの問題は普遍的です。詳細については、「Fooled by Randomness」を参照してください。en.wikipedia.org/wiki/Fooled_by_Randomness
仕事

1
あなたの図書館にそれのコピーがあるなら、Doug Lenatの論文、「なぜAMとEURISKOが動くように見える」。人工知能23(3):pp。269–294。読む価値があるかもしれません。(AMとEURISKOはDoug Lenat自身のプログラムでした)。ただし、これは60年代以降です。個人的には、初期のプロジェクトのいくつかが非常に成功したためだと思うので、多くの問題はいくつかの簡単なテクニックを使用して解決できるように見えました。残念ながら、これは事実ではないことが判明しました。
MZB

7
問題は予想よりも困難でした。はるかに難しい。

8
@Thorbjørn理由はわかりませんが、エンジニアの科学者がオフィスを出て転換点に到達する直前にノートブックの余白に走り書きされ、すべての正気を失うことを想像できます。
トーマスオーエンズ

3
これは答えを出す価値はありませんが、それらの時代の社会的文脈も見る必要があります。西側世界、特に米国は第二次世界大戦を経ており、多くの困難な問題を解決する多くの技術を開発していました。私たちが解決に心を置くどんな問題も克服できるという一般的な感覚がありました。それを慢またはhub慢と呼ぶのは、おそらく少し上です。自由な楽観主義のようなものにもっと行きたいです。
Blrfl

回答:


30

私の個人的な意見は、それはhub慢によるものだと思います。60年代から70年代にかけて、MITやスタンフォードなどのホールを歩いている大きなエゴがいましたが、彼らはこの問題を解決したこと知りました。右。

当時私はその宇宙の一部ではありませんでしたが、80年代半ばから後半にかけて類似検索を行っていました。私たちの仕事は当初、60年代にコーネルのGerard Saltonが行った研究に基づいていました。この研究では、重み付き属性ベクトルを使用してドキュメントとクエリを表現しました。それは実際には使用可能なアプローチでしたが、ニューラルネットが炎上に落ちたとき(少なくとも逆伝播が発見されるまで)、ニューラルネットとの類似性(しゃれが意図されていたため)にソルトンの研究が含まれていました。彼は何か違うことをしようとしていましたが、彼が他の人とひとまとめにしていた数年がありました。

Current Brick Wall™のソリューションを誰かが思いつくたびに、彼らは非常に興奮し、AIが解決された問題であると宣言します。それだけではありません。そのレンガの壁の後ろには別のものがあるからです。このサイクルは、AIだけでなく、何度も何度も繰り返されています。将来のすべてのコンピューター科学者とエンジニアは、ロケットのように上昇したNext Big Things™の数に特に重点を置いて、コンピューティングの歴史の1学期のクラスを取る必要があると確信しています。谷底の大きなクレーター。

補遺:私は旧友とレイバーデーの週末を過ごしましたが、これについて少し話しました。コンテキスト -それが何を意味するのか、それをどのように表現するのか、そしてそれをどのように使用するのかを理解する-は、おそらく解決すべき最大のハードルとして浮上しました。そして、あなたがそれをより長く見るほど、それはより大きなハードルになります。人間は、「何が起こっているのか」と「過去に起こったこと」の膨大なストアとの、ほぼ瞬時の部分パターンマッチングが可能で、その後、過去の知識と現在の状況を組み合わせて、理解するコンテキストを作成できますアクションにつながる可能性があります。たとえば、Waldoグレードを絞る際に、「無視できる/無視できないもの」の強力なフィルターとして使用できます。 60 MPHで、車線4車線に隣接し、わずか3フィートまたは4フィート(またはそれ以下)しか離れていません。

スペクトルにはstuff > data > information > knowledge > understanding > judgement、我々はまだ情報/知識の段階に到達するために負担され、さらにその高度に制約に制限されている談話のドメイン


1
AIは山脈のようなものです。私たちはふもとの丘のどこかにいて、登りたいピークを見ることができますが、次の丘の上には何があるのか​​、目標を達成するために登る必要のある丘の数はわかりません。
CdMnky

1
IMO、それは本当に洗練された高度に一般化されたパターン認識なしでは起こり得ません。彼らが試した多くのことを読んでいるだけで、私は少なくとも80年代にそれを知ったとき、一般的にプログラミングを支配しているように感じます。
エリックReppen

17

簡単に言えば、特にコンビナティナトリアル爆発が懸念される場合、彼らは目前の問題の規模を非常に過小評価していた。多くのAIソリューションは、「おもちゃ」のサンプルに対しては正常に機能しますが、人間レベルの問題にスケールアップする場合は失敗します。

おそらく、彼らも単に経験不足でした。分野としてのAIは(比較的)実用的なアプリケーションの観点から発明されたばかりであるため、理論を何かに適用した重要な経験は誰もいませんでした。


私はこれについてあまり知りませんが、Googleの機能の多くはAIに基づいているといつも思っていましたが、これについての私の理解が悪いのでしょうか?
user10326

@ user10326:そうです。しかし、私はそれが目前の主題と何の関係があるのか​​わかりません。グーグルは問題の期間の後30年間存在しませんでした。
DeadMG

OK AI言語?
user10326

4
@ user10326、私が理解しているように、Googleは非常に高度な推測のシステムを使用しています。基本的に、ユーザーアクティビティの山を分析し、パターンを推定しようとします。AIの当初のビジョンは、人間の脳のように機能する真のデジタルマインドを作成することでした。実際、AIを構成するものに同意することさえできないことは、この分野の没落の1つです。
ジギー

@ user10326:関連性の理解にまだ失敗しています。
DeadMG

15

いくつかの理由が考えられます。

AIは、50年代後半から60年代初頭に取り組んだおもちゃの問題のいくつかで急速な成功を経験し、達成したことを過大評価しました。ELIZAとSHRDLUは、比較的単純なプログラムであるにもかかわらず、人々を驚かせました。残念ながら、これらのプログラムを魅力的なものにしたものの大部分は、本当に目新しいものでした。今日、エリザとの会話に感銘を受けた人は誰もいませんでしたが、当時は人々は奇跡に近いと考えていました。

また、問題は「解決」されるか、少なくとも扱いやすくなるため、人々はもはやそれらをAIとは考えません。コードの最適化は、以前はAIの問題でした。統計学習は、AIから独自の専門分野に芽生え、音声認識を取り入れました。データマイニングが主流になると、AIとの関連性が失われます。時間が経つにつれて、AIはその成功を忘れ、手に負えない不溶性の問題に固執し、フロップのように見えます。


5
「もう魔法(3)でなくなったら、それはもはやAIではない」の良い点です。
-Piskvor

しかし、統計学習とデータマイニングは原則としてAIではありませんか?
user10326

@ user10326、確かにほとんどの参考文献はまだ機械学習をAIのブランチとして分類していますが、MLで働いている多くの人々がAIで働いていると言ったらあなたを眉をひそめるだろうという印象を受けます。実用的には、MLは統計の分岐であり、人工知能やその他の知性に関する特定の洞察を提供しないと彼らは言うと思います。
チャールズE.グラント

12

60年代の人々は、問題を「難しい問題」と「簡単な問題」に分けるために、人間の経験を使っていたと思います。チェスに勝つ、論理的な謎を解く、数学の方程式を解くといったことは人間には難しいようです。私たちの脳は意識的な努力なしにすべての作業を行うため、自然言語を理解したり、画像内のオブジェクトのアウトラインを見つけるなどのことは簡単に思えます。これらのことをどのように行うかを説明しようとすると、「英語の文章は常にsubject-predicate-objectの構造を持ち、subjectは単純な用語やフレーズになる...」、または「I'mエッジを探してオブジェクトの境界に接続します」。今日、私たちは物事がそれほど単純ではないことを知っていますが、それは単にすべての単純な(そして多くのそれほど単純ではない)ソリューションが試されており、

その上、この誤acyは60年代には始まりませんでした:それらの「ハードな問題」(ヒューリスティック、ゲーム理論、決定理論、数学、論理など)を解決する方法に関する研究は何世紀にもわたってありますが、 1950年代以前に自然言語がどのように解析されるかを研究することに悩まされました。

そして今日でも、スタックオーバーフローに関する質問を定期的に見つけることができます。人々は英語の文章を解析する方法を尋ね、画像に写っている人物の年齢を推定し、画像が「仕事に安全」であるか、2つの画像が同じものを示しているかを判断します。これらの質問をする人たちがhub慢や慢に苦しむことはないと思います。これらの問題はとても単純に思えますが、それを解決するための簡単なアルゴリズムないの信じられません。


3
これは、このサイトで強く支持されているhub慢理論ではなく、正しい答えだと思います。人間にとっては信じられないほど難しいと思っていたことが、機械にとっては比較的簡単であることがわかりました。一方、人間にとっては信じられないほど単純なことは、機械にとっては非常に困難です。
AlexC

11

AIには失望の長い歴史がありますが、多くの批評家は、「1960年代のエンジニアは期待を超えて、配信不足だ」という引用などで、出来事を単純化しすぎていることが多いと思います。

60年代には、AIは主に大学の比較的少数の研究者の領域であり(この分野はまだエンジニアリングと呼ぶにはまだ十分に開発されていませんでした)、熟練したプログラマーはほとんどいませんでした。

1950年代にコンピューターマシンが突然利用可能になったため、自動化、特に自然言語の機械翻訳、チェスなどの問題に大きな期待が寄せられました。当時の成功の実際の予測を見つけるかもしれませんが、誰もがこれらの問題のいずれかに深く取り組む前に必然的に約束がやってきました。(または、サミュエルがチェッカーで非常に成功した後、良いチェスを実装できると期待するなど、1つの成功が別の成功を保証すると誤って想定していました。)

また、「彼らが言った」、「彼らが感じた」、「彼らが思った」などの主張にも注意してください。振り返りの意見(このような!)は簡単に振り回すことができますが、「専門家」(実際に特定の問題を解決しようとした人)による実際の予測の証拠を文書化することは見つけるのがはるかに困難です。

プログラミングが適用される特定の分野に関係なく、過剰な約束と配信不能は常にソフトウェア開発の症状でした。AIの主な難点は、重要な問題がほとんどのエンジニアの能力を超えていることです。たとえば、Charles E. Grantの答えはELIZAとSHRDLUを「比較的単純」に分類していますが、それはELIZAのみに当てはまります(ほとんどの1年生のプログラミング学生はおそらくそれほど困難なく実装できます)。一方、SHRDLUは非常に洗練された大規模なプログラムであり、ほとんどのプログラマーにとっては、実装に加えて、発明するのが非常に困難です。確かに、大学生の2つのチームは、ソースコードを再び完全に実行することさえできませんでした。、そしてSHRDLUのような能力は、40年以上経った今でも見つけるのが難しいです。

AIはおそらくコンピューターを適用できる最も理解されておらず最も手に負えない問題の1つであるため、全体として、AIの進歩は一般的にコースに匹敵していると思います。まだ大きな期待があり、ハードウェアの速度と容量は60年代以来とてつもなく増加していますが、エンジニアの能力とAIの理解はそれほど向上していないと思いますので、チューリングテストに合格するような聖杯はまだありますおそらく長い道のりをたどるでしょうし、おそらく将来にわたって過剰な期待と配信不足が続くでしょう。


再:チューリングテスト:ほとんどの学生が「AI」とは言えないジョージア工科大学のティーチングアシスタントプログラムについて読みました。彼らはそれを探していなかったかもしれませんが、確かに彼らに飛びつきませんでした。一般的な会話はすぐに解決される問題になると思います。最近、誰かが新しいGoogle Echoのもの(と呼ばれるもの)で遊ぶのを見ました。気の毒ですが、何百万匹もの猿が会話のサンプルを食べて、どれだけ長くその状態を保ちますか?

5

その理由は慢だったと思います。私が60年代にAIに取り組んでいたエンジニアだったら、私はかなり慢だったでしょう。

素晴らしいことを成し遂げるためには、素晴らしいことのために手を伸ばさなければならないと思います。したがって、制限を超えない限り、過剰な約束は必ずしも悪いことではありません。今日の科学者は私が可能だとは思わない有望なことですが、彼らがそれに到達しないと、結果として何が達成されるかを見逃します。


4

どこへ行くのかわからないとき、どこかへ行くのは非常に困難です。

インテリジェンスとは何か、それがどのように機能するかについて何らかの合理的な説明があれば、それを効果的に模倣することができます。チューリングテストは魅力的で便利ですが、おそらく真のインテリジェンスをモデル化するのに十分ではありません。私たちが知る限り、知性の「モデル」は真の知性にとっても十分ではないかもしれません。


3
最初の文に+1。
メイソンウィーラー

たぶん、私たちは知性を理解できるほど知性が足りないか、その知性さえありません。しかし、私たちは

2

まあ、私はそれが多かれ少なかれ現在OWLで起こっていることと同じだと言うでしょう。周りを見て、平行線を引いてみてください。

紙上では良さそうに聞こえますが、おもちゃの問題ではうまく機能しているようで、ほとんどの実際のデータでは非常に複雑になります。


OWLとは何ですか?オストヴェストファーレン-リップ?
sleske


2

与えられた良い答えに加えて、2つの観察:

その日のいくつかの引用は、研究者の多くが、より高速なコンピューターが設計されれば、些細な解決策をスケールアップできると考えていたことを暗示しているように見えます。ある種の学習システムでは、これは非常に真実でしたが、OPがそれを参照しているようなものについては、規模が実際に改善されなかったと思います。

当時の研究者は、人間の心の複雑さの推定が非常に低かった(チューリングテスト、人々がこれまでに脳のごく一部しか使用しないという考えに焦点を当てるなど)。単純な動物のレベルでのAIは、物事が拡大するにつれていくつかの手段によって達成されましたが、人間レベルのAIへのジャンプは予想よりもはるかに大きかったです。これにより、一部の研究者は、そのギャップを埋めるための試みとして、赤ちゃんのシステムやその他の成長/進化ベースのシミュレーションを学習しようとしています。


単純な脳(昆虫、魚、爬虫類)は行動をうまく処理できますが、推論の処理は別の問題です。だから、AIはまもなく問題領域について話し合うことはできるが、新しい問題に貢献したり解決したりするのに意味のあるものは持たないと思う。興味深い分野は、小さな脳(鳥)が会話入力に応答し、面白いことを発明するなどの複雑なことを実行できる場所です(ドアベルの音を模倣して、人々がドアに答えて行くのを見るパロット)。

1

その理由の1つは、1960年代に私たちがELSEWHEREを持っていたことの成功です。私たちは宇宙に打ち上げたばかりで、すぐに月に人を着陸させました。ポリオやその他の主要な病気の治療法を発見したばかりです。

しかし、「人工知能」は、当時直面していた「エンジニアリング」問題とは異なる動物でした。それは「機械的な」問題ではなく、「理性的な」問題でした。

要するに、AI(1960年代)は「その時はまだ来ていない」という考えでした。それが他の問題と同様にアクセス可能になるまで、その後の数十年でより多くの開発が必要でした。


0

もう1つの理由は、コンピューターを習得する/コンピュータープログラムを作成することで、コントロールがまったくできない人に全能性の感覚を与えることができることです。

これに加えて、哲学的/認識論的教育の欠如と「知性はただの...」のような単純な説明への素朴な信頼がhub慢につながる可能性があります。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.