AIとデータマイニングのクラスと本を始めたばかりです。AIアプリケーションプログラミングは、AIの歴史の概要から始まります。最初の章では、1940年代から現在までのAIの歴史を扱います。ある特定の声明が私に突き出ました:
[60年代] AIエンジニアは、約束を超えて不十分に...
自信過剰の理由は何ですか?それは、ブレークスルーが間近に迫っていることを示す数学的予測モデルによるものなのでしょうか、それとも利用し続けるハードウェア能力の増大によるものなのでしょうか?
AIとデータマイニングのクラスと本を始めたばかりです。AIアプリケーションプログラミングは、AIの歴史の概要から始まります。最初の章では、1940年代から現在までのAIの歴史を扱います。ある特定の声明が私に突き出ました:
[60年代] AIエンジニアは、約束を超えて不十分に...
自信過剰の理由は何ですか?それは、ブレークスルーが間近に迫っていることを示す数学的予測モデルによるものなのでしょうか、それとも利用し続けるハードウェア能力の増大によるものなのでしょうか?
回答:
私の個人的な意見は、それはhub慢によるものだと思います。60年代から70年代にかけて、MITやスタンフォードなどのホールを歩いている大きなエゴがいましたが、彼らはこの問題を解決したことを知りました。右。
当時私はその宇宙の一部ではありませんでしたが、80年代半ばから後半にかけて類似検索を行っていました。私たちの仕事は当初、60年代にコーネルのGerard Saltonが行った研究に基づいていました。この研究では、重み付き属性ベクトルを使用してドキュメントとクエリを表現しました。それは実際には使用可能なアプローチでしたが、ニューラルネットが炎上に落ちたとき(少なくとも逆伝播が発見されるまで)、ニューラルネットとの類似性(しゃれが意図されていたため)にソルトンの研究が含まれていました。彼は何か違うことをしようとしていましたが、彼が他の人とひとまとめにしていた数年がありました。
Current Brick Wall™のソリューションを誰かが思いつくたびに、彼らは非常に興奮し、AIが解決された問題であると宣言します。それだけではありません。そのレンガの壁の後ろには別のものがあるからです。このサイクルは、AIだけでなく、何度も何度も繰り返されています。将来のすべてのコンピューター科学者とエンジニアは、ロケットのように上昇したNext Big Things™の数に特に重点を置いて、コンピューティングの歴史の1学期のクラスを取る必要があると確信しています。谷底の大きなクレーター。
補遺:私は旧友とレイバーデーの週末を過ごしましたが、これについて少し話しました。コンテキスト -それが何を意味するのか、それをどのように表現するのか、そしてそれをどのように使用するのかを理解する-は、おそらく解決すべき最大のハードルとして浮上しました。そして、あなたがそれをより長く見るほど、それはより大きなハードルになります。人間は、「何が起こっているのか」と「過去に起こったこと」の膨大なストアとの、ほぼ瞬時の部分パターンマッチングが可能で、その後、過去の知識と現在の状況を組み合わせて、理解するコンテキストを作成できますアクションにつながる可能性があります。たとえば、Waldoグレードを絞る際に、「無視できる/無視できないもの」の強力なフィルターとして使用できます。 60 MPHで、車線4車線に隣接し、わずか3フィートまたは4フィート(またはそれ以下)しか離れていません。
スペクトルにはstuff > data > information > knowledge > understanding > judgement
、我々はまだ情報/知識の段階に到達するために負担され、さらにその高度に制約に制限されている談話のドメイン。
簡単に言えば、特にコンビナティナトリアル爆発が懸念される場合、彼らは目前の問題の規模を非常に過小評価していた。多くのAIソリューションは、「おもちゃ」のサンプルに対しては正常に機能しますが、人間レベルの問題にスケールアップする場合は失敗します。
おそらく、彼らも単に経験不足でした。分野としてのAIは(比較的)実用的なアプリケーションの観点から発明されたばかりであるため、理論を何かに適用した重要な経験は誰もいませんでした。
いくつかの理由が考えられます。
AIは、50年代後半から60年代初頭に取り組んだおもちゃの問題のいくつかで急速な成功を経験し、達成したことを過大評価しました。ELIZAとSHRDLUは、比較的単純なプログラムであるにもかかわらず、人々を驚かせました。残念ながら、これらのプログラムを魅力的なものにしたものの大部分は、本当に目新しいものでした。今日、エリザとの会話に感銘を受けた人は誰もいませんでしたが、当時は人々は奇跡に近いと考えていました。
また、問題は「解決」されるか、少なくとも扱いやすくなるため、人々はもはやそれらをAIとは考えません。コードの最適化は、以前はAIの問題でした。統計学習は、AIから独自の専門分野に芽生え、音声認識を取り入れました。データマイニングが主流になると、AIとの関連性が失われます。時間が経つにつれて、AIはその成功を忘れ、手に負えない不溶性の問題に固執し、フロップのように見えます。
60年代の人々は、問題を「難しい問題」と「簡単な問題」に分けるために、人間の経験を使っていたと思います。チェスに勝つ、論理的な謎を解く、数学の方程式を解くといったことは人間には難しいようです。私たちの脳は意識的な努力なしにすべての作業を行うため、自然言語を理解したり、画像内のオブジェクトのアウトラインを見つけるなどのことは簡単に思えます。これらのことをどのように行うかを説明しようとすると、「英語の文章は常にsubject-predicate-objectの構造を持ち、subjectは単純な用語やフレーズになる...」、または「I'mエッジを探してオブジェクトの境界に接続します」。今日、私たちは物事がそれほど単純ではないことを知っていますが、それは単にすべての単純な(そして多くのそれほど単純ではない)ソリューションが試されており、
その上、この誤acyは60年代には始まりませんでした:それらの「ハードな問題」(ヒューリスティック、ゲーム理論、決定理論、数学、論理など)を解決する方法に関する研究は何世紀にもわたってありますが、 1950年代以前に自然言語がどのように解析されるかを研究することに悩まされました。
そして今日でも、スタックオーバーフローに関する質問を定期的に見つけることができます。人々は英語の文章を解析する方法を尋ね、画像に写っている人物の年齢を推定し、画像が「仕事に安全」であるか、2つの画像が同じものを示しているかを判断します。これらの質問をする人たちがhub慢や慢に苦しむことはないと思います。これらの問題はとても単純に思えますが、それを解決するための簡単なアルゴリズムがないのは信じられません。
AIには失望の長い歴史がありますが、多くの批評家は、「1960年代のエンジニアは期待を超えて、配信不足だ」という引用などで、出来事を単純化しすぎていることが多いと思います。
60年代には、AIは主に大学の比較的少数の研究者の領域であり(この分野はまだエンジニアリングと呼ぶにはまだ十分に開発されていませんでした)、熟練したプログラマーはほとんどいませんでした。
1950年代にコンピューターマシンが突然利用可能になったため、自動化、特に自然言語の機械翻訳、チェスなどの問題に大きな期待が寄せられました。当時の成功の実際の予測を見つけるかもしれませんが、誰もがこれらの問題のいずれかに深く取り組む前に必然的に約束がやってきました。(または、サミュエルがチェッカーで非常に成功した後、良いチェスを実装できると期待するなど、1つの成功が別の成功を保証すると誤って想定していました。)
また、「彼らが言った」、「彼らが感じた」、「彼らが思った」などの主張にも注意してください。振り返りの意見(このような!)は簡単に振り回すことができますが、「専門家」(実際に特定の問題を解決しようとした人)による実際の予測の証拠を文書化することは見つけるのがはるかに困難です。
プログラミングが適用される特定の分野に関係なく、過剰な約束と配信不能は常にソフトウェア開発の症状でした。AIの主な難点は、重要な問題がほとんどのエンジニアの能力を超えていることです。たとえば、Charles E. Grantの答えはELIZAとSHRDLUを「比較的単純」に分類していますが、それはELIZAのみに当てはまります(ほとんどの1年生のプログラミング学生はおそらくそれほど困難なく実装できます)。一方、SHRDLUは非常に洗練された大規模なプログラムであり、ほとんどのプログラマーにとっては、実装に加えて、発明するのが非常に困難です。確かに、大学生の2つのチームは、ソースコードを再び完全に実行することさえできませんでした。、そしてSHRDLUのような能力は、40年以上経った今でも見つけるのが難しいです。
AIはおそらくコンピューターを適用できる最も理解されておらず最も手に負えない問題の1つであるため、全体として、AIの進歩は一般的にコースに匹敵していると思います。まだ大きな期待があり、ハードウェアの速度と容量は60年代以来とてつもなく増加していますが、エンジニアの能力とAIの理解はそれほど向上していないと思いますので、チューリングテストに合格するような聖杯はまだありますおそらく長い道のりをたどるでしょうし、おそらく将来にわたって過剰な期待と配信不足が続くでしょう。
まあ、私はそれが多かれ少なかれ現在OWLで起こっていることと同じだと言うでしょう。周りを見て、平行線を引いてみてください。
紙上では良さそうに聞こえますが、おもちゃの問題ではうまく機能しているようで、ほとんどの実際のデータでは非常に複雑になります。
与えられた良い答えに加えて、2つの観察:
その日のいくつかの引用は、研究者の多くが、より高速なコンピューターが設計されれば、些細な解決策をスケールアップできると考えていたことを暗示しているように見えます。ある種の学習システムでは、これは非常に真実でしたが、OPがそれを参照しているようなものについては、規模が実際に改善されなかったと思います。
当時の研究者は、人間の心の複雑さの推定が非常に低かった(チューリングテスト、人々がこれまでに脳のごく一部しか使用しないという考えに焦点を当てるなど)。単純な動物のレベルでのAIは、物事が拡大するにつれていくつかの手段によって達成されましたが、人間レベルのAIへのジャンプは予想よりもはるかに大きかったです。これにより、一部の研究者は、そのギャップを埋めるための試みとして、赤ちゃんのシステムやその他の成長/進化ベースのシミュレーションを学習しようとしています。