回答:
技術的特異点は、自己向上した時点での理論上のポイントである人工一般知能は、生物学的なデザインで、それは物事の人間を理解することができた瞬間、外の人間の脳の範囲の概念を理解して操作することができるようになるされている缶」 t。
特異点についての曖昧さは、特異点以降、歴史が事実上予測不可能であるという事実に由来しています。科学自体が機械でトリガーされるイベントを説明できなくなるため、人類は将来のイベントを予測したり、現在のイベントを説明したりすることができなくなります。基本的に、機械はアリと同じように私たちのことを考えます。したがって、特異点を超えて予測することはできません。さらに、論理的な結果として、特異点がまったく発生する可能性のあるポイントを定義することも、それが発生したときにそれを認識することもできません。
ただし、特異性が発生するためには、AGIを開発する必要があり、それが可能かどうかは非常に熱い議論ですたった今。さらに、ビットとバイトから超人的な知性を生み出すアルゴリズムを設計する必要があります。定義により、人間のプログラマはそのようなことを行うことができません。なぜなら、彼/彼女の脳はその範囲を超えて概念を理解することができる必要があるからです。また、知性の爆発(技術的に特異性が理論的に形成されるメカニズム)は、より知性を高め、知能に比例して大きくなるという設計上の課題の難しさのために不可能であるという議論もありますデザイン自体が、前述の課題を解決するために必要なインテリジェンスを追い越す可能性があります(コメントでラマ神への最後のポイントクレジット)。
また、人類を引き継ぐ機械とそのすべてのSF物語に関連する理論があります。ただし、Asimovの法則が適切に守られていれば、それは起こりそうにありません。アシモフの法則が十分ではなかったとしても、意図しない個人によるAGIの誤用を避けるためには、一連の制約が依然として必要であり、アシモフの法則はそれに最も近いものです。
「特異点」の概念は、機械が人間を凌martすることです。Stephen Hawkingの意見では、この状況は避けられないと考えていますが、すべてのAIアルゴリズムは人間がプログラムする必要があるため、そのポイントに到達するのは非常に難しいと思います。したがって、作成者よりも常に制限されます。
超スマートAIが人間と競争し、多分より洗練された知的な存在を作り出す人工知能に対する人間性の制御がいつ失われるかはおそらくわかっているでしょうが、現在はサイエンスフィクション(ターミネーターのスカイネット)に似ています。
リスクには、人々を殺すこと(自己飛行の戦争ドローンが自分で決定するなど)、国または惑星全体を破壊すること(核兵器に接続されたAI(別名WarGames映画)など)が含まれる可能性がありますが、マシンは人間よりも賢いでしょう。
AIのコンテキストでの特異点は、次の基準を持つインテリジェントシステムが展開される理論上のイベントです。
帰納法により、理論は、脳の進化の潜在的な速度を大幅に超える可能性のある知能増加の潜在的な速度で一連のイベントが生成されることを予測します。
この自己改善のエンティティまたは人工物の人口が人間の生命と自由を維持するためにどのように義務付けられるかは不確定です。そのような義務が取消不能なソフトウェア契約の一部になり得るという考えは、上記の基準(1)から(4)に結び付けられた機能の性質に照らして、単純です。他の強力なテクノロジーと同様に、リスクは潜在的なメリットと同じくらい多く、広範囲に及びます。
人類に対するリスクは知性を必要としません。特異性という用語の使用には他のコンテキストもありますが、これらはこのAIフォーラムの範囲外ですが、明確にするために簡単に言及する価値があります。遺伝子工学、核工学、グローバル化、および地球で発生した数千倍の速度で消費される有限のエネルギー源に基づく国際経済の基盤—これらは、リスクと利益をもたらす高リスク技術と大衆動向の他の例です人類に。
AIに戻ると、特異性理論の主な注意点は、確率を組み込むことができないことです。上記の基準(1)から(4)に適合するエンティティを開発することは可能かもしれませんが、地球上で話されているすべての現在の言語が死んでからずっと後に最初のイベントが発生するほどにはありえないかもしれません。
確率分布のもう一方の極値では、最初のイベントが既に発生した確率がゼロ以外であると簡単に主張できます。
それらの線に沿って、インターネット上にすでに存在するよりスマートな存在であれば、より低い人間に自分自身を明らかにすることが最善の利益となる可能性はどれほどありますか?うじ虫を紹介しますか?
狭義に見られる「特異点」とは、経済成長が非常に速いため、そのポイントを過ぎた将来がどのように見えるかについて有用な予測を立てることができないポイントを指します。
「インテリジェント爆発」と呼ばれることがよくあります。これはいわゆるストロングAIと呼ばれるもので、これは自分自身を理解して改善するのに十分なインテリジェントなAIです。インテリジェンスの爆発はすぐに経済的特異点につながると期待するのは理にかなっているようですが、その逆は必ずしも真実ではありません。