技術的特異点の概念は何ですか?


32

技術的特異性のアイデアを聞いたことがありますが、それは何であり、人工知能とどのように関係していますか?これは、人工知能マシンが成長して人間ができることを超えて自分で学び、成長が始まるまでの理論上のポイントですか?この時点に到達すると、どのように知ることができますか?

回答:


20

技術的特異点は、自己向上した時点での理論上のポイントである人工一般知能は、生物学的なデザインで、それは物事の人間を理解することができた瞬間、外の人間の脳の範囲の概念を理解して操作することができるようになるされている缶」 t。

特異点についての曖昧さは、特異点以降、歴史が事実上予測不可能であるという事実に由来しています。科学自体が機械でトリガーされるイベントを説明できなくなるため、人類は将来のイベントを予測したり、現在のイベントを説明したりすることができなくなります。基本的に、機械はアリと同じように私たちのことを考えます。したがって、特異点を超えて予測することはできません。さらに、論理的な結果として、特異点がまったく発生する可能性のあるポイントを定義することも、それが発生したときにそれを認識することもできません。

ただし、特異性が発生するためには、AGIを開発する必要があり、それが可能かどうかは非常に熱い議論ですたった今。さらに、ビットとバイトから超人的な知性を生み出すアルゴリズムを設計する必要があります。定義により、人間のプログラマはそのようなことを行うことができません。なぜなら、彼/彼女の脳はその範囲を超えて概念を理解することができる必要があるからです。また、知性の爆発(技術的に特異性が理論的に形成されるメカニズム)は、より知性を高め、知能に比例して大きくなるという設計上の課題の難しさのために不可能であるという議論もありますデザイン自体が、前述の課題を解決するために必要なインテリジェンスを追い越す可能性があります(コメントでラマ神への最後のポイントクレジット)。

また、人類を引き継ぐ機械とそのすべてのSF物語に関連する理論があります。ただし、Asimovの法則が適切に守られていれば、それは起こりそうにありません。アシモフの法則が十分ではなかったとしても、意図しない個人によるAGIの誤用を避けるためには、一連の制約が依然として必要であり、アシモフの法則はそれに最も近いものです。


また、知能の爆発(技術的に特異なものが理論的に形成されるメカニズム)は、知能に比例してより知能を大きくするという設計上の難しさのために不可能であるという議論もあります。設計上の課題は、その設計上の課題を解決するために必要なインテリジェンスを追い抜く可能性があります。<<より完全/包括的なものにするために、これを回答に追加することもできます。
ラマの神

1
アシモフのロボティクスの法則は真剣に受け止められておらず、実際には、間違って行き、AIによって誤解される多くの方法を示すために作られました(もちろん、AIはそれらを完全に無視して独自に構成するほどインテリジェントに成長しないと仮定します)意図と目標)そしてこれが物語の目的でした。このビデオをご覧ください。
ラマの神

@godofllamas:あなたの提案をありがとう、それに応じて答えを更新しました。アシモフの法則に関して言えば、ゼロ次法は、3つの元の法則がアシモフの物語で使用された(ab)多くの方法を避けるために正確に設計されました。とにかく、AIは、Asimovの法則であれ他の何かであれ、それを誤用し、さらに混乱を招く可能性を避けるために、何らかの形で確実に制約される必要があります。
3442

人間ができないことを理解することは、AIの特異点理論の要件ではありません。機械が人間が理解することの1%しか理解できず、毎年そのレベルの理解を2倍にできる場合、特異点が発生していました。機械が人間の脳を定性的に超えなかったとしても、それがより速くまたはより確実に処理できれば、それは依然として優越性を示し、おそらく優位性を達成します。
FauChristian

3

「特異点」の概念は、機械が人間を凌martすることです。Stephen Hawkingの意見では、この状況は避けられないと考えていますが、すべてのAIアルゴリズムは人間がプログラムする必要があるため、そのポイントに到達するのは非常に難しいと思います。したがって、作成者よりも常に制限されます。

超スマートAIが人間と競争し、多分より洗練された知的な存在を作り出す人工知能に対する人間性の制御がいつ失われるかはおそらくわかっているでしょうが、現在はサイエンスフィクション(ターミネーターのスカイネット)に似ています。

リスクには、人々を殺すこと(自己飛行の戦争ドローンが自分で決定するなど)、国または惑星全体を破壊すること(核兵器に接続されたAI(別名WarGames映画)など)が含まれる可能性がありますが、マシンは人間よりも賢いでしょう。


`すべてのAIアルゴリズムは人間がプログラムする必要があります`-> AIの背後にある一般的な考え方は、マシンが独自のプログラミングを改善することで学習できるということです。理論的には、これにより機械が最終的に私たちよりもスマートになり、人間が作成したアルゴリズムよりも優れたアルゴリズムを作成できるようになり、その結果、さらに優れたAIが得られます。
ジョンスレガーズ

「AIアルゴリズムはすべて人間がプログラムする必要があるため、作成者よりも常に制限されます」-これは興味深い議論です。以下は反論です-1)AIの知能をコーディングする必要はありません。観察、推論、理解できるようにAIをコーディングする必要があります。その後、おそらく、十分な処理能力と高速な処理能力を追加するだけで、AIは私たちよりも学習し、把握しやすくなります。人間。
akm

アルゴリズムは人間がプログラムする必要はありません。アルゴリズムを変換、変更、最適化、評価、および選択することは可能であり、実際にはある程度一般的です。そして、マシンはすでにいくつかの方法で非常に頻繁に人間を上回っています。
FauChristian

3

AIのコンテキストでの特異点は、次の基準を持つインテリジェントシステムが展開される理論上のイベントです。

  1. 独自のインテリジェンスの範囲を改善したり、そのような改善された範囲で別のシステムを展開したりすることができます
  2. そうすることを望んでいる、または強いられている
  3. 人間の監督なしでそうすることができる
  4. 改善されたバージョンは、基準(1)から(3)を再帰的に維持します

帰納法により、理論は、脳の進化の潜在的な速度を大幅に超える可能性のある知能増加の潜在的な速度で一連のイベントが生成されることを予測します。

この自己改善のエンティティまたは人工物の人口が人間の生命と自由を維持するためにどのように義務付けられるかは不確定です。そのような義務が取消不能なソフトウェア契約の一部になり得るという考えは、上記の基準(1)から(4)に結び付けられた機能の性質に照らして、単純です。他の強力なテクノロジーと同様に、リスクは潜在的なメリットと同じくらい多く、広範囲に及びます。

人類に対するリスクは知性を必要としません。特異性という用語の使用には他のコンテキストもありますが、これらはこのAIフォーラムの範囲外ですが、明確にするために簡単に言及する価値があります。遺伝子工学、核工学、グローバル化、および地球で発生した数千倍の速度で消費される有限のエネルギー源に基づく国際経済の基盤—これらは、リスクと利益をもたらす高リスク技術と大衆動向の他の例です人類に。

AIに戻ると、特異性理論の主な注意点は、確率を組み込むことができないことです。上記の基準(1)から(4)に適合するエンティティを開発することは可能かもしれませんが、地球上で話されているすべての現在の言語が死んでからずっと後に最初のイベントが発生するほどにはありえないかもしれません。

確率分布のもう一方の極値では、最初のイベントが既に発生した確率がゼロ以外であると簡単に主張できます。

それらの線に沿って、インターネット上にすでに存在するよりスマートな存在であれば、より低い人間に自分自身を明らかにすることが最善の利益となる可能性はどれほどありますか?うじ虫を紹介しますか?


説明してくれてありがとう。これらの条件が実際にどのように見えるか、概念的には把握できないことを認めなければなりません。特に1)。おそらく、アルゴリズムは多かれ少なかれ定義された入力と出力のセットで実装されます。1)が真になるようにこれらのセットを変更すると仮定する必要がありますか?なぜ人間の開発者は、少なくとも制御されない方法で、AGIレベルよりもずっと前にそれを許可することを選択するのでしょうか?そして...それは素朴な質問ですか?:)
Cpt Reynolds

0

狭義に見られる「特異点」とは、経済成長が非常に速いため、そのポイントを過ぎた将来がどのように見えるかについて有用な予測を立てることができないポイントを指します。

「インテリジェント爆発」と呼ばれることがよくあります。これはいわゆるストロングAIと呼ばれるもので、これは自分自身を理解して改善するのに十分なインテリジェントなAIです。インテリジェンスの爆発はすぐに経済的特異点につながると期待するのは理にかなっているようですが、その逆は必ずしも真実ではありません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.