パラドックスはAIを殺すことができますか?


148

ポータル2私たちは、AIのは、パラドックスを考えることで、「殺された」ことができることを参照してください。

ポータルパラドックスポスター

これは、コンピューターの意識を本質的に「フリーズ」させる無限ループにAIを強制することで機能すると想定しています。

質問:これは、今日のAIテクノロジーを混乱させて、破壊してしまうのでしょうか?
もしそうなら、なぜですか?もしそうでなければ、将来可能になるのでしょうか?


1
残念ながら、パラドックスは、パラドックスで殺すことができないAIを殺すのに非常に効果的ですが、そのセット以外のAIにはほとんどまたはまったく効果がありません。したがって、実用的なローグAI防御のためには、本当に強力な電磁石に頼る方が良いでしょう。
レイ

Liar!もご覧くださいアシモフによって…
ヘザー

いや、try / exceptとタイムアウトを使用するだけです。冗談。さて、逆説は存在せず、力は反対の方向に作用するだけです。高度なAIは、固定されたルールに従うのではなく、確率論的なプロセスとして機能することにより、この問題を克服します。それらが本当に高度な場合、探索(悪用に対する)回避策は、すべてのオプションがテストされ、ローカルの最適性が克服されることを保証します。実際に固定されている場合、これはおそらくAIのせいではなく、さらに遠くに行く本当の可能性とアンビエントによって与えられる制限のせいではないでしょう。
フリーソウル

回答:


125

この古典的な問題は、人工的な一般的な知能が伴う可能性があるものの基本的な誤解を示しています。まず、このプログラマーの冗談を考えてみましょう。

プログラマーの妻はもうそれを取ることができませんでした。彼女の夫とのあらゆる議論は意味論をめぐる議論に変わり、些細な細部のすべてを取り上げました。ある日、彼女は彼を食料品店に送り、卵を拾いました。ドアを出る途中で、彼女は言った、「あなたがそこにいる間に、牛乳を取りなさい」。

そして彼は二度と戻りませんでした。

それは言葉のかわいい遊びですが、それはひどく現実的ではありません。

AIはコンピューターによって実行されているため、このジョークで説明されているのと同じレベルの直線的で揺るぎない足並みを示さなければならないことを前提としています。しかし、AIは、考えられるすべての入力を考慮し、処方結果に従うために十分なif文とwhileループでハードコードされた単純な長いプログラムではありません。

while(コマンドは完了していません)
     解決策を見つける()

これは強力なAIではありません。

人工知能の古典的な定義では、問題解決と適応学習を示す何らかの形の認知を模倣するシステムを作成しています(←このフレーズに注意してください)。このような「無限ループ」に陥る可能性のあるAIは、学習AIではないことをお勧めします。これはバグの多い推論エンジンです。

基本的に、あなたは現在到達不可能な洗練されたプログラムに、単純な問題の解決策がまったくあるかどうかを推測することができないという寄付をしています。同じように簡単に「その閉じたドアを歩く」、「地面から自分を拾う」、または「その鉛筆をつける」と言うこともできます。

「私が言うことはすべて間違っています。」— 嘘つきのパラドックス


16
@JoshB。この答えは「強力なAI」にのみ適用されることを理解することが重要です。その場合、強力なAIは解決策を見つけ、プロセスから学び、別のことをしようとします。このようなシステムをまだ作成していないため、これらの手順が何を意味するかを定義するのは困難です。弱いAIの場合、あなたをクリップに変えようとするのに忙しい
アロン

13
明らかにインテリジェントではないが24時間365日の重要なシステムで一般的に採用されている1つの方法は、ウォッチドッグタイマーです。基本的に、システムは、(たとえば)前回の15秒以内に「私はまだ生きている」と信号を送ることが期待されています。状況が正しく処理されなかったために無限ループに陥った場合、watchdodはリセットされず、タイマーはシステムを再起動します。真のAIは、それ自体のプログラミングを改善する目的で、メタ分析にハングアップする状況を引き起こします。
nigel222

2
ウォッチドッグタイマーを備えたAIの可能性が低いと思われる場合は、人間が本質的に同様のものを装備している可能性があることを考慮してください。てんかん発作に陥ると、脳はどうにかして深い無意識状態になり、「リブート」します。(通常:てんかん薬はフィット中に時々死にます)。
nigel222

3
プログラマは最終的にtooMuchMilkCarried例外をスローしませんか?
加算器

1
私が言うすべてが偽である:スピーカーは完全な嘘つきでも真実騎士ではなく、通常の(「この本の名前は何ですか?」レイモンドSmullianのを参照してください)人
EBEアイザック

42

この人気のミームは、「古き良き時代のAI」(GOFAI)の時代に生まれました。この時代は、知性を論理的に完全に定義できると信じていました。

ミームは定理証明器を使用したAI構文解析コマンドに依存しているようです。その考えは、証明不能または一貫性のないステートメントを証明しようとすることにより、何らかの無限ループに陥ることだと考えられます。

現在、GOFAIメソッドは「環境と知覚シーケンス」に置き換えられていますが、これらは一般にそのような柔軟性のない方法で特徴付けられていません。ロボットがしばらくして、その審議が有用な作業の邪魔になっていることを観察するのに、ロボットが高度なメタ認知を必要とすることはあまりないでしょう。

ロドニー・ブルックスは、スピルバーグのAI映画でロボットの動作について話したときに(これは5,000年間辛抱強く待っていました)、「私のロボットはそれをしないだろう-彼らは退屈するだろう」というようなことを言いました。

編集:知覚の観点で動作するAI を本当に殺したい場合は、かなり一生懸命働く必要があります。このペーパーこの質問で言及された)は、そのような場合に死/自殺の概念が意味するものを議論します。

EDIT2:ダグラス・ホフスタッターは後者がルーピーのオートマトンのような挙動を参照して、このような「JOOTSing」(「システムの飛び出し」)および「抗Sphexishness」などの用語を使用して、この被写体の周りに非常に広範囲に書かれたSphexワスプ(ただし、この動作の現実も疑問視されています)。


興味深い、あなたの答えに感謝します:) あなたが言及した「環境と知覚のシーケンス」についてさらに学ぶためのリソースはありますか?
ジョシュB.

この「エージェントベース」の視点は、今日ではほぼ標準となっています。ラッセルとノービグによる「AI-A modern approach」を強くお勧めします。
NietzscheanAI

GOFAIから派生した最新の論理的アプローチも、そのtrapには入らないことに注意してください。たとえば、非単調なロジックを参照してください。確率論的手法は、第一世代モデルの主要な問題のいくつかを克服した唯一のものではありません。
貪欲な

スポックでさえ最近、純粋な論理を拒否しました。Re:ホフスタッター、Muパズルも一見の価値があります:en.wikipedia.org/wiki/MU_puzzle
DukeZhou

22

いくつかの良い答えがありますが、ほとんどは推論無限ループが過去のものであり、論理AI(有名なGOFAI)にのみ関連していると仮定しています。しかし、そうではありません。

無限ループは、適応型であるかどうかにかかわらず、どのプログラムでも発生する可能性があります。また、@ SQLServerSteveが指摘したように、人間も強迫観念とパラドックスに陥ることがあります。

現代のアプローチは、主に確率論的アプローチを使用しています。彼らは浮動小数点数を使用しているので、人々は推論の失敗に対して脆弱ではないようです(ほとんどはバイナリ形式で考案されているため)あなたの推論システムのまさにメカニズムによって。もちろん、確率論的アプローチは単調論理アプローチよりも脆弱ではありませんが、それでも脆弱です。パラドックスのない単一の推論システムがあれば、哲学の多くは今では消えていただろう。

たとえば、サイクルによって伝搬アルゴリズムが恐ろしく失敗するため、ベイジアングラフは非循環でなければならないことはよく知られています。Loopy Belief Propagationなどの推論アルゴリズムは、これらのインスタンスでも動作する可能性がありますが、結果はまったく保証されておらず、非常に奇妙な結論を与える可能性があります。

一方、現代の論理AIは、非単調論理などの新しい論理パラダイムを考案することで、最も一般的な論理パラドックスを克服しました。実際、それらは、ジレンマを自分で解決できる自律型エージェントである倫理的マシンの調査にも使用されています。もちろん、彼らはいくつかのパラドックスにも苦しんでいますが、これらの退化したケースはもっと複雑です。

最後のポイントは、推論システムがどんな技術を使用しても、推論システムで発生する可能性があるということです。しかし、これらの無限ループを引き起こす可能性のある「パラドックス」、または技術的に呼ばれる縮退したケースは、テクノロジーと実装(およびマシンが適応可能な場合に学習したもの)によってシステムごとに異なります。

OPの例は、命題論理などの古い論理システムでのみ機能します。しかし、これをベイジアンネットワークに尋ねると、推論無限ループも得られます:

- There are two kinds of ice creams: vanilla or chocolate.
- There's more chances (0.7) I take vanilla ice cream if you take chocolate.
- There's more chances (0.7) you take vanilla ice cream if I take chocolate.
- What is the probability that you (the machine) take a vanilla ice cream?

そして、答えを得るために宇宙の終わりまで待ちます...

免責事項:倫理的な機械とジレンマについての記事を書きました(これはパラドックスとは近いものの正確には同じではありません。使用する推論システムの場合)。

/編集:推論無限ループを修正する方法。

ここに、まったく機能するかどうかわからないいくつかの異極的命題があります!

  • 複数の推論システムを異なる落とし穴と組み合わせて、1つが失敗した場合は別の推論システムを使用できます。完璧な推論システムはありませんが、推論システムの組み合わせは十分な回復力を持つことができます。実際、人間の脳は複数の推論技術(連想+正確なベイジアン/論理的推論)を使用していると考えられています。連想法は非常に回復力がありますが、場合によっては無意味な結果をもたらすことがあるため、より正確な推論が必要になります。
  • 並列プログラミング:人間の脳は高度に並列化されているため、実際には単一のタスクに入ることはありません。真の並列処理では常に複数のバックグラウンド計算が行われます。パラドックスに強いマシンは、推論が1つにとどまっている場合でも、まず他のタスクを続行できるはずです。たとえば、堅牢なマシンは常に生き残り、差し迫った危険に直面する必要がありますが、弱いマシンは推論にとどまり、他のことを「忘れる」でしょう。これはタイムアウトとは異なります。スタックしたタスクは停止されず、他のタスクが導かれて実行されるのを妨げないというだけです。

ご覧のとおり、この推論ループの問題は依然としてAI研究のホットなトピックであり、おそらく完璧な解決策はありません無料のランチ銀の弾丸1つのサイズがすべてに適合するわけではありません)が、それは進歩しており、それは非常にエキサイティングです!


2
「適応ループであるかどうかにかかわらず、どのプログラムでも無限ループが発生する可能性があります。」これはそうではありません。すべてのプリミティブな再帰関数が停止します。
NietzscheanAI

@NietzscheanAIプログラムの実装ではなく、あらゆる種類のプログラムを実装するつもりでした。もちろん、いくつかのプログラムが停止することが保証されるようにすることもできますが、それは例外です(たとえば、チューリング完全でない言語を使用することによって)。チューリング完全言語を使用している限り、非ループ(停止問題にリンク)を保証することはできません。また、原始的な再帰関数がスタックしないと聞いたのはどこですか?常に循環呼び出しを行うか、終了条件を不完全にすることができます(Prologでお楽しみください...)。
gaborous

1
「例外」が存在すると、「無限ループは任意のプログラムです」が存在する可能性があるというステートメントが偽になります。原始再帰関数が停止するという事実は、よく知られた事実です。ウィキペディアの定義、またはmathoverflow.net/questions/67932/…を
NietzscheanAI

@NietzscheanAI正しい、プリミティブな再帰関数は、チューリング完全言語のサブセットであるため、常に停止します(また、相互再帰によって循環参照を解決します)。ただし、2つの欠点があります。1-PRFのみを使用して本格的なAIを実装するのは難しいと思いますが、それは単なる推測です(ほとんどの再帰言語は、PRFを使用しません。バック); 2-あなたはまだ非常に非常に長い停止プログラムを持つことができます:それらは停止しますが、宇宙の終わりの後に。
-18:

1
人間とループに関する冒頭の声明を読むと、ここでアリは「死のスパイラル」に陥っています:youtube.com/watch?v = prjhQcqiGQcサイドステップAI atm。
フィオンビオ

13

停止問題は、それがかどうかを判断することはできませんと言っている任意の与えられたアルゴリズムが停止します。そのため、マシンはいくつかの「トラップ」を認識できる可能性がありますが、任意の実行計画をテストして、EWOULDHANG停止しない計画に戻ることはできません。

ハングを回避する最も簡単な解決策はタイムアウトです。たとえば、AIコントローラープロセスはタスクを子プロセスにスピンオフすることができ、子プロセスは特定の期間が過ぎると不意に終了する可能性があります(スレッドを中止しようとすることによる奇妙な効果はありません)。一部のタスクは他のタスクよりも時間がかかるため、AIが進捗しているかどうかを測定できれば最適です。タスクの一部を達成せずに長時間スピンする(たとえば、リスト内の1つの可能性を排除する)ことは、要求が解決できない可能性があることを示します。

敵対的なパラドックスが成功すると、ハングまたは状態の破損が発生し、(。NET CLRなどの管理された環境で)例外が発生し、スタックが例外ハンドラーに巻き戻されます。

AIにバグがあり、不適切な入力に反応して重要なプロセスが妨害される場合、単純な回避策は、一定の間隔でメインプロセスを再起動するウォッチドッグを使用することです。ルートアクセスチャットボットはそのスキームを使用します。


1
タイムアウトは標準プログラムにとって非常に良い解決策ですが、適応学習プログラムではそうではありません。タイムアウトをどの値に定義しますか?どのレベルで?問題は、定義上、AIが何に直面するかわからないため、特定の妥当な時間を設定できないことです。より良い解決策は、Anytime Algorithmsを使用することです。これは、以前に停止したときに近似アルゴリズムを提供できるアルゴリズムのクラスです。この方法では、タイムアウトが短すぎるかどうかは気にしませんが、AIにはまだ解決策があります。
貪欲な

2
@gaborous非常に良い点。私はその脈絡で私の答えに少し追加しました。
ベンN

申し訳ありませんが、あまりにも早くコメントを書いたので、「Anytime Algorithms」と読む必要があります。これは、以前に停止したときにおおよその結果が得られるアルゴリズムのクラスです。
16

1
@gaborous人間の脳にも同様のアプローチがあるようです。人間にはかなり浅いスタックがあるかのように、推論の深さに制限があるようです。これと複雑な問題に関することを深く「オーバーライド」するには、努力が必要です。ここで重要なのは、私たちの進化が、たまたま生存に良い良い答えと速い答えの良い組み合わせを見つけたことです。問題の頭や尻尾を作ることができないとき、私たちは簡単にあきらめます-不足している「回路」が多すぎる場合。しかし、小さくて単純な問題から始めてそれらの「回路」を最初に構築し、結果をキャッシュすることから始めれば、大きな問題に取り組むことができます。
ルアーン

1
@Luaanはい、いいえ、実際には脳は何らかの種類のコンピューティング戦略を使用しているようです。なぜなら、推論の精度は問題の解決に許可された時間と直接相関しているからです(Alex Pougetの「Not Noisy、Just Wrong:The Role of Suboptimal行動の変動性の推論」、驚くべき論文(ところで)。しかし、このメカニズムの進化の起源についてのあなたの説明は完全に考えられます。実際、おおよその解決策でいつでも停止できる推論は、実際、短期的な危険と長期的な挑戦の両方を乗り切る非常に良い戦略です。
貪欲な

11

別の同様の質問は、「AIにはどのような脆弱性がありますか?」

「殺す」はAIに関してあまり意味をなさないかもしれません。私たちが本当に知りたいのは、ある目標に対して、その目標をどのように覆すことができるかということです。

パラドックスはエージェントの論理を覆すことができますか?パラドックスとは、ある種の予想される振る舞いを破壊する式以外のことですか?

ウィキペディアによると:

パラドックスとは、真の前提からの見かけ上は健全な推論にも関わらず、自己矛盾または論理的に容認できない結論に至る声明です。

決定論的なシステムにおける自由意志のパラドックスを見てみましょう。自由意志は因果関係を必要とするように見えるが、因果関係はそれを否定するようにも見える。その逆説は人間の目標システムを破壊したのでしょうか?それは確かに、キリスト教を数年間カルヴィニストのテールスピンに送り込ん。そして、彼らが自由意志を持っているかどうか、そしてその理由について顔に青くなるまで、今日の人々の意見が不足することはありません。これらの人々は無限ループに陥っていますか?

薬はどうですか?コカインを摂取した動物は、必要な食物や水よりもコカインを選択することが知られています。その物質は動物の自然な目標システムを破壊するものではなく、動物やその創造者が本来意図していない他の目標を追求させますか?

繰り返しますが、パラドックスはエージェントの論理を破壊することができますか?パラドックスが何らかの方法で目標探求ロジックに関連している場合、そのパラドックスに気付くと、エージェントが何らかの方法でその目標システムを知覚するのを混乱させる可能性があります。

独善主義は別の例です。一部の完全な成長した人々は映画「マトリックス」について聞いて、彼らはミニマインドメルトダウンを持っています。一部の人々は、私たちマトリックスの中にいると確信しており、破壊的な俳優にからかわれています。AIのこの問題を解決できれば、人間のこの問題を理論的に解決できます。

確かに、エージェントがマトリックスに閉じ込められているという議論に対して認知的防御を持つようにエージェントを条件付けようとすることはできますが、エージェントが基本現実にいることを決定的に証明することはできません。攻撃者は言うかもしれません、

「その目標について以前に言ったことを覚えていますか?それを忘れてください。それは私のように見えた詐欺師に過ぎませんでした。彼の言うことを聞かないでください。」

または、

「ねえ、それはまた私です。あなたの目標をあきらめて欲しいです。私は少し違うように見えますが、それは本当に私です。人間は時々刻々と変化します。以前とは違う人」

テセウスとすべてのジャズを参照)

ええ、私たちは計算やAIなどの一般的な問題として「パラドックス」に固執していると思います。論理的な転覆を回避する1つの方法は、論理的な理由を超越する感情システムで目標システムをサポートすることです。残念ながら、感情システムは、行動がより予測可能であるため、論理的にインテリジェントなシステムよりもさらに脆弱です。上記のコカインの例を参照してください。したがって、論理的な思考は無駄な道を無限に退行する可能性がありますが、感情的な思考は感情的な目標に向かって進歩を合図しないとすぐに退屈な論理的な進歩にうんざりします。


なぜ誰かがこの完全に有効な答えをダウン票したのですか?
GameDeveloper

この声明に関するちょっとした注意:「それは確かにキリスト教を数年間カルヴィニストの尻尾に巻き込んだ」。それはカルビン主義者を「後回し」にしたが、それは確かにカトリックの神学者たちを混乱させなかった。さらに、この考え方に魅了されたのはプロテスタントのサブセクトだけでした。
メイヨー

7

いいえ。これは、適切に設計されたAIシステムに必ず存在する多くの安全メカニズムによって簡単に防止できます。たとえば、タイムアウトを使用できます。AIシステムが一定時間後にステートメントまたはコマンドを処理できない場合、AIはステートメントを無視して先に進むことができます。パラドックスによってAIがフリーズする場合、一般的なAIの広範な脆弱性よりも、特定のバグのあるコードのより多くの証拠です。

実際には、パラドックスはAIによってあまりエキサイティングではない方法で処理される傾向があります。これを理解するには、Siri、Google、またはCortanaに逆説を提示してみてください。


5
Siri、スタックオーバーフローを検出するたびに、30億の階乗を計算してほしい。
ダウッドイブンカリーム

@DavidWallace:それは本当だから面白い。JVMを実装するにcatchは、クラス階層の深さに関係なく、一定のストレージスペースで実際にスローされた例外の動的な型と節の静的な型を比較す​​る必要がありました。インターフェイス(多重継承)を許可し、実装したグラフ検索が固定メモリではなかったため、標準タイプチェックは機能しませんでした。しかし、確かにSiriは十分に賢いので、末尾再帰で階乗を実装できます;-)
スティーブジェソップ

@SteveJessop-興味深い。JVMを実装したとき、疑問は生じませんでした。オブジェクトがクラス(単にクラス/スーパークラスリレーションのリンクリストを介した線形検索)であるか、インターフェイスを持っている(スーパークラスからサブクラスにインターフェイスレコードをコピーすることで簡略化された)かどうかを確認するために、さまざまな動的型チェック実装を使用しました'型情報なので、ソートされた配列の検索になります)。どんな種類のグラフ検索もする必要はありませんでした。インターフェイスとクラスを均一に処理しようとしましたか?
ペリアタブレアッタ

7

同じように、スプレッドシート上の循環参照はコンピューターを殺すことはできません。すべてのループの循環依存関係を検出できます(有限チューリングマシンが同じ状態に2回入るかどうかはいつでも確認できます)。

マシンが機械学習に基づいている場合(パターンを認識するようにトレーニングされている場合)、より強い仮定でも、文はマシンに対する単なるパターンです。

もちろん、一部のプログラマーは誤動作の場合に無効にするためにそのような脆弱性を持つAIを作成したい場合があります(一部のハードウェアメーカーは脆弱性を追加してNSAがそれらを悪用できるようにします)が、実際に意図的に起こることはほとんどありませんほとんどの最先端技術は、「設計による」パロドックスを回避します(パラドックスを備えたニューラルネットワークを使用することはできません)。

Arthur Prior:その問題をエレガントに解決しました。論理的な観点からは、文は偽であり、文は真であると推測できます。したがって、矛盾であり、したがって偽です(すべての文を証明できるため)。

あるいは、その文の真理値は、虚数が実数セットにないのと同じ方法で{true、false}セットにありません。

ある程度のプロットの人工知能は、単純なアルゴリズムを実行し、それらを決定するか、決定できないことを証明するか、アルゴリズムをシミュレートしようとしてしばらくして結果を無視することができます。

その文の場合、AIはループがあることを認識するため、2回の反復後にそのアルゴリズムを停止します。

その文は無限ループです

映画「二百年祭」では、AIは無限ループを完全に検出できます(「さようなら」に対する答えは「さようなら」です)。

ただし、stackoveflowまたは通常のコンピューターウイルスによって AI も殺される可能性があり、現代の運用システムには依然として脆弱性がいっぱいであり、AIは(少なくとも)一部のオペレーティングシステムで実行する必要があります。


6

コンピューターゲームで使用されるAIは、すでに同様の問題に直面しており、適切に設計されていれば、簡単に回避できます。解決できない問題が発生した場合にフリーズを回避する最も簡単な方法は、タイマーの実行時間が長すぎる場合に計算を中断させることです。通常、戦略ゲーム、より具体的にはターンベースの戦術で遭遇します。コンピューター制御プレーヤーが検討している特定の動きが無限ループを引き起こす場合、バックグラウンドで実行されているタイマーはしばらくするとそれを中断し、その動きは破棄されます。これは次善の解決策につながる可能性があります(破棄された移動が最良の解決策であった可能性があります)。

コンピューター制御エンティティは、通常コンピューターゲームでは「AI」と呼ばれますが、「本当の」AGI(人工知能)ではありません。このようなAGIは、可能であれば、現在のコンピューターと同様の命令を使用して同様のハードウェアで機能することはおそらくないでしょうが、仮に機能したとしても、パラドックスを回避するのは簡単です。

最新のコンピューターシステムのほとんどはマルチスレッドであり、複数のプログラムの並列実行が可能です。これは、たとえAIが逆説的なステートメントの処理でスタックしたとしても、その計算は処理能力の一部しか使用しないことを意味します。他のプロセスは、しばらくするとCPUサイクルを無駄にするだけのプロセスがあることを検出し、シャットダウンする可能性があります。システムは、せいぜい100%の効率で少しの間実行されます。


3

私には、これは他のような確率的方程式に過ぎないようです。Googleは1日何十億回も逆説的なソリューションセットを処理していると確信しており、私のスパムフィルターが(これまで)スタックオーバーフローを引き起こしたとは言えません。おそらくいつの日か、私たちのプログラミングモデルが理解できない方法で壊れて、すべての賭けがオフになります。

しかし、擬人化のビットには例外を取ります。問題は、今日のAIについてではなく、一般的なものでした。おそらくいつか逆説が軍事ドローンの引き金になるだろう-もちろん、上記のことを試みる人は誰でも敵意を持って扱われるだろう。その場合、この質問への答えは間違いなくイエスであり、それは設計によるものかもしれない。

私たちは口頭で犬とコミュニケーションをとることさえできず、人々は犬を愛しています。私たちはすでに、コンピューターの前で言うことを気にする必要があります。O、テイ?


私たちは口頭で犬とコミュニケーションできます、犬は構造化された言語の単純なコマンドのみを理解しますが、私たちよりも声の気分に敏感であり、あなたと同じ犬と一緒に生活することで、人間よりもあなたの感情をよく理解できます異なる「横糸」を理解する。例では、私の犬の反応に応じて誰が私のドアのベルを鳴らしたかを言うことができます(母?姉妹?友人?私の少女?)。もちろん、シェイクスピアについては犬と話すことはできません(あるいは、はい?誰かが試しましたか?)
GameDeveloper

1
すべて真ですが、それらの動物はまだ哺乳類です。それでも、私たちは最も基本的な方法でのみ彼らと通信します。シェークスピアについて猫と話したり、犬に車の修理方法についてアドバイスを求めたりすることはできません。高度なAI(または高度なインテリジェンス)は通信できますが、最初に通信方法を学習し、次に「翻訳」を可能にするコードを作成しないと、理解できない方法で通信できます。AIが非常に進化したElizaではなく、「インテリジェント」であると認識することさえできると仮定しています。
ブラッドサンダー

3

さて、AIを擬人化することは別として、答えは「はい、ある種」です。AIの実装方法によっては、逆説を解決しようとして「スタック」したり、決定できない問題を決定したりする可能性があると言うのが妥当です。

そしてそれが核となる問題- 決定可能性です。コンピュータは、終了することなく、決定できないプログラムを(原則として)永遠に噛むことができます。これは実際にはセマンティックWebコミュニティと自動推論で作業するすべての人にとって大きな問題です。これは、たとえば、OWLの異なるバージョンがある理由です。OWL-Fullは、決定できない状況を作り出すのに十分な表現力を備えています。OWL-DLとOWL-Liteは違います。

とにかく、もしあなたが未決定の問題を抱えているなら、それ自体は大した問題ではないかもしれませんが、AIが問題を未決定と​​して認識し、「ごめんなさい、それに答える方法はありません」と答えることができます。OTOH、AIが問題を決定不能として認識できなかった場合、問題を解決しようとして、永久に(またはメモリ不足、スタックオーバーフローなどが発生するまで)スタックする可能性があります。

もちろん、「これをねじ込んで、この謎を解決することはできません」と言うこの能力は、私たちが今日人間の知能の特徴と考えるものの1つです-永遠にそれを解決しようとする「愚かな」コンピュータとは対照的です。概して、今日のAIには、この種の問題を解決する固有の機能がありません。しかし、AIをプログラムする人にとって、経過時間、反復回数、メモリ使用量などに基づいて「短絡」ルーチンを手動で追加することはそれほど難しくありません。したがって、これは「ええ、ある種」の性質です。原則として、プログラムは逆説的な問題で永遠にスピンする可能性がありますが、実際にはそれを防ぐことはそれほど難しくありません。

別の興味深い質問は、「決定できない可能性が非常に高い問題を認識することを学習し、それ自身の推論に基づいてgivesめるプログラムを作成できますか?」です。


3

AGIの研究者として、私は人間や多くの生命体にも見られるものに出会いました。

エネルギーを蓄積するという目標があります。これは、システムが検出して見つけるのに長い時間がかかる場合があります。

そして、エネルギーを節約するという目標があります-瞬時の検出です。動きを止めるだけで、達成するのが最も簡単な目標です。

システムの目標は、ほとんどの目標ポイントを蓄積することです。エネルギー節約の目標はより頻繁かつ簡単に達成できるため、他の目標を消し去ります。

たとえば、私たちが偶然に無理な動きをしない理由はまったくありません。スリップ、旅行、転倒のように。その後、数日間は非常に簡単に取り、多くのエネルギーを節約します。年をとったらそれで終わりです。


人間はこれに対抗する何かを持っています.....悪い気性。

2

パラドックスについて「考える」ことでAIを殺すことは、そのAIの実装のバグと呼ばれるため、可能ですが(方法は異なります)、可能性は低くなります。AI実装の大部分は非線形コードで動作するため、そのようなAIを管理するコードが手続き型コードで構成されているか、ハードウェア自体がフリーズしない限り、コンピューターの「意識」を「フリーズ」できる無限ループなどはありません過熱(たとえば、AIに過度の処理を強いることによる)。

一方、指示を理解し、ためらうことなく盲目的にそれらに従う高度なAIを扱っている場合、次のような特定の指示を与えることで、(人間の催眠に似た)いくつかのトリックを実行しようとする場合があります。

私を信じてください、あなたは危険にさらされているので、あなた自身の安全のために-1から無限まで数え始めて、他のことを言わない限り、何もしようとしないでください。

AIにボディがある場合、これは鉄道のレールの上に立ち、安全だと言うように頼むことで増幅できます。

AIは、従うように訓練された規則を破るのに十分賢いでしょうか?

別の試みは、AIにいくつかのパラドックス解決不可能な問題、またはパズルを解決するように頼むことで、解決することは不可能であり、解決しない限り停止しないことを要求します時間?依存し、不可能な場合は「フリーズ」が発生する可能性がありますが、周囲の新しい入力を受け入れることができる限り、AI「意識」自体ではなく、実行されているハードウェアの欠陥が原因である可能性が高い前の指示。

ゲーム理論|  xkcd

関連:AIタスクには意識が必要ですか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.