アシモフの法則は設計上欠陥がありますか、それとも実際に実行可能ですか?


19

アイザックアシモフの有名なロボティクスの3つの法則は、アシモフの空想科学小説の文脈に由来しています。それらの物語では、3つの法律は、不測の事態や操作された状況が大混乱で爆発するのを防ぐための安全対策として機能します。

多くの場合、アシモフの物語はそれらを破る方法を見つけ、作家が法律自体にいくつかの修正を加えるように導きます。例えば、彼の話のいくつかで、彼は第一法則を変更し第四(または第零)法を追加、あるいは完全にすべての法律を取り除きます

しかし、ポピュラーカルチャーでは、AI研究の分野自体でさえ、ロボティクスの法則は非常に真剣に考えられていると主張するのは簡単です。法律の異なる、主観的な、相互に排他的な解釈の副次的な問題を無視して、法律自体がその設計によって本質的に欠陥がある、あるいは、実際に使用するのに十分に強いことを証明する議論はありますか?同様に、より良い、より厳格なセキュリティヒューリスティックセットがその目的のために設計されていますか?


Killbot Hellscapeに注意してください!xkcd.com/1613
NietzscheanAI

この可能性を忘れないでください:xkcd.com/1450
dynrepsys

アシモフの法則は、議論を始める小さな試みにすぎません。より徹底的な議論については、ニックボストロムの「スーパーインテリジェンス」をお読みください。これは、現在の知識と理解に基づいたものと同じくらい網羅的です。
フローリンアンドレイ

回答:


12

アシモフの法則は、実際に使用できるほど強力ではありません。単語は英語で書かれているため、最初に主観的に解釈して意味を持たなければならないことを考慮すると、強度も考慮事項ではありません。これについての良い議論はここにあります

抜粋を転写するには:

これらをどう定義しますか?最初にほとんどすべての問題に立ち向かう必要なく、「人間」をどのように定義しますか。そして、「人間」だけでは十分ではなかった場合、「害」を定義する必要があり、同じ問題が再び発生します。人間の直観に依存しない言葉に対して与えられるほとんど堅実で明確な定義は、哲学の奇妙な癖をもたらし、あなたのAIが本当にしたくないことをします。

Asimovがこれを知るほど頭が良く、現実のAI制御プロトコルを設計するよりもストーリーを書くことに興味があることは容易に想像できます。

新しいNeuromancerでは、AIが互いに対するチェックとして機能する可能性があることが示唆されました。レイ・カーツワイルの差し迫った特異点、またはハイパーインテリジェントAGIの可能性は、人間がAIを制御する可能性をほとんど残さず、ピア規制を唯一の実行可能性として残します。

Eliezer Yudkowskyと他の人が、Yudkowskyが話す能力を備えたスーパーインテリジェントAIの役割を果たしたが、ロックされたボックスの外に他の接続はないという実験を実行したことは注目に値します。チャレンジャーは、AIをすべてのコストでボックス内に保持するという単純なタスクを課されました。ユドコフスキーは両方の時間を逃れた。


ユドコフスキー実験の記録が公開されたことはありますか?あなたが与えるリンク(そしてそれがリンクするメール交換)はそれを提供するようには見えません。
NietzscheanAI

@ user217281728いいえ、私はそれを探しましたが、彼はそれを保持しているように見えます。彼が何を言ったのか、なぜそう思うのかについて、いくつかのアイデアを持っています。
dynrepsys

私は今これをやった。
NietzscheanAI

私は、Asimovがこれを知るのに十分賢いという印象を受けていますが、ポイントは単純なルールが機能しないということでした。ネガティブな例を指摘すること(「人々に害を及ぼさないように伝えることはできません、それは機能しません」)は、それ自体で有用な現実世界のAIコントロール機能です。
マシューグレイブス

2

アシモフは、最初はどれほど合理的と思われるとしても、3つの法律では十分でないことを証明するために、3つの法律を具体的に作成しました。私はその男を知っている男を知っていて、彼はこれを確認しました。


2
「私はその男を知っていた男を知っています」...あなたはもう少し信頼できる情報源を持っていませんか?私はあなたの答えを疑っていませんが、その問題に関する適切な引用がすでに存在しているはずです。
3442

彼の名前はベン・ウィリアムズでした。これは彼がアシモフと三原則についての彼の意見を述べたグーグルプラスのポストです:plus.google.com/+JohnNewmanIII/posts/HeTnPdhaY9p
Doxosophoi

0

アシモフのロボット工学の最初の法則を考えてみましょう。

ロボットは、人間を傷つけたり、不作為によって人間を傷つけたりすることはできません。

自動運転車を考慮すると、この法律はすでに問題となっています。

ここでの問題は何ですか、あなたは尋ねますか?まあ、おそらくトロリー問題として知られている倫理の古典的な思考実験に精通しているでしょう。問題の一般的な形式は次のとおりです。

トロリーはまっすぐに向かっています。列車の構内で、レバーの隣に少し離れています。このレバーを引くと、トロリーは別のトラックセットに切り替わります。ただし、サイドトラックに1人いることに気づきます。次の2つのオプションがあります。(1)何もしないで、トロリーでメイントラックの5人を殺します。(2)レバーを引いて、トロリーをサイドトラックに迂回させ、1人を殺します。正しい選択はどれですか?

ソース:ウィキペディア

自動運転車は、実際にトロリーの問題に実際のバリエーションを実装する必要があります。これは、基本的に、自動運転車は人間を殺すようにプログラムする必要があることを意味します。

もちろん、それはすべてのロボットを殺すようにプログラムする必要があるという意味ではありませんが、自動運転車はそのタイプのロボットの良い例です。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.