自動運転車は誰を殺すかについて倫理的な決定をどのように行うことができますか
すべきではありません。自動運転車は道徳的なエージェントではありません。車は予測可能な方法で故障します。馬は予測可能な方法で失敗します。
車は道路を横断する10人の群衆に向かっているため、時間内に停止することはできませんが、壁にぶつかって10人を殺す(乗客を殺す)ことは避けられます。
この場合、車はブレーキを強く押す必要があります。10人が死亡した場合、それは残念です。私たちは車の外で何が起こっているかについての私たちの信念のすべてを単純に信頼することはできません。これらの10人が本当に人のように見えるように作られたロボットであるとしたらどうでしょう。もし彼らがあなたを殺そうとしているとしたら?
車の乗客にとって生存の可能性が大きいことを考慮して、オートバイのライダーを殺さないようにすること、
繰り返しますが、これらの種類の感情を車両にハードコーディングすると、「偽の」オートバイ運転者を含むあらゆる種類の攻撃に対して車両のライダーが開かれます。人間は、もしあったとしても、これらの決定を自分で行うことはほとんどできません。疑わしいときは、ただブレーキを叩いてください。
人間を支持して路上で動物を殺し、
繰り返しますが、ただブレーキを踏んでください。もしそれが赤ちゃんだったら?それが爆弾だったら?
犬を殺さないように車線を変更して別の車に衝突する、
いや。犬は間違った時間に間違った場所にいました。他の車はそうではありませんでした。できるだけ安全にブレーキを叩いてください。
アルゴリズムは、人間と動物の違いを認識していますか?
人間ですか?常にではない。人間が銃を持っている場合はどうなりますか?動物の歯が大きい場合はどうなりますか?コンテキストはありませんか?
- 人間や動物の大きさは重要ですか?
- 乗客数と前の人の数をカウントしますか?
- 赤ちゃん/子供が乗船していることを「知っている」のですか?
- 年齢も考慮されますか(例えば、古い方を先に殺すなど)。
人間はこれらのことに同意することはできません。これらの状況のいずれかで警官に何をすべきかを尋ねると、答えは「左に曲がって、あなたの頭のすべての関係者の重量を量り、すべての関係者の間の関係する年齢を評価し、少し右に曲がって、そして、あなたは8%以上の命を救ったでしょう。」いいえ、警官は「できるだけ早く安全に車両を停止させるべきだった」と言うだけです。どうして?警官は、人々が通常高速衝突シナリオに対処する能力がないことを知っているからです。
「自動運転車」の目標は、「人間と同等の道徳的エージェント」であってはなりません。ゴキブリの反応性の複雑さを備えたエージェントである必要がありますが、予想どおりに失敗します。