13
自動運転車は誰を殺すかについて倫理的な決定をどのように行うことができますか
明らかに、自動運転車は完璧ではないので、Google車(例として)が困難な状況に陥ったと想像してください。 以下に、一連のイベントによって引き起こされる不幸な状況の例をいくつか示します。 車は道路を横断する10人の群衆に向かっているので、時間内に停止することはできませんが、壁にぶつかって10人を殺す(乗客を殺す)ことは避けられます。 車の乗客にとって生存の可能性が高いことを考慮して、オートバイのライダーを殺さないようにします。 人間を支持して路上で動物を殺し、 犬を殺さないように車線を変更して別の車に衝突する、 そして、いくつかのジレンマがあります。 アルゴリズムは、人間と動物の違いを認識していますか? 人間や動物の大きさは重要ですか? 乗客数と前の人の数をカウントしますか? 赤ちゃん/子供が乗船していることを「知っている」のですか? 年齢も考慮されますか(例えば、古い方を先に殺すなど)。 アルゴリズムは、技術的な観点から何をすべきかをどのように決定しますか?上記のことを知っている(殺す確率を数える)か、知らない(単に自分自身の破壊を避けるために人々を殺す)か? 関連記事: 自動運転車を殺すためにプログラムしなければならない理由 自動運転車が倫理的な決定を下せるようにする方法