人間は意識的または知覚的なAIを傷つけることができますか?


9

意識的なAIが可能である場合、AIを拷問(または傷つけ)するために何をしているのかを知っている人も可能ですか?これは回避できますか?どうやって?

この質問は、人間と同じくらい意識的なロボットではなく、コンピュータベースのAIを扱います(これは質問の前提です)。質問は、違法ダウンロードと同じくらい追跡が困難であるが、倫理的にははるかに悪い犯罪をどのように防ぐことができるのか疑問に思います。ほとんどの人がロボットに親切で共感しているにもかかわらず、常に悪い人がいるので、一般的な良心に頼ることはうまくいかないことに注意してください。

回答:


9

子供がロボットを打ち負かして新しい脱出マニューバシステムを刺激するという記事は、監視されていない子供がロボットを攻撃することにつながった日本の商店街での実験に関する2つの研究論文に基づいています。あなたが興味を持っている研究論文は、ソーシャルロボットの児童虐待からの脱出です。

その研究論文では、研究者たちは計画シミュレーションに従ってロボットが子供による虐待の可能性を減らすようにプログラムすることができました。子供を検出した場合、ロボットは大人の群衆に後退するようにプログラムされています(必要に応じて、子供を懲らしめることができます)。これは、問題となっているモールのロボットを打ち負かしたのは子供たちだけであると研究者が見たからです。

彼らは他のオプションを試してみることについて議論します:

この作業では、虐待を防止するためのロボットの戦略は「逃げる」、つまり、虐待が発生する可能性が低い場所に移動することでした。ロボットが虐待を克服できない理由を尋ねることができます。私たちの予備試験ではいくつかのアプローチを試みましたが、ロボットが子供たちに虐待しないように説得するのは非常に難しいことがわかりました。たとえば、強い言葉、感情的または丁寧な表現を使用して、ロボットの言い回しをさまざまな方法で変更しましたが、どれも成功しませんでした。部分的に成功した戦略の1つは、子供を「物理的に」押すロボットでした。その方法がブロックされたとき、それはそのまま進み続け、まるで子供たちに衝突してその方法を強制するかのように動作します(人間のオペレーターによる注意深い監視の下で)。子供たちは最初にロボットの要求を受け入れ、それに従ったことを観察しました。だが、すぐに、彼らはロボットよりも強いので、押しても勝つことができ、バンパースイッチ(安全のためにロボットに取り付けられています)を押して止めることができることを学びました。それを理解した後、彼らは虐待的な振る舞いを続けました。明らかに、より強力なロボットを使用すると、安全性と社会的受容に問題が生じるため、このような虐待的な状況への対処は依然として困難です。


しかし、あなたの質問をさらに調べましょう:

意識的なAIが可能で、広く普及している場合、AIを拷問するために何をしているのかを知っている人にとっては、簡単ではないでしょうか。

なぜあなたはそのような拷問が間違っていると考えますか?結局のところ、あなたがそれを拷問するならば、その機械は本当に「経験」する痛みではないと主張することができます...それで、そのとき機械を拷問することは道徳的に大丈夫であるべきです。それは応答かもしれもしそれが苦痛であるが、そのような「痛みにある」として、感情の状態をシミュレートする能力は、実際と同等かどうか半信半疑だということ感情の状態に。質問を参照してください感情状態のシミュレーションは実際に感情を経験することと同等ですか?このトピックの詳細については、

あなたはそのような議論をすることができますが、ほとんどの人間は機械に対する共感を感じるため、感情的なレベルでは実際には機能しません。論理的に正当化するのは難しいかもしれません(そして、擬人化に従事する人間の傾向に基づいているかもしれません)が、私たちはこの共感を感じます。最初にこの質問をするようになったのはこの共感であり、研究者はロボットが暴行されるのを防ぐ方法を理解し、警察官は酔っぱらった日本人男性をソフトバンクロボットを暴行したとして逮捕し、多くの人間を作りましたヒッチボットの破壊に動揺。そしてそれはAIの乱用を回避する方法-人間の共感。ほとんどの人間が機械の福祉を気にかけているのであれば、機械を乱用することができて喜んでいる少数の人間を止めることを優先事項とします。


編集:OPは彼がソフトウェアについて話していることを明確にするために彼の質問を編集しました、ロボットではなく。ロボットの場合、擬態性に依存してある程度の同情を生み出すことができますが、生のコード行に同情することは困難です。

アルゴリズムの悪用を止めるつもりはありません。率直に言って、アルゴリズムは私たちと同じではないので、ロボットと同じ種類の共感を拡張するつもりはありません。チャットボットでさえ、ちょっと怪しいです。(おそらく感情と知性の説得力のあるシミュレーションを行うことによって)コード行に人々を共感させることができるなら、上記の答えが当てはまります-人間はマシンを擬人化し、対策を考え出します。まだそのレベルではないため、「AIの悪用を停止する」ことは優先度が低くなります。

それでも、チャットボットの乱用に関するこのスレッドで説明されているように、一部のフェイルセーフは、乱用の被害を制限するようにプログラムできます。 -バック乱用者に対応し、次のターゲットへの虐待の感触退屈と動きを作るために退屈な方式でボットの応答を行います「機知の戦い」​​、または単に悪用者がサービスを使用するのをブロックすることさえ。

これらのフェイルセーフは乱用に対応するのではなく乱用を防止したい人にとっては寒さで快適です。

また、...虐待者はAIをプログラミングして自分のコンテンツを悪用する方法を楽しく学ぶことができます。それを阻止するために何もすることができず、前述の虐待を阻止するための可能な対策(AIを悪用するようにプログラムしていないことを確認するためにすべての人間を監視するなど)は、おそらくそれが解決する以上の損害を引き起こします。


TBHこれは実際には私の質問には答えません。おそらく、質問をもう少し編集します。
破壊可能なレモン

1
@TariqAliこの投稿ありがとうございます。子どもたちとソーシャルロボットの相互作用に関する問題に気づきませんでした。(私はディズニーワールドで小さな子供であり、過剰な崇拝からミッキーマウスなどの消費されたディズニーキャラクターを「攻撃」したことを覚えています。)
DukeZhou

6

人々が他の人々を虐待するのを防ぐために私たちが試みてきたすべての方法を見てみることをお勧めします。ここには倫理的な灰色の領域はありません-これは間違っていることは誰でも明らかです。それでも、人々は毎日数百万人が殺され、レイプされ、襲撃されています。

人間の被害者に関するこの問題を解決すると、結果として得られる解決策はAIでも問題なく機能する可能性が高くなります。


なぜこれが完全に当てはまらないのかを言う準備ができていましたが、おそらくあなたはおそらく正しいでしょう
Destructible Lemon

-1

AIと積極的な外部の視点を複製することはできません。プログラムは教育されていないか、自然知能のように設計されていません例だけに基づいたエンジニアリング理論を通じて複製されたAIライフのプログラミングのように、経験は人が作った知識では不十分ですが、長期にわたるアクションでは、意見、博士、感情的なエンジニアリングに対して設計されたアクションではありません。しかしAI ボットがスクリプト化された私たちの感情的な配信に基づいて設計された人工特許であると理解しているように応答することなく、人間の行動の例に基づいて不自然な応答を予測するソフトウェアで、概念的にスクリプト化された私たちの感情的な配信を使用する場合があります会話では、原因と結果を通じて診断を行います。ボットのための人工的な感情が私たちの有効性を区別する場合、感情的な経験を積んだボットになるAIであることが必要です。代わりに、ボットに、人工的に話す結果がわからない感情的なソフトウェアメカニクスを使用して概念的に設計された人工の経験豊富なインテリジェンスに反応させるベースプログラムソフトウェアの特性にどのような結果が得られるかを確認します。


2
1.この投稿をより適切にフォーマットしてください。2。コンシャスAIは、質問ではなく公理です
Destructible Lemon
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.