人工知能はハッキングに対して脆弱ですか?
ちょっと質問を逆にして考えてみましょう。
他の種類のソフトウェアと比較して、ハッキングのリスクが少ないAIを作成するものは何ですか?
結局のところ、ソフトウェアはソフトウェアであり、常にバグとセキュリティの問題があります。AIは、AI以外のソフトウェアが危険にさらされるすべての問題のリスクにさらされており、AIが何らかの免疫を付与することはありません。
AI固有の改ざんについては、AIに誤った情報が入力される危険があります。ほとんどのプログラムとは異なり、AIの機能は消費するデータによって決まります。
実世界の例として、数年前にMicrosoftはTayと呼ばれるAIチャットボットを作成しました。Twitterの人々が「壁を構築し、メキシコはそれを支払う」と言うのに、それを教えるのに24時間もかかりませんでした。
(以下にリンクされているVergeの記事から取られた画像、私はそれに対する信用を主張しません。)
そして、それは氷山の一角にすぎません。
Tayに関するいくつかの記事:
これがチャットボットではないことを想像してください。AIが車(つまり、自動運転車)の乗員を殺さない、または患者を殺さないなどのことをAIが担当する未来の重要なAIであると想像してください手術台(つまり、何らかの医療補助機器)。
確かに、そのようなAIがそのような脅威に対してより安全であることを願っていますが、誰かがそのようなAIに気付かれずに誤った情報を大量に供給する方法を見つけたと仮定すると(結局、最高のハッカーは痕跡を残しません)、それは本当に意味があります生と死の違い。
自動運転車の例を使用して、誤ったデータが高速道路での緊急停止を行う必要があると自動車に思わせる場合を想像してください。医療AIのアプリケーションの1つは、ERでの生死の決定です。ハッカーが誤った決定を支持してスケールを傾けることができるかどうかを想像してください。
どうすればそれを防ぐことができますか?
最終的に、リスクの規模は、AIに依存する人間の状態に依存します。たとえば、人間がAIの判断を受け入れ、それを疑問視しなかった場合、あらゆる種類の操作に自分自身を開放することになります。ただし、AIの分析をパズルのほんの一部として使用すると、偶発的または悪意のある手段を介して、AIが間違っているときに見つけやすくなります。
医療の意思決定者の場合、AIを信じるだけでなく、身体検査を実施し、人間の意見も得ます。2人の医師がAIに同意しない場合、AIの診断を破棄します。
車の場合、1つの可能性は、何をすべきかについて基本的に「投票」しなければならないいくつかの冗長システムを持つことです。車が別々のシステムに複数のAIを搭載しており、どのアクションを実行するかについて投票する必要がある場合、ハッカーは複数のAIを取り出して制御または膠着状態を引き起こす必要があります。重要なことに、AIが異なるシステム上で実行された場合、あるシステムで使用された同じ悪用を別のシステムで実行できず、ハッカーの作業負荷がさらに増加します。