「説明の権利」はどのように合理的ですか?


8

電子に興味の最近の景気改善がなされてきたX plainable A rtificial I ntelligence(XAI)。DARPAページに記載されているXAIの使命は次のとおりです

Explainable AI(XAI)プログラムは、次のような機械学習手法のスイートを作成することを目的としています。

  • 高レベルの学習パフォーマンス(予測精度)を維持しながら、より説明可能なモデルを作成します。そして
  • 人間のユーザーが新世代の人工知能パートナーを理解し、適切に信頼し、効果的に管理できるようにします。

New York Timesの記事、AIにそれ自体を説明するように教えることはできますか?XAIの必要性を人間の関心の観点から説明するだけでなく、XAIのために開発されている技法について一目でわかる見通しを提供するのに優れています。XAIムーブメントの背後にある力は、説明権利の概念(新登場?と述べた。

私たちがお互いに責任を負う現在の基準を考えると、説明の権利はどのように合理的ですか?


人工知能(AI)コンピューターに関する記事は否定的です:AIを公正、説明責任、透明にすることはなぜ重要なのか、ヨーロッパは世界の他の地域に先んじて、悪質なAIから人々を守る規制を策定していると述べてます。ただし、これらの規制は少し弱いです。たとえば、人間が関与する場合や(AIを除いて)意思決定がある場合には適用されません。
nbro

回答:


3

私たちがお互いに責任を負う現在の基準を考えると、説明の権利はどのように合理的ですか?

要するに、それはかなり合理的です。

より具体的には、AIに決定を説明する責任と責任を持たせることは、

  • 人間(この場合はDARPA)は納税者のお金でAIを作成、引き上げ、進化させることを選択しました。私たちの社会でも、人間が何らかの目的(政府などの正式な取り決め)で集まった場合は常に、説明責任と責任が引き受けられ、割り当てられます。したがって、AI(私たちに代わって決定を下す)が彼らの決定を説明することを期待することは、人間が現在どのように動作しているかの自然な延長にすぎません

  • 人間は(一般的には)、残りの人口を制御および操作するための超大国力や資源を持っていません。しかし、彼らが(私たちの政治指導者のように)そうするとき、私たちは彼らに責任を持たせたいと思います。

  • まれなケースですが、強力な人間は誰もがアクセスできるもののために強力になりますが、AIの超能力はそうではありません。したがって、私たちの文明は安全に感じられるため、質問があったときにドアを正面から閉ざさないAIを使用することで不安が軽減されます。

決定がどのように行われるかについての説明を提供するAIのその他の利点

  • 初期段階でのデバッグと改善がはるかに簡単です。

  • さらにカスタマイズして(途中で)、収益性よりも社会福祉などの特定の側面を拡大することができます。


0

のアルゴリズムのスレーブ?「説明への権利」がおそらくあなたが探している救済策ではないのはなぜか、著者は「説明への権利」が少なくとも2つの理由でアルゴリズムへの危害に対する完全な救済策を提供する可能性は低いと主張している

  1. 説明に関連する権利がいつトリガーされるかは不明です

  2. 「処理のロジックに関する意味のある情報」という法律で要求される説明は、現在の(説明可能な)AIメソッドでは提供されない場合があります

次に、著者は「説明の権利」は混乱を招くが、EUの一般データ保護規則の他の法律、

  1. 忘れられる権利
  2. データ移植性の権利
  3. 設計によるプライバシー

「説明の権利」の欠陥を補うかもしれません。

結論として、「説明の権利」は、AIメソッドの使用により起こり得る望ましくない結果から市民を保護する試みです。しかし、それは完璧なものではなく、より明確な権利を公布する必要があるかもしれません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.