倫理が現在のAIシステムに統合されていないのはなぜですか?


9

私はコンピューターサイエンスの博士号を取得しており、現在、機械倫理(哲学とAIを組み合わせた学際的な分野で、明示的な倫理プログラムやエージェントの作成を検討しています)で最先端のアプリケーション概要を作成しています。分野には技術的な背景を持つ多くの人々がいるにもかかわらず、分野はほとんど理論的な議論を含み、実装は比較的少ないようです。

倫理が関わっているので根拠のない真実はなく、哲学の一部であるため、どのタイプの倫理を実施すべきか、これをどのように最善の方法で実施できるかについて議論することに迷う可能性があることを理解しています。ただし、コンピュータサイエンスでは、アプローチの可能性または制限を示すために、単純な実装を試みることも一般的です。

AIに倫理を明示的に実装し、それを実験することがほとんどできない理由は何ですか?


2
アプローチの例は、このおよびこの概要ペーパーに記載されています。
スザンヌ

回答:


2

これは必然的に高レベルの回答であり、非常に投機的ですが、私はこの質問について考えてきました。ここに私の考えを示します。

  • コンピュータは差分エンジンであるため、倫理的アルゴリズムを実装するには哲学の数学的基礎が必要です

ラッセルとホワイトヘッドの有名な失敗とゲーデルの不完全性定理の後、これは問題があるようです。

  • AIは、特にディープラーニングの継続的な検証により、今日、高度に応用された分野であり、強制されない限り、倫理の問題に近づくことを望まない

したがって、エンジニアは問題に取り組むしか方法がないため、自動運転車にそれが見られます。対照的に、ビジネスがパレート効率であり、金融投機の倫理または社会的影響を心配している多くのアルゴリズム株式取引会社を目にすることはないと思います。(「フラッシュクラッシュ」の解決策は、高頻度のアルゴリズム取引の社会的価値に対処するのではなく、取引を一時的に停止するためのルールだったようです。)より明白な例は、ソーシャルメディア企業が極端な量の情報乱用を無視していることです(情報の誤報)。および誤報)彼らのサイトに投稿されて、無知を訴えていること。

  • 応用分野は主に利益によって推進される傾向がある

企業の主な指示は、投資家に利益を還元することです。罰金や罰金が違法行為による利益よりも少ないと予想される場合、企業が法律を破ることは珍しくありません。(ビジネスには倫理の概念がありますが、文化は一般的に人や会社を、手段に関係なく、どれくらいのお金を稼ぐかに基づいて判断するようです。)

  • 機械倫理の実装は、製品の販売に必要な分野で検討されていますが、それ以外の場所では、依然として仮想的なものです

超知能が進化して人間性を一掃する場合(優れた数学のスキルを持つ一部の非常に賢い人々が警告しているように)、それは自然の関数であると私は感じています。 -金融投機や自律戦争などの業界における党派オートマトン。基本的には、影響に関係なく、あらゆるコストで利益を追跡します。


興味深い見方、利益面!私は研究の理由にとても集中していたのでそれを考えていませんでしたが、研究からそれをさらに追求するという業界からの圧力がないことは理にかなっています。
スザンヌ

@SuzanneTolmeijerありがとう。私はここ数年、ゲーム理論が倫理にどのように関連しているかについて詳しく調べてきました。(たとえば、「バランス」が「良好」であると言われていたほとんどの初期の哲学-バランスは平衡関数であり、正確に数学的に定義できます。安定性が最適であると一般に理解されているという点で経済学に関連しています。不安定性は壊滅的なものになる可能性があります。)しかし、この分野で経済的要因に触れたAIの貢献者は私だけではなく、私が「超党派AI」と呼んでいるものの潜在的な危険性もあります。
DukeZhou

1

AI / MLテクノロジーの倫理的な実装の方法がほとんどないのは、理論的なフレームワークの必要性や適切な適用がないという理由だけで問題があると感じています。

つまり、意味のある方法で相互作用できないアルゴリズムやモデルにこの理解を適用できる実質的な方法はありません。AIの安全性/倫理に関する非常に大きな理論的枠組みは非常に重要です。強力なAIを作成する前に、実装するための安全なガイドラインを作成する必要があります。

いくつかの非常に焦点を絞った論文は、倫理的/安全なAIシステムの作成における問題を絞り込み始めています。AI安全性の具体的な問題を参照してください


明示的な倫理の必要性があるようです、少なくとも多くの研究者は明示的な倫理の進歩を要求します(例えばMoor 2006)。理論的なフレームワークの適切な適用という点では、あなたは正しいかもしれません。実装は、場合によっては解釈を意味するため、難しい場合があります。ただし、AIの安全なガイドラインが重要であることに同意します。つまり、私たちのマシンが実行するために「適切」または「倫理的」であると私たちが考えることに関する実際的なガイドラインを意味します。これらのガイドラインは、何らかの方法で機械に倫理を実装する方法を示唆しています。
スザンヌ

1

模倣方法を使用すると、最も適切な動作を人工知能に統合できます。倫理的立場が変化すると、人工知能は再形成されます。イデオロギーの目的や情報収集に使用されます。ロボットが何であるかは明確ではありません。


1

エラーモデルを考慮に入れることができます。ニューラルネットワークでのパフォーマンス間のバイアスと差異を認識することは、最初のステップです。そして、そのようなパフォーマンスが許可されるかどうかについて話し合うことができます。私たちの知る限りでは、民族の実践には経験的およびフィールド調査が必要です。学習した機械の動作が間違っているかどうかを判断するために、理論的根拠と紙のエッセイを単に取るだけでは不十分です。さらに、事故、エラー、さらには開発者が作成したバグに分類できます。


ここで取り上げる興味深い点は、基本的には、システムをテストするために使用できる手段、およびシステムが正確に動作しているかどうかをどのように判断するかです。これは現場で欠けているものであり、私は確かに問題の一部であると感じています:グラウンドトゥルースなしでシステムをテストする方法?明示的な倫理アルゴリズムのコンテキストでは、どの(次元の)指標が意味を成しますか?それがなければ、システムを比較する方法がなく、現場での進歩が制限されます。
スザンヌ

1

直感的に言えば、AI倫理の実装に関する研究はほとんどないようです。

  1. 社会全体としては、機械知能の現在の状態が意識的または知覚的であると見なされるほど強力ではないことに、快適に同意しているようです。したがって、(まだ)倫理的権利を与える必要はありません。

  2. 倫理的行動をプログラムに実装するには、コンピュータが「意味」を解釈できるようにする方法が必要ですが、その方法はまだわかりません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.