AIは「倫理的に最適ではない」選択を避けながら横に考えることができますか?


13

最近のPCゲームThe Turing Testでは、AI(「TOM」)はパズルルームを通過するためにAvaの助けを必要とします。TOMは、「横方向に考える」ことが許可されていないため、パズルを解くことができないと言います。具体的には、彼は最初の部屋を解決するために窓から箱を投げるなんて考えなかっただろうと言います。彼のクリエイターは、そのような思考がプレッシャープレートに残すために腕を切り落とすような「倫理的に最適ではない」解決策を生み出す可能性があるため、その機能をオフにしました。

結果を合理的に保つために、すべての創造的なパズルを解く能力をAIから削除する必要がありますか?

回答:


17

いいえしかし。システムに完全な倫理システムがある場合、創造的かつ倫理的な問題解決が可能ですが、そうでない場合、デフォルトでは創造性は安全ではありません。

AIの意思決定アプローチは、内挿的思考者と外挿的思考者の2つのタイプに分類できます。

内挿的思想家は、学んでいるものを分類し、模倣することを学び、訓練領域外で合理的な結果を出そうとはしません。それらは、トレーニングの例の間を補間し、他の統計的手法としての数学的保証と条件のすべてから恩恵を受けると考えることができます。

外挿的思想家は、基礎となる原則を操作することを学び、これにより、以前は考えられなかった方法でそれらの原則を組み合わせることができます。ここでの直観に関連する分野は数値最適化であり、その中で最も単純で最も有名な例は、機械学習を生み出した統計分野ではなく、線形計画法です。それらは、トレーニングの例を超えた外挿と考えることができます(実際、それらの多くはトレーニングの例さえ必要としないか、またはそれらの例を使用して基本的な原則を推測します)。

外挿的な思想家の約束は、人々ができるよりもはるかに迅速にこれらの「横方向」の解決策を思いつくことができるということです。これらの外挿的な思想家の問題は、彼らが話された原則だけを使用することであり、言及するには明白すぎると思われる暗黙の原則を使用しないことです。

最適化問題の解決策の属性は、特徴ベクトルがしばしば何らかの形で「極端」であることです。線形計画法では、実行可能な解空間の少なくとも1つの頂点が最適であるため、単純な解法では最適な頂点を見つけます(頂点であるという性質上、ほとんど実行不可能です)。

別の例として、宇宙船をある位置から別の位置に移動するための最小燃料ソリューションは「バングバング」と呼ばれ、軌道の最初と最後で船をできるだけ速く加速し、その間で最高速度でcoast行します。

システムが正しく理解されている場合(多くの場合、バングバング最適)、それは美徳ですが、システムが誤って理解される場合、これは壊滅的です。ここでの私のお気に入りの例は、ダンツィッヒの食事問題です(PDFの5ページから議論が始まります)。彼は数学を使って食事を最適化しようとします。彼の最初の制約セットの下で、彼は1日500ガロンの酢を飲むことになっています。2番目の200ブイヨンキューブの下。3番目のふすまの下に2ポンド。これらの明らかに悪いアイデアを生み出す考慮事項はシステムに組み込まれていないため、システムはそれらを無邪気に提案します。

人がこれらの計画をAIに判断するために使用する知識と価値を完全にエンコードできる場合、外挿システムはその人と同じくらい安全です。彼らは間違った種類の極端な計画を考慮して拒否し、正しい種類の極端な計画をあなたに任せることができるでしょう。

しかし、できない場合は、外挿的な意思決定者を構築せずに、内挿的な意思決定者を構築するのが理にかなっています。つまり、「目標Xをどのように達成するのが最善か」と自問する代わりに。「この状況で人は何をするだろう」と自問しています。後者は目標Xを達成するのにはるかに悪いかもしれませんが、Xを達成するために他の目標を犠牲にするテールリスクははるかに少ないです。


2

倫理には、2人以上の関係者間のニーズの関係が含まれます。マシューグレイブスが言ったように、AIが十分な人間のコンテキスト(ニーズを理解している)に欠けている場合、AIは一見間違った倫理的行動を生み出します。

正直に言って、一部の人々は他の人々の腕を切り、プレッシャープレートにそれらを置きます。私たちの最高の人でさえ、他の人のニーズに100%の正確さで共感することはできません-せいぜい、推測しているだけです。そして、愛する人を救うために、腕を切ってプレッシャープレートの上に置いてほしいというまれな状況があります。

与えられたhuman意的な状況で人間必要とするものに共感できるものを作ることができれば、A)人工人間知能(AHI)(人間のように多少なりとも誤解できる)を作成し、またはB)オラクルそのことについて缶理由すべての可能な人間のニーズ速く、人間の時間スケールよりもはるかに-その場合、あなたはいないだろう必要性、すべての人間のニーズとソリューションは正式な仕様を介して事前に計算できる、意識的なAIおそらく検討するのはばかげている。


0

プログラミングをデザインの倫理的な部分と見なすこともできます。AIは、倫理的に重要であるかどうかに応じて、AIに指示された内容に基づいて動作します。ソリューションを見つけるプロセスを偽造するパラメーターの一部である場合もあれば、そうである場合もあります。これにより、より洗練された創造的なソリューションが可能になります。

通常の状況での倫理の基本は理解していますが、倫理的な難問の中で人間がどのように振る舞うかを予測できない場合は、AIができないことを実行できます。

AIを駆動するメカニズムを制御できる限り、倫理的なフェイルセーフを注入する責任があります。問題は、ディレクティブをオーバーライドする機能を持つ自己学習型AIにあります。(CFアシモフの法律。)

その場合、AIが創造的である方法は無関係と思われます。


-1

これの多くは、考慮の幅に依存します。たとえば、ラテラル思考の中長期的な効果はどうなりますか?ロボットはプレッシャープレートの腕を切断できますが、その人はもはや腕を持たず、機能的な制限があり、人は出血して死ぬか、ひどく拘束される可能性があり、人(および一般的な)もはや協力しなくなり、ロボットを排除しようとします。人々はこれらのことを考慮するために横に考えることができます-倫理は本当にこれらの考慮事項を含む一連のガイドラインにすぎません。ロボットは、これらの外部性を考慮するように設計されていれば同様にできます。

他のすべてが失敗した場合、

アシモフのロボティクスの法則:(0.ロボットは人類に害を及ぼさないか、または行動しないことで人類に危害を加えることはできません。)害。2.ロボットは、命令が第一法と矛盾する場合を除き、人間から与えられた命令に従う必要があります。3.ロボットは、第一法または第二法と矛盾しない限り、ロボットの存在を保護しなければなりません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.