いいえ、しかし。システムに完全な倫理システムがある場合、創造的かつ倫理的な問題解決が可能ですが、そうでない場合、デフォルトでは創造性は安全ではありません。
AIの意思決定アプローチは、内挿的思考者と外挿的思考者の2つのタイプに分類できます。
内挿的思想家は、学んでいるものを分類し、模倣することを学び、訓練領域外で合理的な結果を出そうとはしません。それらは、トレーニングの例の間を補間し、他の統計的手法としての数学的保証と条件のすべてから恩恵を受けると考えることができます。
外挿的思想家は、基礎となる原則を操作することを学び、これにより、以前は考えられなかった方法でそれらの原則を組み合わせることができます。ここでの直観に関連する分野は数値最適化であり、その中で最も単純で最も有名な例は、機械学習を生み出した統計分野ではなく、線形計画法です。それらは、トレーニングの例を超えた外挿と考えることができます(実際、それらの多くはトレーニングの例さえ必要としないか、またはそれらの例を使用して基本的な原則を推測します)。
外挿的な思想家の約束は、人々ができるよりもはるかに迅速にこれらの「横方向」の解決策を思いつくことができるということです。これらの外挿的な思想家の問題は、彼らが話された原則だけを使用することであり、言及するには明白すぎると思われる暗黙の原則を使用しないことです。
最適化問題の解決策の属性は、特徴ベクトルがしばしば何らかの形で「極端」であることです。線形計画法では、実行可能な解空間の少なくとも1つの頂点が最適であるため、単純な解法では最適な頂点を見つけます(頂点であるという性質上、ほとんど実行不可能です)。
別の例として、宇宙船をある位置から別の位置に移動するための最小燃料ソリューションは「バングバング」と呼ばれ、軌道の最初と最後で船をできるだけ速く加速し、その間で最高速度でcoast行します。
システムが正しく理解されている場合(多くの場合、バングバングが最適)、それは美徳ですが、システムが誤って理解される場合、これは壊滅的です。ここでの私のお気に入りの例は、ダンツィッヒの食事問題です(PDFの5ページから議論が始まります)。彼は数学を使って食事を最適化しようとします。彼の最初の制約セットの下で、彼は1日500ガロンの酢を飲むことになっています。2番目の200ブイヨンキューブの下。3番目のふすまの下に2ポンド。これらの明らかに悪いアイデアを生み出す考慮事項はシステムに組み込まれていないため、システムはそれらを無邪気に提案します。
人がこれらの計画をAIに判断するために使用する知識と価値を完全にエンコードできる場合、外挿システムはその人と同じくらい安全です。彼らは間違った種類の極端な計画を考慮して拒否し、正しい種類の極端な計画をあなたに任せることができるでしょう。
しかし、できない場合は、外挿的な意思決定者を構築せずに、内挿的な意思決定者を構築するのが理にかなっています。つまり、「目標Xをどのように達成するのが最善か」と自問する代わりに。「この状況で人は何をするだろう」と自問しています。後者は目標Xを達成するのにはるかに悪いかもしれませんが、Xを達成するために他の目標を犠牲にするテールリスクははるかに少ないです。