私はいくつかの部分でこの質問に答えます:
なぜAGIシステムは常識を持つ必要があるのですか?
人間は野生の理性を持ち、厳密な論理よりも常識を使ってコミュニケーションします。論理よりも誰かの感情に訴えるほうが簡単であることに気づくと、これを見ることができます。したがって、人間の認知を再現しようとするシステム(AGIなど)も、この常識を使用する傾向を再現する必要があります。
より簡単に言えば、私たちのAGIシステムが常識的な言葉で話せるようになりたいのです。あいまいな理論と厳密な論理は技術的には正しいかもしれませんが、私たちの理解にアピールしません。
AGIの目標は、最も認知的に進歩したシステムを作成することではありませんか?「最も完璧な」AGIシステムは、常識的に存在するそのような不完全性と不正確さを処理する必要があるのはなぜですか?
第一に、常識的な論理が「不合理」である場合にのみ見えるかもしれません。おそらく、常識をモデル化する一貫した数学的な方法があり、常識のすべての微妙さが厳密な方法で表されます。
第二に、人工知能の初期の研究は認知科学の研究から始まり、研究者は「心のアルゴリズム」、より正確には人間の思考を再現する決定可能な手順を再現しようとしました。その場合、AIの研究は「最も優れた認知エージェント」を作成することではなく、単に人間の思考/行動を再現することです。人間の行動を再現できるようになると、計算能力を高めることで超人間的なものを作成しようとする可能性がありますが、それは保証されていません。
AGIシステムで常識が必要な理由はまだわかりません。AGIは、最もインテリジェントで強力な計算システムであるということではありませんか?常識を必要とする人間の理解の限界に向けて、なぜそれを気にする必要があるのでしょうか?
おそらく、AGIが何を伴うのかについて、少しずれた理解を持っているでしょう。AGIは、無制限の計算能力(ブレマーマンの制限などの計算上の物理的制約のために物理的に不可能)または無制限の知能(おそらく、以前の制約のために物理的に不可能)を意味しません。通常、これは単に人工的な「一般的な知能」を意味し、一般的な意味は広く一般的です。
無制限のエージェントに関する考慮事項は、理論的なコンピュータサイエンス(タイプ理論)、意思決定理論、さらにはおそらく無制限の計算能力を持つエージェントに関する質問を投げかけることができる集合理論などの分野でより詳細に研究されています。無限のパワーを持つAGIシステムでもホールティング問題のために答えられないという質問があると言えるかもしれませんが、これらのフィールドの仮定が特定のAGIの構造にマップされている場合に限られます。
AGIが必要とするものとその目標をよりよく理解するために、2冊の本をお勧めします。より哲学的に傾いたアプローチを求めているブライアン・キャントウェル・スミス。
余談ですが、禅小庵のコレクション:ゲートレスゲートには、次の文章が含まれています:(wikipediaから引用および編集)
僧が中国の禅師である趙州に尋ねた。「犬は仏像を持っているかどうか」趙州は「ウー」と答えました
Wú(無)は「none」、「nonesuch」、または「nothing」に変換されます。これらは、yesまたはnoのいずれかへの回答を回避するように解釈できます。この啓発された個人は、すべての質問に厳密に答えようとするのではなく、理にかなった方法で答えようとするだけです。犬が仏像を持っているかどうか(仏像が意味するものは何でも)は問題ではないので、マスターはデフォルトで質問を解決するのではなく解決することにしました。