ここに私の猿の心が思いついたいくつかの問題があります。
1.Smart!=すべてを知っている
AI自己改善爆発により、それはますます賢くなります。賢くなっても、多くの事実を知ることにはなりません。これはかなりうるさい議論だと思いますが、考えてみる価値はあると思います。
あなたの病歴を知らない非常に賢い医者は、より良いデータを持っているあまり知性のない医者よりも悪い選択をするかもしれません。
2.それはすべて人間のためですか?それはすべての人間のためですか?
より高いレベルに達したASIは私たちの幸福に興味がありませんでした。
制御されたASIは、少数のみが利益を得るために機能する可能性があります。これらの少数が間違った目標を決定した場合、後戻りすることができます。
3過酷なASI
科学的な心は必ずしも同情や共感でいっぱいではありません。
4.賢くて賢くない
偉大な心はまだ間違いを犯します:*彼らの目標を設定することで、*それを達成するための計画を実行することで。
肉の知性は、ショロサイトの欠如や死角の欠如を保証するものではありません。
5.制限
存在の境界(ライトタイプの制限の速度)がある場合、AIもこれらによって制限されます。これは、ASIでも「取得」できないものがあることを意味する場合があります。また、私たちの心にはその構造に基づいた制限がある可能性があるため、次のAIにも制限がある可能性があります。uppnが改善されても、uppnは「愚かすぎる」ために解決策を見つけることができない制限に達する可能性があります。
6.わかりません
世界の特定の側面に関するASIの理解は、ほとんどの人間に伝達的ではないかもしれません。理解できないだけです(すべてを理解できるとしても、それが理解できるという意味ではありません)。
7.使い方は?
私たちは自分自身を破壊する可能性があり、それを構築するのに役立つ技術を備えたAIがあります。爆弾である必要はありません。それは地球工学や不思議な薬になる可能性があります。
これは、ASIがすでに強力であるが、負の結果を予測するのに十分ではない場合(またはとにかくそれを無視する場合)、特に強力です。