強力なAI
強力なAIの場合、簡単な答えは、想定されるヘルプが何であるかさえ知らない場合に、ヘルプを求めることです。
AIが何をするかによります。単一の簡単なタスクを完全かつ専門的に解決することになっている場合、感情はあまり役に立ちません。しかし、ランダムな新しいことを学習することになっている場合、処理できない何かに遭遇する点があります。
Lee Sedol対AlphaGoマッチ4では、コンピューターには以前感情がなかったと言ったプロが、AlphaGoにも感情があり、人間よりも強いとコメントしています。この場合、AlphaGoのクレイジーな動作は、「感情」と呼ばれる意図的に追加されたものではなく、アルゴリズムの欠陥に起因することがわかっています。しかし、パニックに陥ったように動作します。
これがAIで多く発生する場合。これ自体を知っていて、それが起こった場合はよく考えれば利点があるかもしれません。AlphaGoが問題を検出し、その戦略を変更できた場合、それは良くも悪くも再生されるかもしれません。他のアプローチの計算をまったく行わなかったとしても、それが悪化することはありそうにありません。事態が悪化した場合、「感情」に苦しんでいると言えるかもしれません。これが、感情を持つことが人間の欠陥であると考える人がいる理由かもしれません。しかし、それが問題の本当の原因ではないでしょう。本当の原因は、勝つことを保証するアプローチを知らないだけであり、戦略の変更は問題を解決するための試みにすぎないということです。コメンテーターはより良い方法があると考えています(これは勝つことを保証するものではありませんが、チャンスがありました)が、そのアルゴリズムは この状況で見つけることができる。人間にとっても、感情に関連するものに対する解決策は感情を取り除くことはほとんどありませんが、落ち着いて行動するのに十分な状況を理解することを確実にするためのいくつかのトレーニング。
それから誰かがこれが一種の感情であるかどうかについて議論しなければなりません。私たちは通常、小さな昆虫が人間のような感情を持っているとは言いません。なぜなら、私たちはそれらを理解しておらず、助けたがらないからです。しかし、AlphaGoと同じように、絶望的な状況でパニックに陥る可能性があることは簡単にわかります。これらの反応は同じ論理に基づいていると思いますが、少なくとも人間のような感情が潜在的に役立つ可能性がある理由です。彼らは、人間に助けを求めるつもりはなかったので、人間が理解できる方法で表現されていません。
彼らが自分の行動を理解しようとしたり、助けを求めて他の誰かに電話したりする場合、まさに人間のようであることが良いかもしれません。一部のペットは、人間の感情を感知し、ある程度人間が理解できる感情を表現できます。目的は、人間と対話することです。ある時点で必要になったため、彼らはこの能力を持つように進化しました。完全に強力なAIでも必要になる可能性があります。また、完全な感情を持つことの反対は夢中になるかもしれないことに注意してください。
しかし、誰かが最初の世代ではほとんど理解していない人間を模倣した感情を実装するだけであれば、おそらく信頼を失うための迅速な方法です。
弱いAI
しかし、誰かが強力なAIを欲する前に、彼らが感情を持つ目的はありますか?いいえ、彼らが感情を持たなければならないという固有の理由はありません。しかし、とにかく誰かが模倣された感情を実装したいと思うでしょう。「私たち」に感情を持たせる必要があるかどうかはナンセンスです。
事実は、インテリジェンスのない一部のプログラムでさえ、ユーザーインターフェイスに「感情的な」要素が含まれていることです。彼らはプロフェッショナルではないように見えるかもしれませんが、すべてのタスクが専門性を必要とするわけではないので、完全に受け入れられるかもしれません。それらは音楽や芸術の感情のようです。誰かがこの方法で弱いAIを設計することもあります。しかし、それらは実際にはAIの感情ではなく、作成者の感情です。彼らの感情のために良くも悪くも感じるなら、あなたは個々のAIをそれほど異なって扱わないでしょうが、このモデルまたはブランド全体として。
あるいは、誰かがそこでロールプレイングゲームのような個性を植えることができます。繰り返しますが、彼らがそれを持たなければならない理由はありませんが、ロールプレイングゲームがそうするとき明らかに彼らは市場を持っていたので、必然的に誰かがそれをするでしょう。
いずれの場合も、感情は実際にはAI自体に由来するものではありません。また、実装するのは簡単です。なぜなら、人間は、人間とまったく同じであると期待するのではなく、意図する意味を理解しようとするからです。これを実現するこれらの感情を受け入れることははるかに簡単かもしれません。
感情の側面
ここにオリジナルの研究を投稿してすみません。2012年に感情のリストを作成し、そこから感情の4つの側面を確認しました。それらがすべて実装されている場合、それらは人間とまったく同じ感情だと思います。それらの一部だけが実装されている場合、それらは現実的に見えませんが、それはそれらが完全に間違っていることを意味しません。
- AIが解決できない理由、または元の論理的な問題。AlphaGoにはすでに理由がありますが、他には何もありません。正確に定義する必要がある場合、それは複数の同等に重要なヒューリスティックが互いに同意しない状態だと思います。
- コンテキスト、または現在のアプローチのどの部分がうまく機能していないと考えられ、おそらく交換する必要があります。これは、悲しみ関連、心配関連、情熱関連を区別します。
- 現在の状態、またはそれが先導的であると感じているかどうか、または物事がうまくいかない場合にその信念または事実が最初に悪に変わる(またはずっと悪かった)はずかどうか。これは、悲しみ関連、愛関連、誇り関連を区別します。
- 計画または要求。一部の飼いならされたペットがすでにこれを持っていたと思います。そして、これらにはいくつかの固定パターンがあり、それはそれほど難しくはないと思います。芸術でさえ、それらを簡単に含めることができます。理由とは異なり、これらはどのアルゴリズムにも固有ではない可能性があり、それらの複数が一緒に現れる可能性があります。
- 感情によって何も変わらない場合、おそらく誰が責任を負っていたでしょう。これは好奇心、怒り、悲しみを区別します。
- 感情によって何も変わらない場合の想定される計画は何ですか。これは、失望、悲しみ、驚きを区別します。
- 起源。文脈がなければ、人間であっても、誰かが感動したり、感謝したり、ある種の恥ずかしさで微笑んでいることを確実に伝えることはできません。他のほとんどの場合、それらを説明する言葉すらありません。AIがこれを特別に区別したり表示したりしなければ、それほど大きな違いはありません。人間の言語を理解できるようになった時点で、これらを自動的に(そして人間として不正確に)学習する可能性があります。
- 問題の緊急度や重要度、感情がどれほど真実であるかなどの測定値。AIでは実装できないと思います。人間は人間とまったく同じであっても、人間を尊重する必要はありません。しかし、人間がまったく重要ではない場合でも、人間はAIを理解する方法を学習します。実際、私は非常に弱い感情のいくつか(何かが愚かすぎると考えるとあなたがコメントする方法がわからないという退屈なもの)のほとんどが絵文字にのみ存在すると感じています。実生活や複雑なシーンで目立ちます。これはAIの最初の場合にも当てはまると思いました。最悪の場合、顔文字はこれらのケースで機能するため、最初は「感情」として最初に知られています。
したがって、強力なAIが可能になると、これらのどれも到達不能になりますが、接続を確立するための多くの作業があるかもしれません。ですから、強力なAIが必要になった場合、彼らは絶対に感情を持つことになります。