人間のような感情を経験するAIを開発することにより、どのような目的が達成されますか?


19

、最近のウォールストリートジャーナルの記事、ヤンLeCunnは、次の文を作ります:

人間レベルのAIを達成するための次のステップは、インテリジェントな(自律的ではない)マシンを作成することです。車内のAIシステムは安全に家に帰りますが、中に入ったら別の目的地を選択することはありません。そこから、感情や道徳的価値とともに、基本的なドライブを追加します。脳と同じように学習する機械を作成すれば、人間のような資質と欠陥を継承する機械を想像するのは簡単です。

個人的には、感情を経験するAIを作成する理由がないため、人工知能の感情について話すのは馬鹿げていると一般に考えています。明らかに、ヤンは同意しません。質問は、これを行うことでどのような目的が果たされるのでしょうか?AI は有用なツールとして機能するために感情を必要としますか?


1
考えられる複製の可能性なぜ誰かがAI内で感情的な意思決定をシミュレートしたいのですか?受け入れられた答え(「人間のプログラマーはAIプログラムを維持する方が簡単だろう」)は刺激的でも素晴らしいものでもないかもしれませんが、少なくとも半合理的で合理的なようです。
SEを離れて

別の可能性もあります:私たちは必ずしもありませんしたい経験の人間が、同じような感情が、それより高度なAI技術(その後、彼らは予測できないと思いますので、我々は彼らの権利、何とか何とか何とかを与える必要があるだろう)というのAIを開発します(ディープラーニングなど)は、人間のような感情を経験するAIを誤って開発します。私たちが彼らを望んでいるということではなく、彼らがとにかく来るかもしれないということです。人工強化学習エージェントは道徳的に重要ですか?この可能性について議論します。
SEを左

回答:


11

この質問に対する答えは、この掲示板の多くとは異なり、決定的なものだと思います。いいえ。私たちは、AIに感情を持たせる必要ありません。既に持っている多くのAIが有用であることがわかります。

しかし、質問にさらに対処するために、AIの感情を実際に伝えることはできませ。私たちが得ることができる最も近いものは、「もしその人間がそうであったなら、人間がそうするようにこのAIを動作させることができるだろう」だろうと思いますinsert emotion。ある意味で、それ感情を持っていると思いますが、それまったく別の議論です。

そして、何のために?頭に浮かぶ唯一の直接的な理由は、ビデオゲームやその他のエンターテイメントを目的として、よりリアルな仲間や交流を作り出すことです。公正な目標です
が、必要というわけではありません。ある建物のロビーにあるAIを搭載した挨拶ロボットを考えても、おそらくそれが誠実に機能することだけを望むでしょう。

ヤンは、高度なAIはより人間に近い品質欠陥につながると言います。「人間のようなAIの品質や言い換えれば欠陥を与える」ようだと思います。人々は、悲しいときや怒っているときは不合理に行動する傾向があり、ほとんどの場合、合理的なAIのみが必要です。
彼らが言うように、誤りは人間です。

AIと学習アルゴリズムの目的は、人間のように振る舞う、または「考える」システムを作成することですが、より優れています。できるだけ混乱させずに適応または進化できるシステム。Emotive AIには用途がありますが、有用なシステムの前提条件ではありません。


5

基本的な質問は、なぜAIを構築しようとするのでしょうか?その目的が明確である場合、AIで感情指数が意味を持つかどうかを明確にします。治療上の理由で開発された「パロ」のようないくつかの試みでは、人間のような感情を示す必要があります。繰り返しになりますが、「表示」感情と「感情」感情はまったく異なるものです。

パロのようなものをプログラムして、声のトーンや顔のけいれんを変調して、同情、愛情、交際などを表現できます-しかし、そうしている間、パロは所有者に共感しません-それは単に物理的な症状を見せることによってそれを偽造しています感情の。人間の脳でその感情が引き起こすものに少しでも近いと感じることはありません。

したがって、この区別は本当に重要です。あなたが何かを感じるためには、感じる能力を持つ独立した自律的な主体が必要です。外部の人間のエージェントが感情を押し付けることはできません。

だから、それが解決する目的の質問に戻る-答えは本当にある-それは依存します。そして、シリコンベースのAIでこれまでに達成できると思うことは、感情の単なる物理的表現の領域であり続けるでしょう。


私は同意する傾向があります。そして、私の考えはあまりにも限られているかもしれませんが、私が考えているAIのアプリケーションのほとんどは、感情を持つAIの恩恵を受けません。さて、少なくとも私は今ここに座っていると思います。たぶん私は振り返って、自分が間違っていたことに気付くでしょう。
マインドクライム

AIが感情を持たなければならない/必要とすることは、見当違いです。AIは基本的に一連のツールであるため、その用途もニーズに基づいて決定する必要があります。いくつかのユースケースには感情的な側面が必要な場合もあれば、そうでない場合もあります。知るか!
キングズ

4

AIエージェントが役に立つために感情は必要ないと思います。しかし、私は彼らがエージェントをより快適に働かせることもできると思います。あなたが話しているボットがあなたの感情を読み、建設的に反応することができれば、それと対話する経験は、恐らく壮大に、非常に快適になります。

あなたの請求書や製品に関する苦情で今日のコールセンターの担当者に連絡することを想像してください。あなたは衝突を予想しています。誰かがあなたの言うことを誤解したり、敵対的または愚かに反応するので、この経験は苦痛になり、戦闘的またはイライラすることになるので、電話しないことを決めたかもしれません。

今まで出会った中で最も賢く、最も焦点を絞ったカスタマーサポート担当者であるCommander Dataに電話することを想像してください。既存の唯一の理由は、この電話をできるだけ快適で生産的にすることです。ほとんどのコール担当者よりも大幅に改善されていますか?コールレップデータがあなたの気分を予測し、苦情に適切に対応して感情状態を和らげることができると想像してみてください...この男と結婚したいと思うでしょう。あなたは青か退屈を感じていたとき、またはいくつかの幸せなニュースを共有したいときはいつでも電話担当者データを呼び出します。この男は一晩あなたの親友になります-文字通り最初の呼び出しで愛。

このシナリオは有効だと確信しています。「I Robot」のDataやSonnyのようなキャラクターが驚くほど魅力的であることに気づきました。声はとてもなだめ、すぐに安心します。ボットも非常に頭が良く、忍耐強く、知識が豊富で、理解していたら...私は、そのようなボットが感情的な知性の健康的な量で埋められて、対話するのが非常に楽しいと思う。私が知っているどの人よりもずっとやりがいがあります。そして、それは私だけでなく真実だと思います。

そう、私は感情と感情認識を使ってロボットの個性を調整することには大きな価値があると思います。


4

AIの感情は役に立ちますが、目的によっては必要ではありません(ほとんどの場合、そうではありません)。

特に、感情の認識/分析は非常に高度であり、自閉症の子供のロボット教師(発達ロボットを参照)からギャンブル(ポーカー)に至るまで、個人エージェントや政治感情/嘘分析など、幅広いアプリケーションで非常にうまく使用されています。

ロボットの感情の経験である感情認知は、あまり発達していませんが、非常に興味深い研究があります(Affect HeuristicLovoticsの確率的愛のアセンブリなどを参照)。実際、などの感情は、人間の脳ですでに切断されている単なる信号であるため、なぜモデル化できなかったのかはわかりません(ブライアンD.イアプの論文を参照)。難しいですが、不可能ではありません。実際には、部分的な感情認識を再現するロボットがいくつかあります。

私は、「ロボットはただシミュレートできるが感じない」という主張は、客観的な能力ではなく、意味論の問題であると考えています。たとえば、潜水艦は魚のように泳ぎますか?ただし、飛行機は飛ぶが、鳥のようにはまったく飛ばない。最後に、技術的な意味は最終的に同じ振る舞いをするときに本当に重要ですか?Chappieのようなロボットが作られたとしても、単純なサーモスタットのようなものを感じないということを本当に言えるのでしょうか?

しかし、AIに感情的認知を使用することは何でしょうか?この質問はまだ大いに議論されていますが、私は自分の洞察をあえて提供します。

  1. 人間(および動物!)の感情は記憶に影響することが知られています。神経科学では、長期記憶の追加のモダリティ、または必要に応じてメタデータとして知られています:記憶の保存方法、他の記憶との関連付け/関連、および取得方法を調整できます。

  2. そのため、感情の主な役割は、記憶に追加のメタ情報を追加して、ヒューリスティックな推論/検索を支援することであると仮定できます。実際、私たちの記憶は膨大であり、生涯にわたって多くの情報が保存されているため、感情を「ラベル」として使用して、関連する記憶をより高速に取得することができます。

  3. 同様の「ラベル」は、より簡単に関連付けることができます(怖い出来事の思い出、幸せな出来事の思い出など)。このように、彼らは恐ろしい戦略から既知の戦略に素早く反応して適用することで生存を助けることができます(逃げる!)、または有益な状況を最大限に活用することができます(幸せな出来事、あなたができる限り食べて、後で生き残るのを助けます!)。実際、神経科学の研究では、他のすべての刺激のように通常の体性感覚回路全体を通過するよりも速く恐怖に誘導する感覚刺激の特定の経路があり、アクチュエータに到達する(逃げる)ことを発見しました。この種の連想推論は、他の方法では到達できない解決策と結論につながる可能性もあります。

  4. 共感を感じることにより、ロボットと人間の相互作用を容易にすることができます(たとえば、壊滅的な出来事の犠牲者を助けるドローン)。

  5. 感情を伴うAIの仮想モデルは、基礎となるパラメーターを理解および/または推測するための計算モデルとして、感情障害の神経科学および医学研究に役立ちます(これは、たとえば、アルツハイマー病や他の神経変性疾患でよく行われますが、私はそうではありません感情障害については、DSMで非常に新しいものであるため、これが行われたかどうかを確認してください)。

そのため、「冷たい」AIはすでに有用ですが、感情AIは、コールドAIだけでは探ることができなかった新しい領域に確実に適用できます。また、感情は不可欠な部分であるため、私たち自身の脳を理解する上でも確実に役立ちます。


2

それはAIの応用に依存すると思います。明らかに、人間の監督の下で特定のタスクを実行することが目的であるAIを開発する場合、感情は必要ありません。しかし、AIの目的がタスクを自律的に行​​うことである場合は、感情や共感が役立ちます。たとえば、医療分野で機能しているAIについて考えてみましょう。ここでは、患者をより快適にするためだけに、AIが何らかの共感を持つことが有利な場合があります。または、別の例として、乳母として機能するロボットについて考えます。再び、感情と共感が有利で望ましいことは明らかです。支援AIプログラム(キャッチフレーズスマートホーム)でも、人々をより快適にするために感情と共感が望ましい場合があります。

一方、AIが組立ラインで作業しているだけであれば、明らかに感情や共感の必要はありません(その場合、逆に不採算になる可能性があります)。


2

強力なAI

強力なAIの場合、簡単な答えは、想定されるヘルプが何であるかさえ知らない場合に、ヘルプを求めることです。

AIが何をするかによります。単一の簡単なタスクを完全かつ専門的に解決することになっている場合、感情はあまり役に立ちません。しかし、ランダムな新しいことを学習することになっている場合、処理できない何かに遭遇する点があります。

Lee Sedol対AlphaGoマッチ4では、コンピューターには以前感情がなかったと言ったプロが、AlphaGoにも感情があり、人間よりも強いとコメントしています。この場合、AlphaGoのクレイジーな動作は、「感情」と呼ばれる意図的に追加されたものではなく、アルゴリズムの欠陥に起因することがわかっています。しかし、パニックに陥ったように動作します。

これがAIで多く発生する場合。これ自体を知っていて、それが起こった場合はよく考えれば利点があるかもしれません。AlphaGoが問題を検出し、その戦略を変更できた場合、それは良くも悪くも再生されるかもしれません。他のアプローチの計算をまったく行わなかったとしても、それが悪化することはありそうにありません。事態が悪化した場合、「感情」に苦しんでいると言えるかもしれません。これが、感情を持つことが人間の欠陥であると考える人がいる理由かもしれません。しかし、それが問題の本当の原因ではないでしょう。本当の原因は、勝つことを保証するアプローチを知らないだけであり、戦略の変更は問題を解決するための試みにすぎないということです。コメンテーターはより良い方法があると考えています(これは勝つことを保証するものではありませんが、チャンスがありました)が、そのアルゴリズムは この状況で見つけることができる。人間にとっても、感情に関連するものに対する解決策は感情を取り除くことはほとんどありませんが、落ち着いて行動するのに十分な状況を理解することを確実にするためのいくつかのトレーニング。

それから誰かがこれが一種の感情であるかどうかについて議論しなければなりません。私たちは通常、小さな昆虫が人間のような感情を持っているとは言いません。なぜなら、私たちはそれらを理解しておらず、助けたがらないからです。しかし、AlphaGoと同じように、絶望的な状況でパニックに陥る可能性があることは簡単にわかります。これらの反応は同じ論理に基づいていると思いますが、少なくとも人間のような感情が潜在的に役立つ可能性がある理由です。彼らは、人間に助けを求めるつもりはなかったので、人間が理解できる方法で表現されていません。

彼らが自分の行動を理解しようとしたり、助けを求めて他の誰かに電話したりする場合、まさに人間のようであることが良いかもしれません。一部のペットは、人間の感情を感知し、ある程度人間が理解できる感情を表現できます。目的は、人間と対話することです。ある時点で必要になったため、彼らはこの能力を持つように進化しました。完全に強力なAIでも必要になる可能性があります。また、完全な感情を持つことの反対は夢中になるかもしれないことに注意してください。

しかし、誰かが最初の世代ではほとんど理解していない人間を模倣した感情を実装するだけであれば、おそらく信頼を失うための迅速な方法です。

弱いAI

しかし、誰かが強力なAIを欲する前に、彼らが感情を持つ目的はありますか?いいえ、彼らが感情を持たなければならないという固有の理由はありません。しかし、とにかく誰かが模倣された感情を実装したいと思うでしょう。「私たち」に感情を持たせる必要があるかどうかはナンセンスです。

事実は、インテリジェンスのない一部のプログラムでさえ、ユーザーインターフェイスに「感情的な」要素が含まれていることです。彼らはプロフェッショナルではないように見えるかもしれませんが、すべてのタスクが専門性を必要とするわけではないので、完全に受け入れられるかもしれません。それらは音楽や芸術の感情のようです。誰かがこの方法で弱いAIを設計することもあります。しかし、それらは実際にはAIの感情ではなく、作成者の感情です。彼らの感情のために良くも悪くも感じるなら、あなたは個々のAIをそれほど異なって扱わないでしょうが、このモデルまたはブランド全体として。

あるいは、誰かがそこでロールプレイングゲームのような個性を植えることができます。繰り返しますが、彼らがそれを持たなければならない理由はありませんが、ロールプレイングゲームがそうするとき明らかに彼らは市場を持っていたので、必然的に誰かがそれをするでしょう。

いずれの場合も、感情は実際にはAI自体に由来するものではありません。また、実装するのは簡単です。なぜなら、人間は、人間とまったく同じであると期待するのではなく、意図する意味を理解しようとするからです。これを実現するこれらの感情を受け入れることははるかに簡単かもしれません。

感情の側面

ここにオリジナルの研究を投稿してすみません。2012年に感情のリストを作成し、そこから感情の4つの側面を確認しました。それらがすべて実装されている場合、それらは人間とまったく同じ感情だと思います。それらの一部だけが実装されている場合、それらは現実的に見えませんが、それはそれらが完全に間違っていることを意味しません。

  • AIが解決できない理由、または元の論理的な問題。AlphaGoにはすでに理由がありますが、他には何もありません。正確に定義する必要がある場合、それは複数の同等に重要なヒューリスティックが互いに同意しない状態だと思います。
    • コンテキスト、または現在のアプローチのどの部分がうまく機能していないと考えられ、おそらく交換する必要があります。これは、悲しみ関連、心配関連、情熱関連を区別します。
    • 現在の状態、またはそれが先導的であると感じているかどうか、または物事がうまくいかない場合にその信念または事実が最初に悪に変わる(またはずっと悪かった)はずかどうか。これは、悲しみ関連、愛関連、誇り関連を区別します。
  • 計画または要求。一部の飼いならされたペットがすでにこれを持っていたと思います。そして、これらにはいくつかの固定パターンがあり、それはそれほど難しくはないと思います。芸術でさえ、それらを簡単に含めることができます。理由とは異なり、これらはどのアルゴリズムにも固有ではない可能性があり、それらの複数が一緒に現れる可能性があります。
    • 感情によって何も変わらない場合、おそらく誰が責任を負っていたでしょう。これは好奇心、怒り、悲しみを区別します。
    • 感情によって何も変わらない場合の想定される計画は何ですか。これは、失望、悲しみ、驚きを区別します。
  • 起源。文脈がなければ、人間であっても、誰かが感動したり、感謝したり、ある種の恥ずかしさで微笑んでいることを確実に伝えることはできません。他のほとんどの場合、それらを説明する言葉すらありません。AIがこれを特別に区別したり表示したりしなければ、それほど大きな違いはありません。人間の言語を理解できるようになった時点で、これらを自動的に(そして人間として不正確に)学習する可能性があります。
  • 問題の緊急度や重要度、感情がどれほど真実であるかなどの測定値。AIでは実装できないと思います。人間は人間とまったく同じであっても、人間を尊重する必要はありません。しかし、人間がまったく重要ではない場合でも、人間はAIを理解する方法を学習します。実際、私は非常に弱い感情のいくつか(何かが愚かすぎると考えるとあなたがコメントする方法がわからないという退屈なもの)のほとんどが絵文字にのみ存在すると感じています。実生活や複雑なシーンで目立ちます。これはAIの最初の場合にも当てはまると思いました。最悪の場合、顔文字はこれらのケースで機能するため、最初は「感情」として最初に知られています。

したがって、強力なAIが可能になると、これらのどれも到達不能になりますが、接続を確立するための多くの作業があるかもしれません。ですから、強力なAIが必要になった場合、彼らは絶対に感情を持つことになります。


2

感情によって、彼はあらゆる種類の感情をAIに追加することを意味しません。彼は重要な決定を下すのに役立つものだけを意味しました。この出来事を少し考えてみましょ
う。AIセルフドライブ車が高速道路を走行しているとします。中に座っている人は会社の最高経営責任者であり、彼はスケジュールで非常に遅れています。彼が時間通りに行かなかった場合、数百万ドルの損失があります。車内のAIは、できるだけ速く運転して目的地に到達するように指示されています。そして今、ウサギ(または他の動物)が邪魔になります。車が緊急ブレーキをかけると、乗客は重傷を負い、CEOが会議に出席できないため、数百万人の損失が発生します。

今、AIは何をしますか?
AIの場合、彼らの決定は彼らのユーティリティ機能。うさぎを叩き続けると、論理的にはより良い選択肢が示されます。しかし、AIがその決定を下す必要があります。

道徳に基づいた意思決定が重要な役割を果たす状況にAIがくっつく可能性がある場合、このような多くの質問があります。
上記のシナリオは、単なる例です。


1

心の理論

人間で構成された環境で強力な一般的なAIがうまく機能するようにしたい場合、人間が実際にどのように振る舞うかに合った良い心の理論を持つことが非常に役立ちます。その心の理論には、人間のような感情を含める必要があります。そうしないと、この環境の現実と一致しません。

私たちにとって、よく使用されるショートカットは、「この状況で何をしたか」を明示的に考えています。「どんなイベントが、が彼らが今やったことをやる気にさせたでしょうか?」「これが私に起こったとしたらどう思いますか?」AIにそのような推論ができるようにしたい、それは実用的で有用であり、将来のより良い予測とより効果的なアクションを可能にします。

それは実際に(おそらくその方向に何かが有用であろうが、かなりありそうでないものを正確な感情によって駆動されることがないようにそれのためのより良いAIとなりながらも、正確に同じ)、すべてのではなく、「どのような思考の変更私は感じるだろうが」一般的な人間が感じることを仮定できるはずです。それには、人間の感情を正確にモデリングできるサブシステムを実装する必要があります。


1

気をつけて!あなたの質問には、実際には2つの部分があります。質問の意味を混同しないでください。そうしないと、どの部分に答えているのか本当にわかりません。

  1. 「定性的な経験」ごとにAGIに感情を感じさせるべきですか?(恋に落ちたとき、「あなたの心は燃えている」と感じるという意味で)

なぜそれが必要なのかについて明確な目的はないようです。仮説的には、機能的に感情と見分けがつかないものがありますが、AGIに関して質的な経験はありません。しかし、定性的経験の起源についての質問に答えることができる科学的立場にないため、この質問に深く入り込むことはありません。

  1. 外部の観察者からの機能的同等性ごとにAGIに感情を持たせるべきですか?

私見はい。感情が何もしたくないワルなAIを想像することはできますが、AIが人間の価値や感情と統合できることを願っています。したがって、人間とうまく統合されていれば、十分に限定されたAGIが感情に似た何かを持つと仮定するのは自然に思えます。

しかし、明確な心の理論がなければ、「私たちのAGIには感情がありますか?」と尋ねるのは意味がありません。おそらく、私たちの感情に関して、AGIが必要とする生産的な認知エージェントとなる重要なものがあります。

確かに、感情はしばしば認識の見落とされがちな側面です。人々はどういうわけか、感情のないスポックのようなキャラクターは人間の知性の頂点だと考えています。しかし、感情は実際には意思決定の重要な側面です。です。「感情のないインテリジェンス」の問題の例については、この記事を。

フォローアップの質問は「AGIがどのような感情を発達させるか」ということですが、ここでも(まだ)答える立場にありません。


0

人間のような感情を経験するAIを開発することにより、どのような目的が達成されますか?

問題の解決に人間の感情状態に共感する能力が必要な、人間の感情を伴う複雑な問題は、最も効率的に対処できるエージェントによって処理されます人間の感情に共感。

政治。政府。ポリシーと計画。事物が人間の経験についての深い知識を持たない限り、人間の経験で遭遇するすべての問題に対する決定的な答えを提供することはできません。


あなたが行った政治と政府のポイントは素晴らしい例でした。しかし私の考えでは、AIは感情を理解できればよく、必ずしも感情を経験する必要はありません。
セス・シンバ

0

人間の感情は、人間の価値観や、協力して社会を形成する能力に複雑に関係しています。

簡単な例を挙げると、助けを必要とする見知らぬ人に会い、共感を感じます。これはあなたに彼自身を犠牲にして彼を助けることを強いる。次回彼に会うとき、何かが必要だと仮定しましょう。また、彼があなたを助けていないと仮定しましょう、あなたは怒りを感じるでしょう。この感情は、あなた自身をさらに犠牲にして、あなたを彼に罰せざるを得ません。一方、彼はあなたを助けなければ、恥を感じます。これは彼に実際にあなたを助けさせ、あなたの怒りを避け、あなたの初期投資を価値のあるものにします。両方にメリットがあります。

したがって、これらの3つの感情は相互の助けの輪を維持します。始めるための共感、脱出者を罰するための怒り、怒りを避けるための恥。これは正義の概念にもつながります。

価値の整合がAGIの大きな問題の1つであることを考えると、人間のような感情は、私たちの価値を実際に共有し、社会にシームレスに統合するAIへの良いアプローチだと思います。


わかりましたが、父親になると、感情は論理的な説明の単なるショートカットに過ぎないことがわかります。ルールは感情と私たちの生物学から導き出すことができます。そして、それらのルールは、感情と生物学として圧縮された明白でない形式で保持されます。私たちにとっては必要ですが、aiではなく、デジタル形式での実装のコストがルールベースの実装よりも低い場合、AIの最適化として機能する可能性がありますが。ルールの問題は1つだけです。私たちはそれらを完全には知りませんが、AIタスクは私たちよりも狭く、多くのルールは必要ないかもしれません
-MolbOrg
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.