タグ付けされた質問 「emotional-intelligence」

4
SiriとCortanaのAIプログラムはありますか?
SiriとCortanaは、人間とほとんど同じように通信します。主に質問(アラームやリマインダーを設定しない)で検索結果を表示するGoogleとは異なり、SiriとCortanaは人と同じように回答を提供します。 それで、彼らは実際のAIプログラムなのでしょうか? (「質問」とは、学術関連の質問やルート/気温の質問ではなく、意見に基づく質問を意味します)。

5
感情的知性はどのように実装できますか?
私は感情を認識し、制御し、表現し、対人関係を慎重かつ共感的に扱う能力として定義された感情的知性を見てきました。 人工知能がこの問題に取り組み始め、コンピューターの感情知能を開発し始めるための戦略は何ですか? 今日これがすでにある程度起こっている例はありますか? チューリングテストに合格したコンピューターは、必ずしも感情的な知性を表現しないのでしょうか、それとも明らかなコンピューターと見なされますか? おそらくそれが、テストに合格する初期のプログラムが、おそらく感情的な知能が低いと思われる若者を表した理由です。

11
人間のような感情を経験するAIを開発することにより、どのような目的が達成されますか?
で、最近のウォールストリートジャーナルの記事、ヤンLeCunnは、次の文を作ります: 人間レベルのAIを達成するための次のステップは、インテリジェントな(自律的ではない)マシンを作成することです。車内のAIシステムは安全に家に帰りますが、中に入ったら別の目的地を選択することはありません。そこから、感情や道徳的価値とともに、基本的なドライブを追加します。脳と同じように学習する機械を作成すれば、人間のような資質と欠陥を継承する機械を想像するのは簡単です。 個人的には、感情を経験するAIを作成する理由がないため、人工知能の感情について話すのは馬鹿げていると一般に考えています。明らかに、ヤンは同意しません。質問は、これを行うことでどのような目的が果たされるのでしょうか?AI は有用なツールとして機能するために感情を必要としますか?

1
AIは苦しむことを学ぶことができますか?
私は最初に「AIは苦しむ可能性があるか?」ということを念頭に置いていました。苦しみは人間にとって重要です。かかとにダメージを与えていると想像してください。痛みがなければ、あなたはそれを害し続けます。AIについても同様です。しかし、私は自分に「ちょっと待ってください。すでに存在しています。表示されるのはエラーと警告です」と言いました。苦しみと同じ目的があると言えます。しかし、何か足りないものを感じました。痛みを感じる。エラーとバグは単なるデータです。ロボットが進化するために機械学習と遺伝的プログラミングを使用できるとしましょう。 AIは苦しむことを学ぶことができますか?単なる情報として知っているだけではありません。



4
恐怖をニューラルネットワークにどのようにプログラムしますか?
スパイダーに一度攻撃された場合、チャンスがあれば、再びスパイダーに近づくことは決してありません。 ニューラルネットワークモデルでは、クモでの経験が悪いと、学習率によってはクモに近づく可能性がわずかに低下します。 これは良くない。クモを無視するためにクモにかまれた例が何百も必要ないように、ニューラルネットワークに恐怖をプログラムするにはどうすればよいでしょうか。また、クモの近くに行く確率を下げるだけではないのですか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.