モチベーションを実装する現在の方法は、ある種の人為的な報酬です。たとえば、DeepmindのDQNは、ゲームのスコアによって決まります。スコアが高いほど優れています。AIは、最も多くのポイントを獲得し、したがって最も多くの報酬を獲得するようにアクションを調整することを学習します。これは強化学習と呼ばれます。報酬は、いわばAIを行動に適応させる動機付けになります。
より専門的な用語では、AIはユーティリティを最大化することを望んでいます。これは、実装されているユーティリティ関数に依存します。DQNの場合、これはゲームのスコアを最大化することになります。
人間の脳は同様に機能しますが、少し複雑ですが、多くの場合、それほど単純ではありません。私たち人間は通常、ドーパミンとセロトニンの高出力を生成するために行動を調整しようとします。これは、強化学習中にAIを制御するために使用される報酬に似ています。人間の脳は、どのアクションがこれらの物質を最も多く生成するかを学習し、出力を最大化する戦略を見つけます。もちろん、これはこの複雑なプロセスを単純化したものですが、全体像をつかむことができます。
動機について話すときは、意識やクオリアと混同しないでください。これらはモチベーションにまったく必要ありません。AIで意識とクオリアを議論したい場合、それはまったく異なる球技です。
子供は好奇心のために興味がありません。子供の脳の効用機能が報酬を与える神経伝達物質を放出することで探求に報酬を与えるため、探求するときに積極的に強化されます。そのため、メカニズムは同じです。これをAIに適用することは、新しい経験に報いるユーティリティ関数を定義することを意味します。ある種の強化報酬なしには、内なるドライブはありません。