AIはどのように言語を学習しますか?


11

AIが言語を教える方法が思いつかないことに気づいたとき、私はAIとその仕組みについて考えていました。子供は、言語と写真をオブジェクトに関連付けることで言語を学習する傾向があります(たとえば、人々が犬の周りで「犬」という言葉を言い、後に人々が「犬」と「車」と言って何を学ぶかを理解します」など)。ただし、テキストベースのAIでは、このメソッドを使用して学習することはできませんでした。これらのAIは、あらゆる種類の入力デバイスにアクセスできないためです。

私が思いつくことができる唯一の方法は、英語(またはそれが「話す」ことを意図されている任意の言語)ですべての単語と規則でプログラミングすることですが、これには、場合によっては何年もかかる可能性があります。

これをどのように行うことができるかについて誰かが何か考えを持っていますか?または、すでに完了している場合は、どのように実行しますか?

ちなみに、この文脈では、私はAIを使用して、人間に近い知能を備えた人工知能システムを意味しており、言語に関する予備知識はありません。

回答:


12

一般的な研究分野は、文法帰納法として知られています。

通常、教師あり学習問題として組み立てられ、入力は生のテキストとして表示され、目的の出力は対応する解析ツリーです。トレーニングセットは、多くの場合、肯定的な例と否定的な例の両方で構成されています。

これを達成するための最良の方法は1つではありませんが、これまでに使用されてきたいくつかの手法には次のものがあります。


6

問題の包括的な用語は、自然言語処理(NLP)と呼ばれ、人工知能のトピックです。

この分野には、言語の意味論、文法分析、品詞タグ付け、ドメイン固有のコンテキスト分析など、多くのサブトピックがあります。


5

完全を期すために、自然言語処理(NLP)にはリカレントニューラルネット(つまり、逆方向接続のニューラルネット)が頻繁に使用されることを指摘しておきます。これには、双方向、ジョーダン、エルマンネットワークなどのバリアントが含まれます。Long Short-Term Memory(LSTM)は、より洗練されたニューラルネットアルゴリズムであり、同じ時間とシーケンスベースのタスクを実行できますが、「消失勾配問題」の影響を受けないため、バックプロップのような標準的な学習方法を活用できます。これは、LSTMが「完全なインテグレーター」として見事に設計されているため、長期間にわたる誤差勾配などの計算が非常に簡単になるためです。対照的に、RNNを使用した学習は、理論的には十分に根拠がなく、時間によるバックプロパゲーション(BPTT)などの既存の方法では計算が困難です。時間遅延ニューラルネットワーク(TDNN)では、一連の時間またはトレーニングシーケンス全体で新しいニューロンと新しいトレーニング例ごとに接続を追加することがアイデアです。残念ながら、これは、RNNと同様に、ネットワークのサイズが手に負えなくなったり、忘れたりする前にネットにフィードできるサンプルの数に実際的な制限を課します。NSTMの目的でニューラルネットを使用することを想定している場合、LSTMのメモリははるかに長いため(特にニューラルチューリングマシンで強化されている場合)、これが最初の選択肢になります。ただし、このテーマに関する私の知識は限られているため(まだロープを習得しようとしているため)、見落としている他の重要なニューラルネットアルゴリズムがある可能性があります...

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.