これは用語の問題です。時々、ディープニューラルネットワークを「多層パーセプトロン」と呼ぶ人がいますが、これはなぜですか?私が教えられたパーセプトロンは、重みをトレーニングする特定の方法を使用したバイナリしきい値出力を持つバックレイヤーではない単層分類器(またはリグレッサー)です。パーセプトロンの出力がターゲットの出力と一致しない場合、重みに入力ベクトルを加算または減算します(パーセプトロンが偽陽性または偽陰性を与えたかどうかに応じて)。これは非常に原始的な機械学習アルゴリズムです。トレーニング手順は、多層ケースに一般化されていないようです(少なくとも修正なしでは)。ディープニューラルネットワークはbackpropを介してトレーニングされます。backpropはチェーンルールを使用して、ネットワークのすべての重みを通してコスト関数の勾配を伝播します。
だから、問題は。「多層パーセプトロン」は「ディープニューラルネットワーク」と同じものですか?もしそうなら、なぜこの用語は使用されますか?不必要に混乱させるようです。さらに、用語がある程度互換性があると仮定すると、完全に接続された層(畳み込み層や繰り返し接続なし)で構成されるフィードフォワードネットワークを指すとき、用語「多層パーセプトロン」のみを見ました。この用語はどのくらい広範ですか?たとえば、インセプションネットを指す場合、「多層パーセプトロン」という用語を使用しますか?NLPで使用されるLSTMモジュールを使用するリカレントネットワークについてはどうですか?