回答:
畳み込み層からの出力は、データの高レベルの特徴を表しています。その出力は平坦化されて出力層に接続されますが、完全に接続された層を追加することは、これらの機能の非線形の組み合わせを学習する(通常)安価な方法です。
本質的に、畳み込み層は意味のある低次元のやや不変の特徴空間を提供し、完全に接続された層はその空間で(おそらく非線形)関数を学習しています。
注:FCレイヤーからConvレイヤーへの変換は簡単です。このページで説明しているように、これらの上位FCレイヤーをConvレイヤーに変換すると便利です。
私がすることで、この答えを見つけ アニル・シャルマにQuoraの役に立ちます。
ネットワーク全体(分類用)を2つの部分に分割できます。
特徴抽出:SVMなどの従来の分類アルゴリズムでは、分類を機能させるためにデータから特徴を抽出していました。畳み込み層は、特徴抽出の同じ目的を果たしています。CNNはデータのより適切な表現をキャプチャするため、機能エンジニアリングを行う必要はありません。
分類:特徴抽出後、データをさまざまなクラスに分類する必要があります。これは、完全に接続された(FC)ニューラルネットワークを使用して行うことができます。完全に接続されたレイヤーの代わりに、SVMのような従来の分類器も使用できます。しかし、通常、FCレイヤーを追加して、モデルをエンドツーエンドでトレーニング可能にします。