回答:
畳み込み層は、その下の層の異なる位置に同じ(通常は小さい)フィルターを繰り返し適用します。たとえば、入力レイヤーのサイズが512 x 512である場合、入力レイヤーにオーバーレイされた(たとえば)128 x 128グリッドの各ポイントで、同じ8 x 8フィルター(64フィルター係数で指定)を適用する変換レイヤーを持つことができます。 。一方、完全に接続されたレイヤーの各ノードは、入力レイヤーの各ノードに1つずつ、512 x 512の重みを学習します。
したがって、Convレイヤーは、入力のどこかに現れる可能性のあるローカルフィーチャ(たとえば、視覚画像のエッジ)を検出するのに適しています。同じ機能を検出するためにすべてのノードを個別にトレーニングする必要はなく、すべてのノードで共有される1つのフィルターを学習するという考え方です。
(通常、各convレイヤーはいくつかのフィルターのセットを学習し、各フィルターは入力全体に繰り返し適用されます。たとえば、convレイヤーが16の異なる機能を学習する場合、「深さ」は16であると言われます。)
FCレイヤーは、ネットの下位レイヤーによって検出された機能の特定のグローバル構成を検出するために使用されます。これらは通常、ネットワーク階層の最上位に位置し、入力が(以前の、通常は畳み込み層によって)機能のコンパクトな表現に削減された時点にあります。FCレイヤーの各ノードは、その下のレイヤーのすべてのノードで独自の重みのセットを学習します。
したがって、(おおまかに)convレイヤーを入力(例:画像)を共通の機能に分割し、FCレイヤーをそれらの機能をネットワークに認識させるオブジェクトなどにまとめると考えることができます。