最近、1x1畳み込みに関するYan LeCunsのコメントを読みました。
畳み込みネットでは、「完全に接続されたレイヤー」などはありません。1x1畳み込みカーネルと完全な接続テーブルを持つ畳み込み層のみがあります。
ConvNetsが固定サイズの入力を必要としないことは、あまりにもまれな事実です。単一の出力ベクトル(空間範囲なし)を生成する入力でそれらをトレーニングし、それらを大きな画像に適用できます。単一の出力ベクトルの代わりに、出力ベクトルの空間マップを取得します。各ベクトルは、入力上の異なる位置にある入力ウィンドウを認識します。 そのシナリオでは、「完全に接続されたレイヤー」は実際には1x1の畳み込みとして機能します。
これの簡単な例を見てみたい。
例
完全に接続されたネットワークがあると仮定します。入力レイヤーと出力レイヤーのみがあります。入力層には3つのノードがあり、出力層には2つのノードがあります。このネットワークが有するのパラメータを。さらに具体的にするために、出力レイヤーとウェイトマトリックスにReLUアクティベーション関数があるとしましょう。
ように、ネットワークは、と。
たたみ込み層はどのように見える必要がありますか?LeCunは「フル接続テーブル」とはどういう意味ですか?
同等のCNNを取得するには、まったく同じ数のパラメーターが必要です。上記からMLPが有するのパラメータを。