回答:
ディープニューラルネットワーク、より具体的には畳み込みニューラルネットワーク(CNN)は、基本的に、入力に対するいくつかのフィルターの作用によって定義されるレイヤーのスタックです。これらのフィルターは通常カーネルと呼ばれます。
たとえば、たたみ込み層のカーネルはたたみ込みフィルターです。実際には畳み込みは行われませんが、相互相関が行われます。ここでのカーネルサイズは、フィルターマスクのwidthxheightを指します。
たとえば、最大プーリングレイヤーは、マスク(カーネル)内のピクセルのセットから最大値を持つピクセルを返します。そのカーネルは入力をスイープして、サブサンプリングします。
したがって、サポートベクターマシンや正則化ネットワークのカーネルの概念とは何の関係もありません。あなたはそれらを特徴抽出器と考えることができます。
上記からわかるように、カーネルはカーネルマトリックスとも呼ばれ、その中間の関数であり、そのサイズ、ここでは3がカーネルサイズです(カーネルの幅はカーネルの高さに等しい)。
カーネルは必ずしも対称的である必要はないことに注意してください。TensorflowのConv2Dのドキュメントからこのテキストを引用することで確認できます。
kernel_size:2D畳み込みウィンドウの高さと幅を指定する整数または2つの整数のタプル/リスト。単一の整数で、すべての空間次元に同じ値を指定できます。
ただし、通常は、幅と高さを等しくするだけです。そうでない場合、カーネルサイズは2のタプルにする必要があります。また、カーネルサイズは2より大きい数値にすることができます。たとえば、Conv3Dの下の例では(4、4、3):