他の機能マップを作成するために、機能マップにカーネルをどのように適用しますか?


44

畳み込みニューラルネットワークの畳み込み部分を理解しようとしています。次の図を見てください。

ここに画像の説明を入力してください

4つの異なるマップ(サイズ)がある最初の畳み込み層を理解するのに問題はありません。これは、入力画像と畳み込んで4つの特徴マップを取得します。k×k

私が理解できないのは、次の畳み込み層で、4つのフィーチャマップから6つのフィーチャマップに移動します。このレイヤーに6つのカーネルがあると想定しています(その結果、6つの出力機能マップが提供されます)が、これらのカーネルはC1に示されている4つの機能マップでどのように機能しますか?カーネルは3次元ですか、それとも2次元であり、4つの入力フィーチャマップにわたって複製されていますか?


1
私は同じ場所で立ち往生しています。残念ながらYann Lecunの論文もそれを説明していません-私はここ数日間、いくつかのpdfやビデオを見ており、誰もがその部分をスキップしているようです。Yann Lecunの論文では、実際にレイヤー2のマッピングテーブルを使用した6〜16の機能マップについて説明しています。最初の出力機能マップは、0,1,2入力機能マップから入力を取得します。しかし、その出力フィーチャマップは10 x 10であり、3つの入力フィーチャマップは14 x 14です。何が起こっているのか理解できましたか?3Dカーネルですか?または、location * kernelからの出力を平均化していますか(畳み込み)?
Run2 14年

回答:


18

カーネルは3次元で、幅と高さを選択できますが、深さは入力レイヤー内のマップの数に等しくなります(一般的に)。

それらは確かに2次元ではなく、同じ2Dロケーションの入力フィーチャマップ全体に複製されます!つまり、カーネルは、入力フィーチャマップ全体で同じウェイトを使用するため、特定の場所でその入力フィーチャを区別することができません。


5

レイヤーとカーネルの間には必ずしも1対1の対応はありません。それは特定のアーキテクチャに依存します。投稿した図は、S2レイヤーに6つの機能マップがあり、それぞれが前のレイヤーのすべての機能マップを組み合わせていること、つまり、機能のさまざまな組み合わせを示唆しています。

参照がなければ、これ以上言うことはできません。たとえば、このペーパーを参照してください


特にLeNet-5を見ており、このdeeplearning.net/tutorial/lenet.htmlを参考として使用しています。そのページから、カーネルは3次元であるように見えますが、私には100%明確ではありません。
utdiscant 14

2
次に、このペーパーを読む必要があります(yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf)。8ページでは、さまざまなレイヤーがどのように接続されているかを説明しています。前述したように、layerの各フィーチャをレイヤー化すると、同じ場所にある前のレイヤーの複数のフィーチャが結合されます。
jpmuc 14

2
リンクは無効です。
2015


0

この記事は役立ちます。3月26日からのティムデットマーズによるディープラーニングの畳み込みについて

最初の畳み込み層のみを説明しているため、実際には質問に答えていませんが、CNNの畳み込みに関する基本的な直観の良い説明が含まれています。また、畳み込みのより深い数学的定義についても説明します。質問のトピックに関連していると思います。


1
サイトへようこそ。私たちは質の高い統計情報の永続的なリポジトリを質問と回答の形で構築しようとしています。したがって、linkrotによるリンクのみの回答には注意が必要です。完全な引用と情報の要約をリンクに投稿できますか?
GUNG -復活モニカ

@gung、通知をありがとう、コンセプトを誤解して申し訳ありません。状況は次のとおりです。この記事は実際には質問に答えませんが、CNNについての基本的な直感を探していたときにこの質問を見つけました。はい、削除した方が良いでしょう?ありがとうございました。
アナトリーヴァシリエフ

「この記事は思考の糧として役立つかもしれないが、質問に完全に答えているわけではない」などと言ってもいいと思う。ここには価値があるかもしれません。リンクが機能しなくなった場合に備えて、完全な引用を提供し、含まれている情報の要約を提供してください。
GUNG -復活モニカ

追加情報をありがとう。論文の完全な引用(著者、年、タイトル、ジャーナルなど)とその内容の要約を提供できますか?
GUNG -復活モニカ

もちろん、@ gungです。しかし、この記事はこのブログにしか掲載されていないようですので、他の有益な情報は見つかりませんでした。私の見解を明確にしていただきありがとうございます
アナトリーヴァシリエフ
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.