畳み込みニューラルネットワークの線形埋め込み層を理解できませんか?


11

私は「ディープランキングで細かい画像の類似性を学習する」という論文のネットワークアーキテクチャを持っていて、3つの並列ネットワークからの出力が線形埋め込み層を使用してどのようにマージされるのか理解できません。このレイヤーに記載されている唯一の情報は、

最後に、3つの部分からの埋め込みを正規化し、それらを線形埋め込みレイヤーと組み合わせます。埋め込みの次元は4096です。

作者がこのレイヤーについて話しているときに、作者が何を意味するのかを理解するのを手伝ってくれる人はいますか?


この質問に答えがないのは残念です。まったく同じ問題に悩まされているからです。あなたはそれを理解しましたか?
LKM

答えはわかりませんでしたが、3つの部分からの入力を連結して、4096個のノードを含む密な層に渡しました。
A.サム

回答:


1

線形埋め込みレイヤーは、アクティブ化されていない密なレイヤーの単なる仮名でなければなりません。「線形」は、アクティブ化がないことを意味します(アクティブ化はアイデンティティです)。そして、埋め込みはむしろ入力データのベクトル表現の概念です(例:単語の埋め込み)。2番目のベクトルの要素は、最初の要素に要素ごとに単純に追加されると思います。


0

それは論文で言及されています:

ローカル正規化レイヤーは、フィーチャマップをローカル近傍の周囲で正規化し、単位ノルムとゼロ平均を設定します。これは、照明とコントラストの違いに強い特徴マップにつながります。

モデルの各部分を取り、個別に正規化します。

コメントしたように、それらを組み合わせることについては、最も顕著な特徴をキャプチャするために、不完全な表現で非線形性を必要としません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.