Inception v2とInception v3の違いは何ですか?


18

の畳み込みで、より深い行くには、元の開始モジュールを含むGoogleNetについて説明します。

ここに画像の説明を入力してください

Inception v2の変更点は、5x5の畳み込みを2つの連続した3x3の畳み込みに置き換え、プーリングを適用したことです。

ここに画像の説明を入力してください

Inception v2とInception v3の違いは何ですか?


単にバッチの正規化ですか?または、Inception v2にはすでにバッチ正規化がありますか?
マーティントーマ

github.com/SKKSaikia/CNN-GoogLeNetこのリポジトリには、GoogLeNetのすべてのバージョンとその違いが保持されています。試してみる。
アマルティアランジャンサイキア

回答:


22

論文では、バッチ正規化、Sergey et al、2015。論文 Convolutions with deeping with convolutions」で GoogleNetのバリアントであるInception-v1アーキテクチャを提案し、その間、Inceptionへのバッチ正規化(BN-Inception)を導入しました。

(Szegedy et al。、2014)で説明されているネットワークとの主な違いは、5x5畳み込み層が、最大128個のフィルターを備えた3x3畳み込みの2つの連続層に置き換えられていることです。

また、コンピュータービジョンのインセプションアーキテクチャを再考する論文で、著者はInception-v2とInception-v3を提案しました。

インセプション-V2、彼らはインセプション-V1に因数分解(小さい畳み込みに因数分解畳み込み)といくつかのマイナーな変更を導入しました。

従来の7x7コンボリューションを3つの3x3コンボリューションに分解したことに注意してください。

インセプション-V3は、BN-補助を追加インセプション-V2の変異体です。

BN補助は、畳み込みだけでなく、補助分類器の完全に接続された層も正規化されているバージョンを指します。モデル[Inception-v2 + BN補助]をInception-v3と呼びます。


3

daolikerによって言及されたものの横

開始v2は、深さ64の最初のレイヤーとして分離可能な畳み込みを利用しました

紙からの引用

このモデルでは、最初の畳み込み層に深さ乗数8の分離可能な畳み込みを使用しました。これにより、トレーニング時のメモリ消費量が増加する一方で、計算コストが削減されます。

なぜこれが重要なのですか?これは、v3およびv4およびインセプションresnetで削除されましたが、後に再導入され、mobilenetで頻繁に使用されるためです。


1

答えは、Convolutionsペーパーを使用したGoing deeper with https://arxiv.org/pdf/1512.00567v3.pdfにあります。

表3を確認してください。Inceptionv2は、「Going deeper with convolutions」で説明されているアーキテクチャです。Inception v3は、異なるトレーニングアルゴリズム(RMSprop、ラベルスムージングレギュライザー、トレーニングを改善するためのバッチノルムを備えた補助ヘッドの追加など)を備えた同じアーキテクチャ(小さな変更)です。


1

実際、上記の答えは間違っているようです。確かに、それは命名の大きな混乱でした。ただし、Inception-v4を紹介する論文で修正されたようです(「Inception-v4、Inception-ResNet、および学習への残留接続の影響」を参照)。

Inceptionの深い畳み込みアーキテクチャは、(Szegedy et al。2015a)でGoogLeNetとして導入され、ここではInception-v1と名付けられました。その後、Inceptionアーキテクチャはさまざまな方法で改良されました。最初はバッチ正規化の導入(Ioffe and Szegedy 2015)(Inception-v2)です。その後、3回目の反復で追加の因数分解のアイデア(Szegedy et al。2015b)により、このレポートでInception-v3と呼ばれます。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.