基本的に、完全たたみ込みトレーニングは、MxM画像全体を取得し、単一のConvNet転送パスですべてのサブ画像の出力を生成します。パッチワイズトレーニングは、サブイメージを明示的に切り取り、独立したフォワードパスで各サブイメージの出力を生成します。したがって、完全畳み込みトレーニングは通常、パッチ単位のトレーニングよりもかなり高速です。
したがって、完全にたたみ込みトレーニングを行うには、次のように更新します。
- MxM画像全体(または複数の画像)を入力
- ConvNetを介してプッシュ->出力のマップ全体を取得(画像あたりの最大サイズMxM、場合によってはそれよりも小さい)
- すべての出力の損失を使用して更新を行います
これは非常に高速ですが、パッチごとのトレーニングと比較してトレーニングサンプリングプロセスが制限されます。同じ画像に対して多くの更新を行わなければなりません。(実際には、すべてのサブイメージのすべての可能な更新)トレーニングの1つのステップ中。そのため、画像の各受容フィールド(別名サブイメージ)がパッチワイズトレーニング手順のトレーニングバッチに含まれている場合(パッチワイズトレーニングの場合、10のうち2つが可能になる可能性があります)画像Aからのサブ画像、画像Bからの8つの可能なサブ画像のうちの3つなど)。次に、完全畳み込みトレーニング中にすべての出力を使用しないことで、パッチワイズトレーニングに再び近づくと主張します(単一のトレーニングステップで画像のすべてのサブイメージに対して可能な更新をすべて行っていないため)。ただし、計算の一部が無駄になります。また、セクション4.4 /図5では、