ピクセルベースの分類に関する限り、あなたはスポットライトです。各ピクセルはn次元のベクトルであり、サポートベクターマシン、MLE、ある種のknn分類器などを使用しているかどうかにかかわらず、何らかのメトリックに従ってクラスに割り当てられます。
ただし、地域ベースの分類器に関する限り、ここ数年で、GPU、膨大なデータ、クラウド、およびオープンソースの成長によるアルゴリズムの広範な可用性の組み合わせによって推進されている巨大な開発が行われています(促進されています) github)。コンピュータービジョン/分類の最大の開発の1つは、畳み込みニューラルネットワーク(CNN)でした。。畳み込み層は、従来のピクセルベースの分類子と同様に、色に基づいている可能性のある特徴を「学習」しますが、エッジ検出器およびピクセルの領域に存在する可能性のある他のすべての種類の特徴抽出器(したがって畳み込み部分)を作成しますピクセルベースの分類から抽出することはできません。これは、他の種類のピクセルの領域の中央でピクセルを誤分類する可能性が低いことを意味します-分類を実行してアマゾンの真ん中で氷を取得したことがある場合は、この問題を理解できます。
次に、完全に接続されたニューラルネットを、畳み込みを介して学習された「機能」に適用して、実際に分類を行います。CNNのその他の大きな利点の1つは、スケールと回転が不変であることです。通常、畳み込み層と分類層の間に中間層があり、プーリングとドロップアウトを使用してフィーチャを一般化し、オーバーフィットを回避し、周りの問題を支援しますスケールと方向。
たたみ込みニューラルネットワークに関するリソースは多数ありますが、この分野の先駆者の1人であるAndrei KarpathyのStandordクラスが最良であり、講義シリーズ全体がyoutubeで利用できます。
確かに、ピクセルベースとエリアベースの分類を処理する他の方法がありますが、これは現在最先端のアプローチであり、機械翻訳や自動運転車など、リモートセンシング分類以外の多くのアプリケーションがあります。
TensorFlowのセットアップとAWSでの実行の手順を含む、タグ付きトレーニングデータにOpen Street Mapを使用した地域ベースの分類の別の例を次に示します。
これは、エッジ検出に基づく分類器のGoogle Earth Engineを使用した例です。この場合、ピボット灌漑用です。ガウスカーネルと畳み込みだけを使用しますが、領域/エッジベースのアプローチの威力を示しています。
ピクセルベースの分類に対するオブジェクトの優位性はかなり広く受け入れられていますが、オブジェクトベースの分類のパフォーマンスを評価するリモートセンシングレターの興味深い記事があります。
最後に、面白い例として、地域/畳み込みベースの分類器を使用しても、コンピュータビジョンは依然として非常に難しいことを示しています。幸いなことに、GoogleやFacebookなどの最も賢い人たちは、犬、猫、犬や猫の異なる品種。そのため、リモートセンシングに興味のある人は、夜も簡単に眠ることができます:D