ピクセルベースの分類とオブジェクトベースの分類の区別?
リモートセンシングドメインにおけるピクセルベースとオブジェクトベースの分類の違いを明確に理解するのに苦労しており、このコミュニティの誰かが洞察を提供できることを期待しています。 私がこれまでに得た情報に基づいて、私の現在の理解はこれらの線に沿っています: ピクセルベースの分類: 分類はピクセルごとに行われ、その個々のピクセルで利用可能なスペクトル情報のみを使用します(つまり、局所性内のピクセルの値は無視されます)。この意味で、各ピクセルは分類アルゴリズムのトレーニング例であり、このトレーニング例はn次元ベクトルの形式になります。nは画像データのスペクトルバンドの数です。したがって、訓練された分類アルゴリズムは、画像内の個々のピクセルごとにクラス予測を出力します。 オブジェクトベースの分類: 分類は、各ピクセルが互いに関連しているときの各ピクセルの空間特性を考慮して、ローカライズされたピクセルのグループで行われます。この意味で、分類アルゴリズムのトレーニング例はピクセルのグループで構成され、トレーニングされた分類アルゴリズムはそれに応じてグループベースでピクセルのクラス予測を出力します。大まかな例では、画像を同じサイズのn個のセグメントに分割し、各セグメントにクラスを指定します(つまり、オブジェクトを含む/オブジェクトを含まない)。 この考えはこれらの用語の意味に関して正確ですか、それとも私が見逃したものがありますか?