パンクロマティック衛星画像はどのように、そしてなぜ高空間解像度に関連付けられていますか?私はグーグルで調べて、それが単一バンド画像であることを発見しましたが、なぜそれがパンクロマティック(すべての色)と呼ばれるのですか?可視領域全体をカバーするということですか?
パンクロマティック衛星画像はどのように、そしてなぜ高空間解像度に関連付けられていますか?私はグーグルで調べて、それが単一バンド画像であることを発見しましたが、なぜそれがパンクロマティック(すべての色)と呼ばれるのですか?可視領域全体をカバーするということですか?
回答:
パンクロマティック画像は、イメージングセンサーが広範囲の光の波長に敏感で、通常はスペクトルの可視部分の大部分に及ぶ場合に作成されます。明るさの違いを検出するには、すべてのイメージングセンサーが特定の最小量の光エネルギーを必要とします。センサーがスペクトルの非常に特定の部分、たとえば青色の波長からの光のみに敏感である(または指向している)場合、センサーで利用できるエネルギーの量は限られています。より広い範囲の波長。この限られたエネルギー可用性を補うために、マルチスペクトルセンサー(赤、緑、青、近赤外画像を作成する種類)は通常、「空間を埋める」ために必要なエネルギー量を取得するために、より大きな空間範囲でサンプリングします 画像検出器。したがって、マルチスペクトルバンド画像は通常、パンクロマティック画像よりも粗い空間解像度になります。スペクトル解像度(つまり、イメージング検出器によってサンプリングされる波長の範囲)と空間解像度の間にはトレードオフがあります。これが、IkonosやGeoeyeなどの商用衛星が一般に3つ以上の比較的粗い解像度のマルチスペクトルバンドと、より細かい空間解像度のパンクロマティックバンドを提供する理由です。重要なのは、パン画像の微細な空間解像度とマルチスペクトル帯域の高いスペクトル解像度を組み合わせることができる、一種の妥協点が存在することです。これはパンクロマティックシャープニングと呼ばれるもので、一般的には衛星画像のスペクトル/空間的妥協を補うために使用されます。マルチスペクトルバンド画像は通常、パンクロマティック画像よりも粗い空間解像度になります。スペクトル解像度(つまり、イメージング検出器によってサンプリングされる波長の範囲)と空間解像度の間にはトレードオフがあります。これが、IkonosやGeoeyeなどの商用衛星が一般に3つ以上の比較的粗い解像度のマルチスペクトルバンドと、より細かい空間解像度のパンクロマティックバンドを提供する理由です。重要なのは、パン画像の微細な空間解像度とマルチスペクトル帯域の高いスペクトル解像度を組み合わせることができる、一種の妥協点が存在することです。これはパンクロマティックシャープニングと呼ばれるものであり、一般的には衛星画像のスペクトル/空間的妥協点を補正するために使用されます。マルチスペクトルバンド画像は通常、パンクロマティック画像よりも粗い空間解像度になります。スペクトル解像度(つまり、イメージング検出器によってサンプリングされる波長の範囲)と空間解像度の間にはトレードオフがあります。これが、IkonosやGeoeyeなどの商用衛星が一般に3つ以上の比較的粗い解像度のマルチスペクトルバンドと、より細かい空間解像度のパンクロマティックバンドを提供する理由です。重要なのは、パン画像の微細な空間解像度とマルチスペクトル帯域の高いスペクトル解像度を組み合わせることができる、一種の妥協点が存在することです。これはパンクロマティックシャープニングと呼ばれるものであり、一般的には衛星画像のスペクトル/空間的妥協点を補正するために使用されます。
ちなみに、これは、短波長赤外線などの長波長で撮影されたマルチスペクトル画像のバンドが、可視バンドと比較してはるかに広い波長範囲でサンプリングされる傾向がある理由でもあります。周囲で跳ね返る反射および放出された電磁エネルギーの量は不均一であり、太陽は可視部分の周りにピークを放出します。短波長の赤外線に到達すると、短波長の可視光と比較してサンプル周辺のエネルギーがはるかに少なくなるため、検出器はより広い範囲に敏感でなければなりません。たとえば、Landsat 8を見ると、SWIR2バンド7は実際に、パンクロマティックバンドよりも広い範囲の波長をサンプリングしています。