動いている飛行機のこの衛星画像に、奇妙なアーチファクトのある赤、緑、青の帯が表示されるのはなぜですか


12

私はこの衛星画像http://goo.gl/Wv503u)に遭遇し、都市上空を飛行中の飛行機を撮影しました。飛行機の動きによる色の影響を説明するのに少し問題があります。

私が想像しているのは、わずかに異なる時間に撮られた青、緑、赤のフィルター処理された写真をブレンドすることによって画像が構築されていることです。これはフルカラー画像を作成するのに十分であり、動いているオブジェクトによって引き起こされるいくつかの色のアーティファクトを説明します。

しかし、翼には赤、緑、青の2つのバンドがあり、3つ以上の写真の組み合わせを示唆していることに気づきました。また、尾の色も同じように混ざっていないようです。赤、黄、マゼンタ、シアン、青が見えます。これは、翼と尾の間の速度の違い(私は不可能だと思います)または何らかのシャッター効果を示唆しています。また、飛行機の機首と翼の前縁にいくつかの輪郭があります。これらは赤外線の不完全なフィルタリングが原因ですか?または、ミックスにLumaコンポーネントが追加されていますか?

どうしたの?カメラについて何を学ぶことができますか?

編集:リンクをクリックしたときにブラウザに表示されるスクリーンショットを追加しました 動いている飛行機


2
私は彼らのカラーチャンネルにそれらを分割している:i.stack.imgur.com/ot8VY.jpg i.stack.imgur.com/uZv0B.png i.stack.imgur.com/JFNhb.png i.stack.imgur.com /toADb.pngモーションブラーに非常によく似ています(青、緑、赤が最適な順序です)+ 3 ccdカメラのわずかに異なるシャッターモーメント。残りのアーティファクトは、XYZからRGBカラースペースへの変換で行われる計算で説明される場合があります。
PlasmaHH 2014年

回答:


9

AJはここで正しいです。表示されているのは、衛星と航空機の両方が地面(写真の目的のターゲット)に対して動いているため、モーションブラーの結果です。Google Earthやその他で目にするこれらのきれいな写真は、赤、緑、青のフィルター処理された画像を組み合わせて、いわゆる「マルチスペクトル」画像(MSI)を作成したものです。単一の画像に。通常、カラーフィルター処理されたバンドは解像度が低く(1〜2メートルのGSD、2つの隣接するピクセルの中心間の距離である地上サンプル距離と考えます)、地上座標はサブメートル解像度のグレースケールによって提供されます(0は完全な暗さ)。 255は完全に白)または「パンクロマティック」画像(PAN)です。PANは、座標と相対強度情報(コントラスト)を提供します。標高処理(通常、米国にいる場合はUSGSのデジタル標高モデルまたはDEM)、オルソ補正(地球がなくても画像が平らに見えるように調整)、投影(地球は丸い、断面を配置しようとする)を追加します。曲線ではなく正方形に変換すると、エラーが発生します)、および補間(最終的なイメージを作成するためのPANとMSI間の解像度の違いによる)、および最終的な製品が得られます。本当に心を吹き飛ばすために、天底とセンサーの角度も考慮する必要があります(衛星は真下を向いておらず、カメラは地球に対して太陽と同じ角度にあります)。オルソ補正(地球がそうでなくても画像が平らに見えるように調整する)、投影(地球は丸い、曲線の代わりにその断面を正方形にしようとするとエラーが発生する)、および補間(解像度の違いによる) PANとMSIを使用して最終的なイメージを作成し、最終的な製品が完成します。本当に心を吹き飛ばすために、天底とセンサーの角度も考慮する必要があります(衛星は真下を向いておらず、カメラは地球に対して太陽と同じ角度にあります)。オルソ補正(地球がそうでなくても画像が平らに見えるように調整する)、投影(地球は丸い、曲線の代わりにその断面を正方形にしようとするとエラーが発生する)、および補間(解像度の違いによる) PANとMSIを使用して最終的なイメージを作成し、最終的な製品が完成します。本当に心を吹き飛ばすために、天底とセンサーの角度も考慮する必要があります(衛星は真下を向いておらず、カメラは地球に対して太陽と同じ角度にあります)。

出典:RemoteView(Textron Systemsツール)とDigitalGlobeによる3年以上の地理空間イメージングソフトウェアの経験、4年の大学数学(ほとんどすべての学部の大学計算コース)。


+1。技術用語と、私が説明していたことの詳細についての素晴らしい更新。
AJヘンダーソン

7

私の推測では、衛星の運用方法に関係している可能性があります。赤、緑、青の画像を別々にキャプチャして、それらを組み合わせる場合があります。この場合、2つのことが起こります。まず、平面は各色のショット間を移動します。

次に、衛星もかなり動きます。衛星の動きを補正することはできますが、補正の量は、画像化されるオブジェクトの衛星からの距離に依存します。飛行機は地上よりも7マイルも離れていない可能性があるため、この補正はかなり大幅に行われる可能性があります。


2
実際、これは航空写真で、飛行機はそれほど高くなく(数千フィート)、おそらく20kftくらいから撮った写真だと思います。
PlasmaHH 2014年

1
@PlasmaHH-可能性はありますが、同じ理由が適用されます(ただし、空中カメラの場合、カメラのメンテナンスが容易であるため、連続撮影はあまり期待できません)。
AJヘンダーソン

1
同意-これはおそらく航空写真です。最近まで、実際には昨日、衛星は50cmを超える解像度の画像をキャプチャできませんでした。この画像は、20〜30に似ていますが、おそらくより良いものです。
Jakub Sisak GeoGraphics 14年

4

画像を見ると、衛星のみから提供されたものではありません。私は、Digital Globe WV3およびWV4センサー用のセンサーとカメラを構築した会社で働いており、センサー、動き補償、その他の設計作業、およびこれらのセンサーの画質分析を行いました。あなたが投稿した画像の空間解像度は、その時点で市販されているプラ​​ットフォームで市販されている解像度を超えています。(ライセンスと条約によって管理されます。)

あなたが見るアーティファクトは空中センサーからのアーティファクトであると私は信じています。通常、空中センサーは、センサー領域全体の画像の遷移に対して動き補償され、センサーの相対対地速度と、地上の方向と高度を考慮に入れます。この例では、地面がセンサーに対して相対的な方向に移動していない対象の航空機があります。したがって、動き補償はそれほどうまく機能しません。また、センサーアレイにはいくつかのジオメトリがあり、それらは異なるマスクやスキャン戦略を採用しています。

一般に、高解像度の大面積カバレッジセンサーは、一部のスキャナーや写真/ドキュメントコピー機と同様に、プッシュブルームタイプのアレイです。撮像されたオブジェクトが地上のターゲットと同じように移動しない場合、サンプリングエラーが発生し、観察したようなアーティファクトが発生します。

Google Earthでその場所を見ると、画像が更新されているため、画像データを取得してアーティファクトを戻し、オブジェクトの相対的な動きを伝えることができませんでした。しかし、あなたが提示したもの、および市販の衛星と衛星画像に関する私の知識を考えると、画像は宇宙ベースのものではないでしょう。

私はこの分野で数十年にわたって画像科学者として働いており、印象を与えていますが、エフェメリスデータとセンサー設計に関する仮定を行うことを含む、より厳密な分析を行うためにデータを分析していません。私はあなたが投稿した時間を考慮に入れ、特に商業宇宙環境で利用可能なセンサーの知識を適用しました。


-2

私はそれが「焦点面」シャッターの効果であると思います。これは、動くターゲットを撮影しているときに一眼レフカメラで遭遇する一般的な効果です。被写体の動きがシャッターの移動方向と平行であり、オブジェクトがかなりの速度を持っている場合、画像の「ストレッチ」が行われます。これは、翼と尾翼の前縁にはっきりと見えるものです。


1
なぜカラーアーチファクトなのですか?
プロフィールを読んでください
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.