実際、それは状況に依存するわけではなく、すべて統計エラーに関するものです。
より高い解像度にリサンプリングするたびに、誤った精度が導入されます。整数のみでフィート単位で測定されたデータのセットを検討してください。任意のポイントは、実際の場所から+/- 0.5フィートの位置にあります。最も近い10分の1にリサンプリングすると、任意の数値は実際の位置から+/- 0.1以下であると言っています。しかし、元の測定値はそれほど正確ではなく、現在は誤差の範囲内で動作しています。ただし、他の方法で低解像度にリサンプリングした場合、特定のポイント値はより大きなサンプルの誤差範囲内に含まれるため、確実に正確であることがわかります。
統計数学の外で、これが最初に思い浮かぶのは土地調査です。古い調査では、方位を最も近い30分まで、距離を10分の1までしか指定していませんでした。これらの測定値で境界トラバースをプロットすると、多くの場合、フィート単位で測定された閉鎖(開始点と終了点は同じである必要がありますが、同じではありません)になります。現代の調査は、少なくとも1秒の最も近い2分の1から100分の1を対象にしています。派生値(ロットの面積など)は、精度の違いによって大きく影響を受ける可能性があります。導出された値自体も、非常に正確なものとして指定できます。
分析の場合、より高い解像度にリサンプリングすると、結果は、それらが基づいているデータよりもはるかに高い精度を意味します。90mのSRTMを考慮してください。どのような方法で標高(平均/最大/平均リターン)を測定する場合でも、その近隣と区別できる最小単位(ピクセル)は90mです。それを30mにリサンプリングする場合、次のいずれかです。
- 結果として得られる9つのピクセルすべてが同じ高さであると仮定しますが、実際には1つだけである場合があります-中央または左上-
- ピクセル間を補間し、以前には存在しなかった派生値を作成します
したがって、どちらの場合でも、新しいサブサンプルが実際に測定されなかったため、誤った精度が導入されます。
関連質問:土地適合性のモデリングにはどのようなプラクティスが利用できますか?