タグ付けされた質問 「landsat」

NASAと米国地質調査所が共同で管理する一連の地球観測衛星ミッション。

8
LANDSATデータを使用している人は何ですか?
明らかにそれは潜在的に非常に強力なツールですが、人々がどの実用的なアプリケーションに使用しているのか興味がありますか? 確かに、これは非常に広範な質問です...私が尋ねる理由は、私は個人的に多くのアプリケーションを認識しているが、他の多くの人が共有するのが面白いかもしれない他の多くの新しい用途を考えていると確信しているからです、考えてみてください。 さらに、LANDSATデータを自分で使用している場合、データから必要なものを取得するためにどのようなワークフローを経験していますか?

9
一時的なランドサット画像を取得するための最良/最も簡単な方法は何ですか?
光学画像を扱ってからしばらく経ちました。いくつかのLANDSATシーンを使用して、中緯度で土地被覆分類を実行する必要があります。一部のオンラインツールがまだ画像を販売していることに気づきましたが、今では無料でアーカイブが提供されているという印象を受けました。 一時的なランドサット画像を取得するための最良/最も簡単な方法は何ですか?

3
どのリモートセンシング衛星が植生範囲のマッピングに最適か
私は現在、リモートセンシングクラスの課題を書いていますが、正解はあると思いますが、生計のためにこのようなことをする人はどう思うかと思っていました。 問題は:どの衛星が Landsat TM(Thematic Mapper)およびSPOT 5のを使用して300km x 300kmの調査範囲の一般的な範囲をマッピングするかです。 私の答えは、SPOT 5を使用すると解像度が高くなり、Landsat TMの30m解像度に比べてより細かい範囲を取得できるようになるということでした。ただし、SPOT 5のスワス領域は小さいため、より多くの画像を使用する必要があります。SPOT 5での2200kmのVMI帯についても考えましたが、解像度は1kmです。 考え?

2
QGISでSLC-Off Landsat 7 ETM +画像のギャップを埋める方法は?
問題の説明: 2003年5月31日に、Landsat 7 Enhanced Thematic Mapper(ETM +)センサーにスキャンライン補正(SLC)の障害が発生しました。それ以来、すべてのLandsat ETM +画像には各シーンの両側にくさび形の隙間があり、データ損失は約22%でした。これらの画像は、USGS GloVis Webサイトから無料でダウンロードでき、L7 SLC-offコレクションにあります。 出典:イェール大学 独自のソフトウェア(ENVI、Erdasなど)の代わりにQgisを使用してギャップを埋めることはできますか?

2
衛星データを使用した氷の種類の区別
氷河の領域を雪(存在する場合)と氷のカテゴリで分類したいと思いますが、最も重要なことは、古い氷と新鮮な氷の間です。フィールドで認識できるさまざまなプロパティがありますが、衛星データを使用してこれを実行できますか?(30 / 15mの空間解像度のため、Landsatが望ましい)

1
PythonでのGDALを使用したジオティフの読み取り、変更、および書き込み
Python GDALバインディングとnumpyを使用して、リモートセンシング画像処理のロープを学ぼうとしています。最初の試みとして、Landsat8ジオティフファイルを読み取り、簡単な操作を行い、結果を新しいファイルに書き込みます。以下のコードは正常に動作するように見えますが、操作されたラスターではなく、元のラスターが出力ファイルにダンプされます。 コメントや提案は歓迎しますが、特に、操作されたラスターが結果に表示されない理由についてのメモです。 import os import gdal gdal.AllRegister() file = "c:\~\LC81980242015071LGN00.tiff" (fileRoot, fileExt) = os.path.splitext(file) outFileName = fileRoot + "_mod" + fileExt ds = gdal.Open(file) band = ds.GetRasterBand(1) arr = band.ReadAsArray() [cols, rows] = arr.shape arr_min = arr.Min() arr_max = arr.Max() arr_mean = int(arr.mean()) arr_out = numpy.where((arr < arr_mean), 10000, …

1
GRASSで画像分類のためにLandsat画像をパンシャープンするには?
パンシャープンされた15m解像度の画像を使用して、GRASSでi.cluster> i.maxlikを使用して、Landsatシーンの教師なし分類を行う方法を学習したいと思います(Wikiの例では通常の30m解像度を使用しています)。 i.pansharpen最初にパンシャープン画像を作成するために使用してみましたが、またはi.pansharpenを使用して結合できる3つのチャネルしか出力できません。私の知る限り、画像分類プロセスには、完全なマルチスペクトルバンド1〜7が必要です。15m解像度のバンド8画像を使用してパンシャープンされた個別のバンド(バンド1〜7)を生成する方法画像分類プロセス?d.rgbr.composite 私は彼らがこれをどのように行ったかを示す論文を見つけました。基本的には、何らかの種類の主成分分析を使用して、30mのマルチスペクトルバンドを15mのパンクロマティックバンドに何らかの方法でマージしました。正確な引用は次のとおりです。 「この方法では、最初に30メートルのマルチスペクトル画像を15メートルにリサンプリングします。次に、マルチスペクトル画像の6つの主成分すべてを計算します(コース解像度のためにサーマルバンドを削除しました)。その後、パンクロマティックバンドのヒストグラム(15メートル解像度)は30メートル画像の最初の主成分のヒストグラムに一致するように再スケーリングされ、最初の成分は再スケーリングされたパンクロマティックバンドに置き換えられます。パンクロマティック画像の広いスペクトルバンド。置換後、6つのコンポーネントは元のデータ空間に変換され、空間解像度が向上します。」 まず、この論文はアルゴリズム/公式をまったく示していませんでした。上記の引用を対応する数式に変換する方法がわかりません。i.pansharpen通常のBroveyやIHSの代わりにPCAアルゴリズムを使用できることに気づきましたが、それでも出力は赤、青、緑の3チャンネルのみになります-悲しいことに、それらを画像分類に使用する方法がわかりません.. したがって、新しいPCAアルゴリズムを手動で記述しようとして頭を割ろうとする前に、パンシャープンLandsat画像で画像分類を実行するためのより簡単でより良い方法を指摘するのを手伝ってくれる人はいますか?つまり、もっと簡単な方法があるはずですよね?シンプルなものが欠けているような気がします。 残っている唯一のルートが自分のスクリプトを書くことである場合、皆さんは私がやろうとしていることの例に似ている何かをそこに指摘していただけますか? どんな助けも大歓迎です!

1
土地利用分析のために航空写真と衛星写真を比較する方法は?
私は、1950年代、1980年代、1990年代の4つの期間と5000ヘクタールの最大サイズを持つ特定の地域の現在の土地利用被覆のダイナミクスを比較することに興味があります。 最初の3期間は縮尺1:20 000の詳細な航空写真が利用できますが、現在の写真は利用できません。使用できる唯一のオプションは、無料でダウンロードできるLANDSAT画像などのより粗い縮尺画像です。詳細な画像を購入する資金がありません。 私の質問は、より詳細な写真から得られた情報を、そのような小さな領域のLANDSAT画像を使用して得られる情報とどのように比較できるのかということです。 誰かがこの分析の可能な結果と結果を提案できるか、または出口の提案をいただければ幸いです。

2
Landsatラスター画像から道路を抽出する
熱帯雨林における道路網の拡大に関する研究のために、私はランドサット画像から道路を抽出しようとしています。道路が目ではっきりと見えるシャープで雲のないコンポジットがすでにありますが、ラインフィーチャにそれらを抽出するのは難しいことがわかっているので、Landsatが提供する大きな画像を処理できる優れたアルゴリズムまたは方法を誰かが知っているかどうか疑問に思いましたか?Grassのr.thinを試しましたが、うまくいかないようです。

2
Landsat ETM +パンクロマティックバンドの波長ステップが可視範囲を超えるのはなぜですか?
Landsat ETM +バンド8(パンクロマティック)は、空間解像度の点でLandsat-8 OLIのパンクロマティックバンド8と同じです(セルサイズ15 x 15m)。ただし、両方のバンドの波長には大きな違いがあります。ETM + .52-.90およびOLI 0.503-0.676(マイクロメートル)。 https://landsat.usgs.gov/what-are-band-designations-landsat-satellitesを参照してください 明らかに、ETM +の波長は可視範囲を超えています。両方のバンド間の視覚的な比較も、これらの違いの結果を示しています。 明らかに、OLIのパンバンドは視覚的な解釈に非常に便利であり、パンシャープニングや画像分類に適しています。 ETM +のパンクロマティック波長が可視範囲を超えて背後にあるいくつかの良い側面があるかもしれませんが、同じ理由について啓蒙されることに興味があります。

2
グローバルフォレストウォッチのハンセン分類の方法論?
http://www.globalforestwatch.org/で入手可能な、Science、2013年に発行されたhttp://www.globalforestwatch.org/で、ハンセン、MC、ポタポフ、P。V、ムーア、Rとして ハンセンの驚くべき分類を発見しました。。、Hancher、M.、Turubanova、SA、およびTyukavina、A。(2013)。21世紀の森林被覆変化の高解像度グローバルマップ。サイエンス、342(6160)(11月15日)、850–854。doi:DOI:10.1126 / science.1244693。 しかし、私はこの記事/ウェブサイトで、どのような分類をハンセンが使用したので、そのようなマップを再現する正確な方法論を見つけることができませんか? 私が見つけることができる唯一のことは、教師あり学習アルゴリズムが木のカバーを識別するために使用されたことですが、それはかなり広い用語です。 可能であれば、同じ方法論を使用したいと思います(ただし、90年目に適用します)ので、選択した領域でのハンセンの分類の前に。


1
landsat-utilsでsceneIDをダウンロードできないのはなぜですか?
森の監視を行うには、Landsat画像を自動的にダウンロードする必要があります。私はlandsat-utilsパッケージを使用しています。ただし、関心領域からsceneIDを設定すると、コードが期待どおりに機能しません。 そこで、スクリプトをテストするために取得したいsceneID(LC82150682015350LGN01)の例を1つ示します。 USGSからユーザー名とパスワードを入力しようとしましたが、問題は解決しませんが、問題は解決しません。 ここにコード: $ landsat download LC82150682015350LGN01 AttributeError: 'RemoteFileDoesntExist' object has no attribute 'message' USGSのユーザー名とパスワードを設定すると、エラーが発生しました。 AttributeError: 'USGSError' object has no attribute 'message' このシーンIDのファイルを取得できないのはなぜですか?変更しましたが、同じ問題が発生しました。

1
パンシャープン分類の信頼性?
私は、ERVASで1つのLandsat画像をパンシャープンし、解像度マージリソースを使用して、ブロベイ変換と最近傍法を使用しました。しかし、土地利用分類に関しては、パンシャープンが誤ったピクセルを作成してエラーを追加するため、それは間違いであると言われました。 本当?

1
複数のスタックされたラスターイメージをRにインポートしますか?
指定されたフォルダーからすべての複数のモザイクラスタ(各モザイクは7つのレイヤで構成されています)をR にインポートします。次に、それらを単一のマルチレイヤラスタとしてアクセスします。 だから私はしました: # read all mosaics named "mos....img" in R raster_data<-list.files(path=getwd(), pattern="mos.*.img$") # read files as rasters s <- stack(raster_data) # check my imported rasters p.ex. raster n°8 from "s" raster stack s[[8]] また、ラスターs [[8]]には1つのレイヤーしか含まれていないため、モザイク全体がインポートされていません。 nlayers(s[[8]]) [[1]] 各モザイクを個別に読んだ場合、それは機能します: # read 1 mosaic (composed by 7 bands) mosaic1<-brick("mosaic1.img") # extract …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.