タグ付けされた質問 「spatial-statistics」

数学的計算で直接空間および空間関係(距離、面積、体積、長さ、高さ、方向、中心性、および/または他の空間特性など)を使用する統計的方法に関する研究分野。

1
平均カーネル密度マップをサポートするエラーマップを作成する方法
同じ空間範囲内にスタックされたポイントでKDEを実行して、平均カーネル密度マップを作成しました。たとえば、同じ形状とサイズの3つの異なる森の隙間にある苗木を表す3つのポイントシェープファイルがあるとします。ポイントシェープファイルごとにKDEを実行しました。次に、Arcのラスター計算機で平均を計算するために、KDEからの出力が空間範囲に基づいてスタックされましたFloat(("KDE1"+"KDE2"+"KDE3")/3)。次に例を示します。これが最終的な製品です。 次に、平均化されたKDEに関連するエラーを表すマップを作成することに関心があります。エラーマップを使用して、ホットスポットに関連付けられているエラーの量を視覚的に示したいと思います(たとえば、SWホットスポットは、1つのギャップ内のポイントに完全に起因していますか?)。平均化されたKDEに関連するエラーのマップを作成するにはどうすればよいですか?うMSEは、この場合のエラーの最も適切な尺度で?

3
カーネル密度に基づいてポイントをクラスター化する方法は?
私は商業用土地利用を表す36kポイントの大規模なデータセットを持ち、それぞれに正方形の映像を含むフィールドがあります。このデータセットでカーネル密度分析を実行し、大都市圏全体の商業用平方フィートの密度を示すラスターを生成しました。このラスターを極大に対応する領域に分割する必要があります。これを「中心」と呼びます。センターの場所は既に決定しているので、次の2つのいずれかを行う必要があります。 「medoidの周りの分割」などのポイントクラスタリングツールを使用して、特定した中心の周りのクラスターにポイントをグループ化します。この方法の問題は、計算量が多いことです。また、非類似度マトリックスを使用してポイントをサイズで重み付けしようとすると、さらに負荷が高くなります。 カーネル密度ラスター(おおよそテレインラスターに似ています)を各中心の周りの個々の「丘」に分割します。しかし、これを行うためのツールは思いつきません。 この問題はしばらくの間私を悩ませてきました。私はRでクラスタリング手法を実行できるようになることを望んでいましたが、時間がかかり、時間が不足しています。密度ラスターを強度の近傍に分割する、または大規模なデータセットをすばやくクラスター化する簡単な方法を知っている人はいますか?

1
予想されるn個の場所からのポイントのGPS座標の概算
私の注意点(青でマークされたX点)の座標を見つけようとしています。車のGPSデバイスを使用して、ポイントxにアクセスするたびに、駐車した場所に応じて座標を収集しました。したがって、このエクササイズを16日間続けた後、なんとか16セットの座標を取得し、私の注意点を中心に広げました。 これらの座標をマップにプロットした後、私は次のことを観察しました。10回のうち2回または3回、GPSデバイスが誤った座標セットを提供し、ポイントXから遠く離れていることが判明しました。また、交通状況により、ポイントxの近くに駐車できないため、この場合も、取得される座標はポイントXから遠く離れています。 問題:取得した16セットの座標から、注意点(ポイントX)の近くにある1セットの座標に絞り込むためにどのようなプロセスを使用しますか?

1
3つの等高線の比較
3つの等高線シェープファイルの違いを空間的に定量化する方法を探しています。具体的には、等高線を作成する2つの標高ラスターがありますが、作成する前に、それらを参照等高線と比較して、入力ラスターを修正する必要があるかどうかを確認します。私は他の方法でArcMapのTopo to Raster機能を使用してから、Raster Calculatorを使用して比較できることを理解しています。 ArcMap 10.1とSurfer 11があります。事前にありがとうございます。

1
ポリゴンデータの空間クラスター/凝集パターンを比較する
空間クラスタリング/空間集積についてテストしたいポリゴンの形の農業データがあります。 全体として、さまざまな方法で集計および標準化できる約40の変数があります。標準化の1つの方法は、たとえば、各ポリゴン内の1人あたりの生産値を計算することです。別の方法は、各ポリゴン内のhaあたりの生産値を計算することです。 標準化と集約のすべての方法で、クラスタリングと非クラスタリングという異なる空間パターンを持つ異なるマップが生成されます。したがって、後の分析のベースとして、強力な空間クラスタリングを生成するこのような集約/標準化の組み合わせを特定したくありません。したがって、集約と標準化のさまざまな結果を比較する必要があります。 もちろん、手動で地図を見てこれを行うこともできます(下の例を参照)。しかし、これはかなり主観的であり、場合によっては明確に区別することができます。40個の変数に対してこれを行うことを想像して、データ準備の8つの可能な方法を考えてみましょう。したがって、私はいくつかの客観的な測定、つまり空間統計を使用したいと思います。 RとArc GISを使用しています。そのような分析を実装する方法を誰かが考えていますか? 以下の例は、一度標準化されていない場合と1人あたり標準化された場合のバナナ生産を示しています。それらは非常によく似ていますが、空間的にクラスター化されているのはどれですか。

3
バイナリ値を持つポイントの空間的自己相関を測定するための適切な統計とは何ですか?
ポイントデータセットの空間的自己相関のレベルを特定しようとしています。私が興味を持っている属性はバイナリ(種の存在/不在)であり、モランのIは適切ではありません。一方、一般にバイナリデータまたはカテゴリデータに推奨されるJoint Count統計は、明らかにポイントデータには適していません。要するに、問題はこうです:対象の属性がバイナリである場合、ポイントのグローバルおよび/またはローカルの空間的自己相関を測定するための適切な統計とは何ですか?

2
二変量リプリーのK関数を実装する方法?
添付画像は、赤松が円で表され、白松が十字で表された森林のギャップを示しています。私は2種類の松の木の間に正の関連があるのか​​負の関連があるのか​​(つまり、同じ地域で成長しているかどうか)を確認することに興味があります。R spatstatパッケージのKcrossとKmultiを知っています。ただし、分析するギャップが50あり、RよりPythonでのプログラミングに慣れているため、ArcGISとPythonを使用した反復的なアプローチを見つけたいと思います。また、Rソリューションも利用できます。 2変量リプリーのK関数を実装するにはどうすればよいですか?

3
Rパッケージgstatを使用した時空間ブロッククリギング?
のドキュメントで、関数spのcoords引数SpatialPolygonsは2列しか受け入れないことがわかりました。3次元ポリゴンを作成することはできませんか?のgstat3番目の空間次元として時間を追加することにより、パッケージを使用して時空間クリギングを行っていSpatialPointsDataFrameます。これを拡張して、ポリゴンをブロックとするクリギングをブロックします。それを行う方法はありますか?

1
最も分散した場所を見つける方法は?
おそらく非常に単純な質問です。私には、約1000の地理的位置(緯度)のリストがあり、そのうち「最も広がっている」200の位置を選択する必要があります。合計平均距離が最も高い200ポイントになると思います。都市の店を考えてください。 それを行うための定義された方法はありますか?たぶんRパッケージに? これを学ぶのに最適な場所にしてくれた皆さんに感謝します! /クリス

4
ArcGISの1つの個別のポイントからの距離に基づいて、ポイントのグループのパーセンテージ(75%)を選択しますか?
これはArcGIS固有です。 2つのポイントシェープファイルがAありB、最初の(A)は緯度経度を含む単一のポイント、2番目(B)は緯度と経度をそれぞれ含む多数のポイント(12k以上)です。私がやろうとしていることは、シェープファイルBからの距離に基づいてシェープファイルのポイントの75%の選択を自動化することですA。言い換えると、シェープファイルBポイントの75%に最も近く、シェープファイルAの1ポイントを選択します。

2
空間統計ツール:ラスターデータのクラスター分析
明らかに単純な問題がありますが、使用する明確な方法論が見つかりません。 CIESINのグリッド化された人口データセットを使用して、ベクトル凸多角形で「市街地」を区切る必要があります。 このデータセットは、全世界の人口密度値をラスターファイルとして提供します。問題は、すでにご想像のとおり、密度の値が非常に変化しており、「都市」の定義がかなり相対的であることです。 私は古典的なアプローチを試してみて、密度の値が高度であるかのように勾配を計算しましたが、勾配の値も非常に異なり、空間的に複雑で複雑でした。 私は、ArcGISとGeoDaを使用して、空間クラスタリングアルゴリズムであるLISAツール(Local Association of Spatial Association)を調査しましたが、非常に具体的なツールの中でかなり迷っています。一部のメソッドはベクトル形状でのみ機能するため、再分類とベクトル化が必要です(長時間の計算)。 使用するメソッドとツールのセットを洗練するのを手伝ってくれませんか?よろしくお願いします!

1
可視化から推論のワークフロー
公衆衛生部門に統計サポートを提供しています。ご想像のとおり、定期的に多くの地図を作成しています。私にとって、マップは単なるデータの視覚化の一種であり、データの感覚をつかんだり、仮説を生成および確認したりするのに役立ちます。しかし、実際のモデリングや仮説テストについてはあまり説明しません。 あなた/あなたの組織はこれをどのように行っていますか?推論を含むワークフローはどのようなものですか?誰が関与していますか?どのツールを使用していますか?もしあなたがあなたのやり方を持っていたら、それはどのように理想的に見えますか? ありがとう! 編集 明確にするために、私は空間データから世界で何が起こっているかについての仮説の正式な統計的検定に進むためのさまざまな戦略に興味があります。たとえば、結核検査を増やすための教育キャンペーンをターゲットにしようとしているとしましょう。私は(個人的に)関心のある共変量(たとえば、収入の中央値または外国生まれの居住者の割合)に対する結核の症例をマッピングし、何らかのパターンがあるかどうかを確認しようとします。 私は何も見つけないかもしれません。しかし、最終的には、それらの共変量と人口統計の数の間の関連を推定するモデルを構築します。これは、存在しないパターンを見つける、または興味のないパターンを見つけるのに優れた人間がいるため、重要なステップです。私は自分でこれを行う方法を知っていますが、さまざまな組織がそれを制度化する方法(あるとしても)に興味があります。

1
クイーンvsルーク周辺
クイーンとルークの近傍は、フォーカルセルの統計を計算する2つの一般的な方法です。彼らはまた、ムーアと(フォン)ノイマン地区としても知られています。「ビショップバージョン」、つまり左下から右上のコーナーもあると思います。しかし、これらの2つの方法がソフトウェアパッケージにまだ実装されているのはなぜですか? 出典:Lloyd、C.(2010)。空間データ分析:GISユーザー向けの紹介。オックスフォード大学出版局。 ルークは計算能力が低い「昔」の時代に使用され、クイーンのケースは可能な限りGIS分析で使用されるべきだといつも思っていました。ルークvsクイーンのアドバンテージはあるのでしょうか?

3
PostGIS:ST_Intersection = 100%のジオメトリの場合、ST_Equals false?
地籍の小包データで構成される2つのデータセットがあり、それぞれ約125,000行です。ジオメトリ列は、区画の境界を表すWKBポリゴンです。すべてのデータは幾何学的に有効です(ポリゴンが閉じているなど)。 いくつかの最近のデータは、比較ジョブに使用されているベースデータとは異なる投影法で到着しました。そのため、新しいデータを再投影しました(ベースは4326でした。もう1つは、900914としてPostGISに取り込まれたWGA94でした... 4326に再投影しました)。 。 分析の最初の段階は、一致しない区画を見つけて保存することでした。その一部は、同一のジオメトリを持つ区画を識別して保存することです。 だから私は非常に標準的なクエリを実行しました(以下のコードブロックはスキーマの詳細などを抽象化しています): create table matchdata as select a.* from gg2014 a, gg2013 b where ST_Equals(a.g1,b.g1) 結果はゼロです。 「おかしい…」と思った。「おそらく、再投影によって引き起こされた小さな頂点シフトがありました。それは煩わしいことであり、実際には起こらないはずです。」 幸いにも、空間的に同一である必要がある区画を確立できるようにする豊富な空間データ(5つの識別子列)があります。2014年のテーブルの変更日が2013年のデータの最大変更日より前である同じ識別子を持つものです。これは、120,086の個別の行になります。 識別子とジオメトリを別のテーブル(match_id)に保存し、次のクエリを実行しました。 select apid, bpid, ST_Area(ag::geometry) as aa, ST_Area(bg::geometry) as ab, ST_Area(ST_Intersection(ag,bg)::geometry)/ST_Area(ag::geometry) as inta, ST_Area(ST_Intersection(ag,bg)::geometry)/ST_Area(ag::geometry) as intb from match_id order by inta 最初の16の値についてintaとintb同様にゼロであった、次の456であった0.99999999っぽい(最小0.99999999999994、最大0.999999999999999)、以降1た473行-交差の面積があった行120050まで、より大きいいずれかの幾何学的形状(最大値intaとはintb)まだ1.00000000000029だったが、。 だからここに私の難問があります:2つのジオメトリがそれぞれの領域の99.999999999994%から100.000000000029%の間で空間的に交差する場合、「ST_Equals」に「そうです...それを与えます。十分に近い」と言ってもらいたいのです。 結局のところ、これは16兆分の1の割合で減少していることに相当します。 地球の周囲(約40,000 km)のコンテキストでは、0.0000000025 kmの頂上から離れているようなものです(面積の差が小さくなるため、頂点のシフトはさらに小さくする必要があります)。 TFD(私がR'dを持っています)によると、許容値ST_Intersects()は概念的に0.00001m(1mm)であるため、頂点の暗黙の変更(私が確認していないことを告白します:ST_Dump()それらを変更するので)は小さくなるようです。公差より。(私はそれを理解していますがST_Intersects …

2
ベクトルデータの解像度を推定していますか?
大陸をカバーするポリゴンを含む古いベクターデータセットを取得しました。データは最初に1:5 000 000のスケールで紙に公開され、その後デジタル化されました。元のデータがなく、ベクトル化やメタデータに関する情報もありません。精度ではなく、頂点間の距離が解像度を制限していると思います。 頂点は高解像度で保存されます(「nnn.nnnnnnnnn」、「-nn.nnnnnnnnn」など)。データセットには、地理参照できるいくつかのポイントも、座標として定義されたノードもありません(例:度またはUTM座標)。海岸線の一部を比較すると、誤差は最大+/- 20kmです。 頂点の分布に基づいて最大誤差を推定する式を見つけたいのですが。任意の GISアプリケーションにアクセスできますが、堅牢な統計参照を希望します。 すべての頂点が正しいと仮定して、データセットの最大誤差を計算するにはどうすればよいですか?または別の言い方をすると、データセットの最大解像度を見つけるためにどのような方法を使用できますか? 異なるセルサイズでデータセットをラスタライズし、小さなセルサイズにオーバーサンプリングして、解像度を失うことなく最小のラスタライズを検出しようとしましたが、これはかなり時間がかかり、あまり数学的なアプローチではありません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.