タグ付けされた質問 「spatial-statistics」

数学的計算で直接空間および空間関係(距離、面積、体積、長さ、高さ、方向、中心性、および/または他の空間特性など)を使用する統計的方法に関する研究分野。

9
Rで空間データを処理するチュートリアル?
Rで空間データを処理するための優れたチュートリアルを知っている人はいますか?rgdalやmaptoolsのようなパッケージがあることは知っていますが、基本的な機能(読み取り、プロット、シンボルの変更、データの結合など)にアクセスしたり、より広範な概要を取得したりするための有用なチュートリアルは実際には見つかりませんでした空間データの空間分析と操作のためのRの実際の機能は何ですか。また、本、論文、ブログなどの推奨も大歓迎です。



7
Rで空間データをクラスタリングしますか?[閉まっている]
緯度と経度のデータポイントがたくさんあります。Rを使用して、距離に基づいてクラスター化します。 私はすでにこのページを見て、clustToolパッケージを試しました。しかし、clustToolのclust関数がデータポイント(lat、lon)を空間データと見なし、適切な式を使用してそれらの間の距離を計算するかどうかはわかりません。 つまり、空間データと順序データをどのように区別するかわかりません。マップ上の2つのポイント(空間)と2つの通常の数値の間の距離の計算は異なると思います。(そうではありませんか?) また、クラスタリングで3番目のパラメーターを検討する場合はどうなりますか? (lat、lon)ともう1つのパラメーターがある場合に言うように。 距離はどのように計算されますか? clustToolのもう1つの問題は、GUIを念頭に置いて設計されていることです。ライブラリのGUIオーバーヘッドを必要としないのでスキップする方法はわかりません。 空間データのクラスター分析のために、Rにはどのようなオプションがありますか?

7
空間ラインパターンの統計的検定?
ポイントがランダムに分布しているかどうかを判断するために使用できる空間ポイントパターンのテストはたくさんありますが、空間ラインパターンの確立されたテストはありますか?(開始点と終了点だけで、中間ノードがない直線を考えています。) 分析したいデータは、人間と動物の動きのOD(原点-終点)行です。(無向線のクラスタリングの例と同様です。) これまで、1つのアイデアは、ラインを4Dポイントのように扱い、ポイントパターンテストを使用することでしたが、それが適切かどうかはわかりません。 理想的なテストでは、ラインのクラスターがあるかどうかを判断できます。 直感的には、同じ起点から始まり、すべての種類の異なる終点を持つ多くのラインは、クラスターと見なされるべきではありません。一方、より長い時間並行して(近くで)実行される多くのラインはクラスターになります。

2
ArcGIS、Python、SPSS / Rを使用して地理的に重み付けされた主成分分析を実行するにはどうすればよいですか?
私は、地理的に重み付けされた主成分分析(GWPCA)を実施するための説明/方法論を求めています。これのどの部分にもPythonを使用してうれしく、地理的に重み付けされた変数でPCAを実行するためにSPSSまたはRが使用されると思います。 私のデータセットは、約550のセンサストラクト(ベクトルジオメトリ)全体で測定される約30の独立変数で構成されています。 これはロードされた質問です。しかし、私が検索して検索すると、そこに解決策はないようです。私が遭遇したのは、GWPCA(およびGWR)の基本的な構成を説明する数式です。私は、生データからGWPCAの結果に到達するために達成する必要がある主要なステップを探しているという意味で、より適用されています。 以下に寄せられたコメントにより、この編集の最初の部分を拡大したいと思います。 ポールに対応するには... 私はGWPCAへの関心を次の論文に基づいています。 ロイド、CD、(2010)。地理的に重み付けされた主成分分析を使用した人口特性の分析:2001年の北アイルランドの事例研究。コンピューター、環境および都市システム、34(5)、p.389-399。 文献にアクセスできない人のために、以下の数学を説明する特定のセクションのスクリーンショットを添付しました。 そして、whuberに対処するには... 詳細(機密性)に進むことなく、30の変数(すべてが非常に良い指標であると思われる)を、固有値が1より大きいコンポーネントのセットに減らすことを試みています。これらのコンポーネントによって説明されるローカル分散を理解するため。 私たちの主な目標は、GWPCAの概念を証明すること、つまり、データの空間的に明示的な性質を示すことであり、すべての独立変数をグローバルスケールで説明できると考えることはできないと思います。むしろ、各コンポーネントが識別するローカルスケール(周辺)は、データの多次元の性質(変数を互いに組み合わせて研究エリアの特定の近傍を説明する方法)を理解するのに役立ちます。 問題のコンポーネントによって説明される近傍の範囲を理解するために(各コンポーネントのローカルな空間性を理解するのを助けるために)各コンポーネントが占める分散の割合を(別々に)マッピングしたいと考えています。おそらく他のマッピング例がいくつかありますが、現時点では思い浮かぶものはありません。 さらに: GWPCAの背後にある数学は、地理分析と社会統計の私のバックグラウンドを考えると、私が理解している以上のものです。数学の適用が最も重要です。つまり、これらの変数/式に何をプラグインするかです。

2
Rでポリゴンを結合する
Rコードを使用して空間ポリゴンを結合する方法を疑問に思っていますか? 特定のエリアが時間とともに変化する国勢調査データを使用しており、ポリゴンと対応するデータを結合して、結合された領域について単純にレポートしたいと考えています。国勢調査から国勢調査への変更があり、マージする予定のポリゴンのリストを保持しています。この地域名のリストをルックアップリストとして使用して、異なる年の人口調査データに適用したいと思います。 選択したポリゴンとそれぞれのデータをマージするためにどのR関数を使用するのか疑問に思っています。私はそれをグーグルで検索しましたが、結果に単に混乱します。

5
空間統計を学習しますか?
私は統計学の重要なバックグラウンドを持っています。空間統計学(および地理空間データに関連する統計学)についてもっと知りたいです。 フィールドの概要を探している人にとって特に良いリソースはありますか? この時点で特定の問題を解決するつもりはありません。フィールドと、非空間データの統計アプリケーションとの違いを理解したいだけです。


1
Moran's Iの堅牢な代替
空間的自己相関の尺度であるMoran's Iは、特に堅牢な統計ではありません(空間データ属性の歪んだ分布に敏感になる可能性があります)。 空間的自己相関を測定するためのより堅牢な手法は何ですか?Rのようなスクリプト言語で容易に利用可能/実装可能なソ​​リューションに特に興味があります。ソリューションが固有の状況/データ分布に適用される場合は、回答でそれらを指定してください。 編集:いくつかの例を使って質問を拡大しています(元の質問に対するコメント/回答に応じて) 順列手法(MoranのIサンプリング分布がモンテカルロ手順を使用して生成される)が堅牢なソリューションを提供することが示唆されています。私の理解では、このようなテストは、およそいかなる仮定にする必要がなくなりますということですモーランI分布を、私はのための方法を置換技術を補正する参照に失敗し、(検定統計量は、データセットの空間構造によって影響を受ける可能性があることを考えると)が、非正常に分散属性データ。2つの例を示します。1つは、ローカルモランのI統計に対する歪んだデータの影響を示すもの、もう1つは置換テストの下でのグローバルモランのIに対するものです。 私はZhangなどを使用します。最初の例としての(2008)の分析。彼らの論文では、置換テスト(9999シミュレーション)を使用して、ローカルモランのIに対する属性データ分布の影響を示しています。GeoDaの元のデータ(左パネル)と同じデータのログ変換(右パネル)を使用して、鉛(Pb)濃度(5%信頼レベル)の著者のホットスポット結果を再現しました。元のPb濃度と対数変換されたPb濃度の箱ひげ図も表示されます。ここでは、データを変換すると、重要なホットスポットの数がほぼ2倍になります。この例は、モンテカルロ法を使用している場合でも、ローカル統計が属性データの分布に敏感であることを示しています! 2番目の例(シミュレーションデータ)は、置換テストを使用する場合でも、歪んだデータがグローバルモランのIに与える影響を示しています。Rの例を次に示します。 library(spdep) library(maptools) NC <- readShapePoly(system.file("etc/shapes/sids.shp", package="spdep")[1],ID="FIPSNO", proj4string=CRS("+proj=longlat +ellps=clrk66")) rn <- sapply(slot(NC, "polygons"), function(x) slot(x, "ID")) NB <- read.gal(system.file("etc/weights/ncCR85.gal", package="spdep")[1], region.id=rn) n <- length(NB) set.seed(4956) x.norm <- rnorm(n) rho <- 0.3 # autoregressive parameter W <- nb2listw(NB) # Generate spatial weights # Generate autocorrelated …

1
特別な近傍の焦点統計の計算?
指定した基準の近傍内で、ラスターの各セルの焦点統計を計算しようとしています。 背景-3つのバイナリラスタがあり、それぞれが関心のある単一の植生タイプを表します。調査地域内のセル(近隣のセルの合計/合計)から20 km ^ 2以内の各植生タイプの被覆率を計算したいと思います。問題は、各セルの周囲に単純な円または正方形の近傍を使用できないことです。これを行うと、合計の計算に使用される検索領域に研究領域外の領域が組み込まれるためです。この例外は重要です。統計は生息地モデルの入力として使用され、研究エリア外の地域は生息地の可能性があると見なすことができないため、都市化されているためです。それらを含めると、誤った統計が得られます。だから、私はnは、基準を満たす、希望する近隣のサイズに等しいエリアをカバーするために必要なセルの数によって決定されます。基準は、都市化された地域に該当しないことです。何らかの形のセルオートマトンを使用すべきだと考えています。私はCAで働いたことはありませんが。 私が望むのは、スターターコード、または正しい方向のポイントのようなものだと思います。 以下のコメントに返信: 私の研究サイトの境界にあるセルのこの統計を計算しているとしましょう。調査エリア外のすべてのエリアをゼロに割り当てる(またはNoDataを無視する)と、関心のあるエリアカバレッジの約半分を表す統計が得られます。したがって、約10 km ^ 2のエリアのカバレッジ率、20 km ^ 2エリアの代わりに。私は家の範囲のサイズを勉強しているので、これは重要です。それは動物が風景を見る/使用する方法であるため、近所は形を変えなければなりません。20 km ^ 2が必要な場合は、形状またはホームテリトリーを変更します。[NoDataを無視する]チェックボックスをオンにしない場合、セル出力はNoDataになり、NoDataは役に立ちません。 2014年10月24日現在の「プログラム」 ShapelyとFionaを使用してこれまでに作成したコードは次のとおりです。 import numpy as np import pprint import shapely from shapely.geometry import* import fiona from fiona import collection import math traps = fiona.open('C:/Users/Curtis/Documents/ArcGIS/GIS_Data/occurrence/ss_occ.shp', 'r') study_area = fiona.open('C:/Users/Curtis/Documents/ArcGIS/GIS_Data/Study_Area.shp', 'r') for i in study_area: …

1
GPSトラックのセットから実際の道路を統計的に計算しますか?
私は長距離サイクリングクラブに参加し、ライダーからGPSデータを定期的に収集し始めました。 私の関心は、同じ道路上の蓄積されたGPSデータに基づいて、将来のイベントの「実際の軌道」を計算することです。基本的に、これは事前に選択したトラックをアルゴリズムに渡すことを意味し、アルゴリズムは適切なサンプルレートでポイントを生成します(道路カーブに応じて互いに適切な距離)。空間追跡情報のみを考慮して、タイムスタンプを破棄します。 どのアルゴリズム/統計手法を使用できますか?GISパッケージは使用せず、これをPythonで実装する予定です。 以下に、いくつかのサンプル軌跡セット:

9
シェープファイルとラスターをオーバーレイする方法は?
ポリゴンを含むシェープファイルがあります。また、グローバルラスターファイルがあります。シェープファイルのポリゴンをラスタグリッドにオーバーレイし、各ポリゴンの平均ラスタ値を計算します。 GDALを使用して結果をシェープファイルに書き込むにはどうすればよいですか?

3
生態学的な地理空間の難問
私は、空間統計問題に対する別のより洗練された解決策を探しています。生データは、個々のツリーのxy座標で構成されます(つまり、ポイント.shpファイルに変換されます)。この例では使用されていませんが、すべてのツリーには、クラウンの直径を表す対応するポリゴン(.shpなど)もあります。左側の2つの画像は、個々のツリー位置のポイント.shpファイルから導出されたランドスケープスケールカーネル密度推定値(KDE)を示しています。1つは1989年、もう1つは2009年です。右側の図は、2つのKDE平均値の+/- 2標準偏差の値のみが表示されます。Arcのラスター計算機を使用して、右手画像にラスターオーバーレイを作成するために必要な簡単な計算(2009 KDE-1989 KDE)を実行しました。 樹木密度または樹冠面積の経時的な変化を統計的またはグラフィカルに分析するより適切な方法はありますか?これらのデータを考慮して、地理空間環境で1989年と2009年のツリーデータ間の変化をどのように評価しますか?ArcGIS、Python、R、Erdas、ENVIのソリューションが推奨されます。

2
回帰モデルと空間的自己相関
2つの異なるデータベース間の依存関係を検証するために、OLSとGWRを使用しました。GWRの残差平方は0.82であるため、2つのデータセット間の関係を決定するために使用される正しい回帰モデルになります。 私が知りたいことは、GWRはローカル回帰であり、OLSはグローバル回帰であり、いつどこで使用されるべきですか? また、GWRモデルのMoran's IがRandomである場合、それはどういう意味ですか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.