タグ付けされた質問 「clustering」

クラスラベルなどの既存の知識を使用せずに、データポイントを相互の「類似性」に従ってオブジェクトのサブセットに分割します。

2
QGISでx km以内に他のポイントがないシェープファイル内のポイントを特定する
これはおそらく素朴な質問ですが、私はQGISの新規ユーザーとして苦労しています。 非常に大きなシェープファイルを持っています(275,000ポイントですが、必要に応じて処理を高速化するためにこれを約10個のサブリージョンに分割できます)。 200メートル以内に他のポイントがないすべてのポイントを識別し、ファイルのフィールドに値「unique」を使用してそれらの各ポイントをコーディングします。 ローカルクラスタの一部である他のすべてのポイントについては、それらを「クラスタ化された」ものとしてコーディングします。 それを達成したら、各クラスターに対してランダムに1つだけを選択して、データセットに保持し、他のクラスターは破棄したいと思います。 現在、ステップ1を達成できていないため、サポートを歓迎します。

1
空間分析とフィーチャに近いクラスタリング
私はグループの生きている動物のマーキング行動に取り組んでおり、マーキング行動が近隣のグループの特定の特性によってどのように影響されるかに興味があります。a-LoCoHを使用して作成された95%密度の等値線から各グループの領域をプロットしました。グループの各個人のマークは、個別のポイントレイヤーとしてプロットされます。マーキング動作はランダムではないように見え、隣接するグループとの境界の周りに集まっているように見えます。個人が他のグループよりもいくつかのグループの近くにマークを付けるかどうかを調査したいのですが、たとえば、個人は密接に関連するグループの近くにマークを付けませんか?ポイントがいくつかのフィーチャの近くでクラスタリングしているが、他のフィーチャの近くではないことを示すことは可能ですか? 提供できるヘルプは大歓迎です。 デイブ・ハンフリーズ #####更新 デモ用に、以下に4つの領域(A、B、C、およびD)の画像と、グループAの2人のマーキング位置を示します。グループAとBは密接に関連しています。グループCとDはグループAとは無関係です。
11 clustering 

1
Rを使用して緯度/経度ペアからポイントのグループを作成しますか?
関心のあるポイントの位置を特定するための緯度/経度のペアを含むデータベースがあります。興味のあるポイントを10個のグループにグループ化します。グループは地理的にローカルで、正確に10個のポイントを含む必要があります。各グループは最小限の領域である必要があります。 Rのさまざまな実装を見てきましたが、いずれも(私が見ることができる)明確なクラスターサイズを指定することはできません。 以前、マップポイントを固定クラスターサイズにグループ化するように依頼しましたか?しかし、良い答えを得るために私の質問で私が十分に正確であったとは思わない。 地理的にローカル -グループが大幅に重複しないようにする必要があると思います。私のアプリケーション(監視目的でグループに人を割り当てる)では、各グループが物理的な領域でできるだけ小さい場合に理想的です。 最小面積 -再び、グループ面積を最小に保とうとします。これは、各グループの領域を指定されたしきい値以下に保つことで定量化できると思います(数十の小さなグループと1つの大きなグループを避けるため)。

1
QGISでクラスターを構築して都市のフットプリントポリゴンを生成していますか?
正しい用語が何であるかはわかりませんが、これは一般的なカートグラフィックデザインパターンです。 市街地の輪郭を、道路や建物のレイヤーの下にある塗りつぶされたポリゴンとして表示したい。 OpenStreetMapでは、そのようなエリアはlanduse = residentialとして利用できる場合があります。これらはすべて手動でトレースされたのではないかと思います。 これが例です、これはジブラルタルです。この輪郭を手動でデジタル化して海岸線にクリップしました。「都市の足跡」は紫/ピンクの領域で構成されています(これは海に拡張され、OpenStreetMapDataから陸の輪郭にクリップされました) QGIS(または他のFOSS GISツール)で、一連の建物からこれらを自動的に生成するためのツールはありますか? 私がすでに試した2つのアプローチ... 凹型の船体プラグインを試しましたが、1つのエリアしか取得できませんでした。 また、建物の輪郭から抽出されたノードでデローニー三角形分割を試しました。大きなポリゴンや、頂点間の角度が非常に鋭角なポリゴンを破棄できるかどうかは、うまくいくと思います...

1
バーチアルゴリズムが期待どおりにクラスター化しない
私は、scipy-learn PythonパッケージのBirchアルゴリズムを使用して、10のセットで1つの小さな都市のポイントのセットをクラスター化しています。 私は次のコードを使用します: no = len(list_of_points)/10 brc = Birch(branching_factor=50, n_clusters=no, threshold=0.05,compute_labels=True) 私の考えでは、私は常に10ポイントのセットで終わります。今の場合、私はクラスターに650ポイントあり、n_clustersは65です。 しかし、私の問題は、しきい値が低すぎると、クラスターのアドレスが1つになり、非常に大きなしきい値(クラスターあたり40アドレス)になることです。 ここで何が悪いのですか?

2
GPS位置を使用して近接ポイントをグループ化するにはどうすればよいですか?
私はIT担当者なので、予測などについてあまり詳しくありません。 Android向けにGPS位置を収集するアプリケーションを作成したので、ある時点での緯度と経度がわかります。同じ物理サイズのテレインエリアのグループで、互いに近い要素を一緒に保存したいと思います。問題は、私が事前にポイントを知らないことであり、それらは世界のどの位置からでも来ることができます。 私の最初のアイデア(問題をもう少し説明する)は、グループ化に緯度と経度の小数を使用することでした。たとえば、1つのグループは、緯度が35.123〜35.124、経度が60.101〜60.102の位置になります。したがって、lat = 35.1235647およびlon = 60.1012254598のような位置を取得した場合、このポイントはそのグループに移動します。 この解決策は、幅が0.001単位で高さが大きい領域があるため、デカルト2D表現には問題ありません。ただし、緯度によって経度1度のサイズが異なるため、この方法は使用できません。 何か案が?

1
層別OpenLayersクラスタリング
ポイントクラスタリングを備えたOpenLayersマップがありますが、マップで表されるデータにさらに細かい粒度を適用したいと考えています。具体的には、機能の属性に従ってクラスターを層別化したいと思います(これを「カテゴリ」と呼びます)。 つまり、5つのカテゴリがあるとします。事実上、同じカテゴリの他のポイントとのみポイントをクラスタリングする必要があります。これは5つの異なるレイヤーで達成できると思いますが、カテゴリーの数が増えるとすぐに面倒になります(現時点では50以上あります)。 OpenLayersでこのようなものを見たことがありますか?


3
カーネル密度に基づいてポイントをクラスター化する方法は?
私は商業用土地利用を表す36kポイントの大規模なデータセットを持ち、それぞれに正方形の映像を含むフィールドがあります。このデータセットでカーネル密度分析を実行し、大都市圏全体の商業用平方フィートの密度を示すラスターを生成しました。このラスターを極大に対応する領域に分割する必要があります。これを「中心」と呼びます。センターの場所は既に決定しているので、次の2つのいずれかを行う必要があります。 「medoidの周りの分割」などのポイントクラスタリングツールを使用して、特定した中心の周りのクラスターにポイントをグループ化します。この方法の問題は、計算量が多いことです。また、非類似度マトリックスを使用してポイントをサイズで重み付けしようとすると、さらに負荷が高くなります。 カーネル密度ラスター(おおよそテレインラスターに似ています)を各中心の周りの個々の「丘」に分割します。しかし、これを行うためのツールは思いつきません。 この問題はしばらくの間私を悩ませてきました。私はRでクラスタリング手法を実行できるようになることを望んでいましたが、時間がかかり、時間が不足しています。密度ラスターを強度の近傍に分割する、または大規模なデータセットをすばやくクラスター化する簡単な方法を知っている人はいますか?

1
マップポイントを固定クラスターサイズにグループ化しますか?
約100のグループに分割したい緯度と経度の655ペアのデータセットがあります。グループには、互いに地理的に近い5〜10のペアが必要です。密なグループはより多くのポイントを持つべきであり、疎なグループはより少ないべきです。たとえば、都市のグループは大きく、地方のグループは小さくなければなりません。 この種のグループ化を行うための確立されたアルゴリズムはありますか、それとも最初からアルゴリズムを設計する必要がありますか? 私はgoogle maps v3 apiを使用してこのデータを表示していますが、これは固定データセットであるため、オフラインで数値を計算する準備ができています。

1
自然な地域の用語
分析の最も難しい部分は、何が呼ばれているかを知ることです。 いくつかのRパッケージとは何ですか、より重要なのは、住宅価格の変化に基づいて隣接する都市の近隣を定義するために検索する必要がある用語です。 これが「自然な近隣の非難」と呼ばれるのか、「空間的に制限されたクラスタリング」と呼ばれるのか、単に「グループ化分析」と呼ばれるのかはわかりません。

1
ポリゴンデータの空間クラスター/凝集パターンを比較する
空間クラスタリング/空間集積についてテストしたいポリゴンの形の農業データがあります。 全体として、さまざまな方法で集計および標準化できる約40の変数があります。標準化の1つの方法は、たとえば、各ポリゴン内の1人あたりの生産値を計算することです。別の方法は、各ポリゴン内のhaあたりの生産値を計算することです。 標準化と集約のすべての方法で、クラスタリングと非クラスタリングという異なる空間パターンを持つ異なるマップが生成されます。したがって、後の分析のベースとして、強力な空間クラスタリングを生成するこのような集約/標準化の組み合わせを特定したくありません。したがって、集約と標準化のさまざまな結果を比較する必要があります。 もちろん、手動で地図を見てこれを行うこともできます(下の例を参照)。しかし、これはかなり主観的であり、場合によっては明確に区別することができます。40個の変数に対してこれを行うことを想像して、データ準備の8つの可能な方法を考えてみましょう。したがって、私はいくつかの客観的な測定、つまり空間統計を使用したいと思います。 RとArc GISを使用しています。そのような分析を実装する方法を誰かが考えていますか? 以下の例は、一度標準化されていない場合と1人あたり標準化された場合のバナナ生産を示しています。それらは非常によく似ていますが、空間的にクラスター化されているのはどれですか。

2
空間統計ツール:ラスターデータのクラスター分析
明らかに単純な問題がありますが、使用する明確な方法論が見つかりません。 CIESINのグリッド化された人口データセットを使用して、ベクトル凸多角形で「市街地」を区切る必要があります。 このデータセットは、全世界の人口密度値をラスターファイルとして提供します。問題は、すでにご想像のとおり、密度の値が非常に変化しており、「都市」の定義がかなり相対的であることです。 私は古典的なアプローチを試してみて、密度の値が高度であるかのように勾配を計算しましたが、勾配の値も非常に異なり、空間的に複雑で複雑でした。 私は、ArcGISとGeoDaを使用して、空間クラスタリングアルゴリズムであるLISAツール(Local Association of Spatial Association)を調査しましたが、非常に具体的なツールの中でかなり迷っています。一部のメソッドはベクトル形状でのみ機能するため、再分類とベクトル化が必要です(長時間の計算)。 使用するメソッドとツールのセットを洗練するのを手伝ってくれませんか?よろしくお願いします!

3
Rのピクセルの塊を削除する
ラスターイメージから孤立したピクセル(または9未満のピクセルの塊)を削除したいと思います。 library(raster) # create some raster data r <- raster(ncols=12, nrows=12) set.seed(0) r[] <- round(runif(ncell(r))*0.7 ) rc <- clump(r) ピクセルの塊を削除する前<9 ピクセルの集まりを削除した後<9: Erdasには、これを行うSieveツールがありますが、Rでそれを置き換える方法は?

2
オープンソースのGISツールを使用したサーバーサイドクラスタリングのオプションは何ですか?
地図上に40Kポイント以上を表示するWebアプリケーションを作成する必要があります。これらのポイントはすべて世界中です。WFSサービスとOpenLayersを使用すると、小さなポイントセットでクラスタリングを実行できますが、私の場合、クライアント側でこのクラスタリングを実行することはあまり役に立ちません。 WMSまたはタイルWMSサービスでサーバー側のクラスタリングを行うにはどうすればよいですか?Googleマップにはそのようなオプションがいくつかあります。OSGeoフィールドの対応するツールは何ですか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.