わかりましたので、ESRIの世界で使用しているデータセットの大きさについて、このような非公式のクエリ/調査を行っていると思います...
私は、州全体のデータセットを構築して維持しています。小包レベルですが、システムの小包ごとに複数の郵送先住所があります。多くの場所で、ストリートネットワークまたはUSPS AMS / AISデータから計算された理論上の住所を使用しています。したがって、私のアドレス一覧はおよそ1350万のアドレスであり、毎月または四半期ごとに増加しています。
連続データセットでこれほど大きいアドレス/適切に検索された情報のライブシステムを維持している人はいますか?
他の人がこのような大規模なデータセットをどのように処理しているかについて、協力したり話したりしたいと思います。交差や空間結合などのタスクを実行しようとすると、ESRIソフトウェアが爆破しているように見える問題が発生しています。ESRIは、これらの種類の問題は表示されないと述べていますが、9.3.1に戻って以来これらの問題があり、複数のマシンで再作成できるため、私はこれを最初または唯一の人にすることはできません。
現在の私のプラットフォームは、デスクトップ上のESRI ArcGIS 10であり、GEOMETRY空間オブジェクトを使用してSQL2008バックエンド上のArcSDE 9.3.1-sp1と通信しています。だから私は本当にエキゾチックなことは何もしていません。しかし、それでも私には、いくつかの地域ではおそらく限界を押し上げているようです。
[さらに]
私が知りたいのは、これらのデータセットを処理するためのプロセスを最適化するために他の人が何をしているのかです。今後は毎月100万レコードのアップワードを追加する予定です。他のプロセスの実行を開始し、さらに分析するためにデータをリンクすると、複雑な結合の処理を開始するので、ジオコーディングなどは問題になりません。さて、Only_FIDを使用してIntersects / Overlays / Identitiesからデータを出力し、薄い中間テーブルを結合することもできます。しかし、そのテーブルの作成を分割して征服しようとすると、ソースデータを作業領域に分割する必要があるという問題が発生し始めますが、マージできない繰り返しIDSがあります。そのため、全体を簡単に作成することができない小さなデータブロックが残ります。
データを郡ごとの規模に分解し、空間ビューを使用してデータを結合するオプションなどについて考えます。他のユーザーが同じような問題をこのような大規模で小規模に見ている場合に興味があります。足跡。