私が念頭に置いている2つのアイデア:
1)シーンは、低解像度および低ポリゴンカウントモデルを使用して(またはキューブや球体などの境界ボリュームのみを使用して)、不可視のバッファーにレンダリングされます。次に、バッファがチェックされ、何が表示されているかがわかります。低解像度のシーンをレンダリングする前に、錐台カリングを適用して、できるだけ多くのオブジェクトを既に削除することができます。
2)ツールが静的マップ上で実行され、複雑な(したがって低速の)レイトレーシングを実行して、マップ上のいくつかの3D位置について、何が見えて何が見えないかを認識します。その情報はすべて、後で実行時にユーザーが使用できる効率的な方法で保存されます(例:octree)このソリューションは、オブジェクトを移動せずに静的メッシュ(例:構築)でのみ機能します。