(メタ:Stack Exchangeでこれに適した場所がわかりません。自動運転技術とコンピューター3Dビジョン/知覚システムに関連するグループは存在しないようです。)
高速道路で3D深度知覚LIDARを使用し、他のさまざまなLIDARスイープビームまたはスポットフィールド(kinectスタイル)エミッションスキャナーを使用している他の数百台の車両での自動運転車両の場合、スキャンからの信号戻りを区別する方法他のシステムによって行われますか?
非常に大きなマルチレーン高速道路、または複雑なマルチウェイ交差点の場合、このような放出はあらゆる方向に見られ、すべての表面をカバーし、他のスキャナーからのビーム放出の検出を避ける方法はありません。
これは、自動運転車両にLIDARを実装するための主要な技術的ハードルのようです。LIDARを使用する道路で唯一の車両であれば、完全に機能するかどうかは関係ありません。
本当の問題は、LIDARがすべての車両に存在し、潜在的に車両ごとに複数のスキャナーがあり、各車両の周囲のすべての方向をスキャンする将来のシナリオで、同様のシステムからのスプリアス信号をどのように処理するかです。
それは正常に機能することができますか、それ自体のスキャンを何らかの方法で区別し、他を拒否することができますか、最悪の場合、完全に失敗して無駄なゴミデータを報告するだけで、ゴミデータを報告していることを知りませんか?
これは少なくとも、人間の脳で行われているように、自然光とステレオカメラ深度の統合に基づいているだけの受動的な3Dコンピュータビジョンを持つ強力なケースのようです。