ロボットのナビゲーションにレーザーセンサーではなくカメラを使用する理由


11

私は都市環境でのロボットの位置特定とナビゲーションに取り組んでいます。カメラを使いたい。しかし、LRFデータやその他のレーザーデータについて少し混乱しています。

なぜ人々はカメラを使いたいのですか?

なぜLRFや他のレーザーデータではないのですか?

誰かがカメラを支持して説明してくれますか?

回答:


15

3Dレーザー距離計またはLIDAR(Google Carのものなど)は、カメラよりもはるかに高価です。他の理由は、LIDARの場合、すべてのピクセルの距離が利用可能である一方で、処理される生成されたデータが膨大であることです。データをより高速に転送して処理する必要がありますが、これはコストの上昇として再び現れます。最後に、カメラは通常、寿命が長いため、メンテナンスの必要性が少なくなります。

比較的安価なカメラとコンピュータービジョンで、かなり良い結果を得ることができます。

例:

  1. オブジェクトの検出 (人が引いたスーツケースは赤で強調表示されないことに注意してください)。
  2. 追跡

3
コストが絶対的な答えです。高品質のレーザースキャナーは、一般に約10,000ドル(エンドユーザー向け)で起動します。高品質のカメラは、コストの約10分の1です。
チャック

1
どのようなLIDARを考えていますか?スキャンごとに(2D平面上で)約1000ポイントを返すものを使用しましたが、一般的な現代のカメラは数百万のピクセルを返します。これははるかに多くのデータです。
user253751

2
@immibis-Velodyne VLP-16は、16プレーンで毎秒約300kポイントを実行し、SICK LMS511は1プレーンで毎秒約50kポイントを実行します。VLP-16の視野は360度で約8kです。LMS511の視野は190度で約10kですが、工業用に高耐久化されています。これらは写真ではなく、距離の測定値です。カメラはもちろん、より高い解像度を返すことができますが、一般的にステレオなどを行うには非常に高い火力が必要で、フレームが非常に低い解像度のB&Wにダウンサンプリングされるか、リフレッシュレートが非常に低くなります。
チャック

1
つまり、毎秒30万ポイント、毎秒5,000万ピクセルです。カメラにはまだ転送するデータがあります。もちろん、どちらの場合でも、すべてのデータを十分に速く処理できない場合は、データ/ダウンサンプルを破棄できます。
user253751

4

ベンスの回答にあるこれらのポイントに加えて、カメラは次のことができます。

  • フレーム間の非常に堅牢なマッチングとオブジェクト認識をもたらす多くの複雑な機能を計算します
  • 0.50.025
  • 低消費電力
  • パッシブセンサー(レーザーの「クリーン」信号を必要としません)

3

都市環境でのナビゲーション

レーザーによっては、使用できる場所に法的制約がある場合があります。街を走り回ってレーザー光線を投げかけるには、特別な許可/ライセンスが必要になる場合があります。


5
もちろん、レーザーによって異なります。しかし、ここでは宇宙船の武器について話しているのではありません。たとえば、バーコードスキャナーを使用するための許可やライセンスは必要ありません。
David Richerby 2016年

ほとんどの商用LRF(Velodyne、Hokuyo)はクラス1レーザーを使用しており、完全に安全です。Google、Uberなどは、そのようなLRFがインストールされた屋外でプロトタイプをすでにテストしています。私は本当に自分の法務部門が激怒親からの苦情が殺到されるとは思いません...
高電圧

2

他のようにすでに答えました。カメラは、通常よりもはるかに安価であるL ASER RアンジュF inders。

カメラとは、2Dカメラのことですよね。ifm O3D3xxファミリーのカメラのような3Dカメラがいくつかあります。これらのカメラはレーザースキャナーの精度を備えていない可能性がありますが、1K以下の価格で妥当なフレームレートの3D深度データを提供します


1

SLAMのLIDARを標準のRGBカメラと比較して使用する利点はありますか?

私が以前にやや類似した質問に回答したこのリンクをチェックしてください。(それぞれの長所と短所)

都市環境で

Googleのような自動運転車を参照する場合、考慮事項と制約(安全性、コストなど)がたくさんあります。

研究と学習に興味がある場合は、利用可能なハードウェアプラットフォームを使用することをお勧めします。

覚えておいてください:

  1. ライダーが非常に高価な車は簡単には売れません。
  2. 人の周りを自律的に移動する車は、間違いがあった場合に死亡する可能性があります。したがって、考慮事項は、研究と学習のためにアルゴリズムを開発するだけの場合とは異なります。

0

私は人々がカメラだけを使いたいとは本当に思っていないと思います。すべての研究者がLiDARを購入できるとしたら、彼らはすべてLiDARを屋外環境用のロボットに配置します。

カメラはかなり安価であり、範囲の唯一の制限は、アルゴリズム/ソフトウェアで処理できるピクセル/スーパーピクセルの解像度です。

ほとんどの研究者(私を含む)は、構造化ライトカメラを使用しています(ただし、屋外では機能しないため、ロボットが屋外にある場合は、これらのセンサーをRGBカメラに切り替えます)。この光の問題の解決策は、コントローラー/ CPUの処理能力に基づいて、奥行きを大まかに決定するためにステレオカメラ(ステレオビジョン/マルチビューの奥行き)を使用することです。私がまだ個人的に検討していないもう1つの解決策は、複数のKinects / Asus Xtionsなどを使用することです。この場合、深度の確認と屋外用の複数のRGBカメラを利用できます。

LiDARは通常非常に高価です(本当に良いものの場合、数千ドル)。これは将来変更される可能性がありますが、一部の企業はSweepのような250ドルの「LiDAR」を発表しています。ます。

また、LRF / LiDARは範囲と解像度に制限があります(つまり、特定の距離を超えると、深度を明確に解決できないため、0の値を返します(LiDARについて具体的にはわかりませんが、深度カメラには最大値があります)最小範囲(以下)にも深さはありません)。

お役に立てれば。


0

率直に言って、他の誰かが育ててくれることを期待していた別の理由を追加します。そもそもなぜロボットを作るのか?私たちの汚い仕事をする感情のない機械?

ロボットが私たち哺乳類のように純粋に「ビジョン」に依存できるという事実は、ロボットを私たちのようにしてくれると思います。だから私にとって、レーザーとソナーは不正行為です。不正行為の代わりに私たちが焦点を当てるべき私見は、より高いフレームレート、より高いダイナミックレンジ、およびより少ないアーティファクトを備えたより優れたカメラを作り、それらから必要なデータを取得できるソフトウェアを作成することです。(または、2012年以降の用語で言えば、必要なデータを取得するようにネットワークをトレーニングします)。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.