タグ付けされた質問 「odometry」


2
車輪付きロボットに適したIMUを選択する方法は?
私たちの研究室には、いくつかの「カート」タイプのロボット(パイオニア、6輪、差動駆動のサイズ)があります。内蔵のジャイロスコープは今では本当に時代遅れです。主な問題は、ジャイロスコープが大きくドリフトするということです。これは、ジャイロが熱くなるにつれて増加します(誤差は最大3°/ sです)。主にIMU(慣性測定ユニット)を使用して初期姿勢推定値を取得しますが、これは後にローカリゼーションアルゴリズムによって修正されますが、それでも、IMUによって引き起こされる大きな初期姿勢誤差は煩わしいことがよくあります。 IMUの代替として一時的にAndroidスマートフォン(Galaxy S2)を使用しましたが、古いIMUと比較して結果は非常に優れています。ただし、IMUと制御コンピューター(ROS / Ubuntuを実行しているラップトップ)の間のWiFi接続に依存するのは好きではないので、新しいIMUを購入したいと考えています。 どのIMUを選択する必要がありますか?私たちのアプリケーションで考慮すべき重要な基準は何ですか?
16 ros  imu  odometry  gyroscope  ugv 


1
実際には、カメラベースの視覚オドメトリ/ SLAMメソッドの精度は、自律カーナビゲーションのLIDARベースのメソッドにどのくらい近いですか?
Andreessen HorowitzのゼネラルパートナーであるBenedict Evansは、「ほぼすべての自治」プロジェクトがSLAMにLIDARを使用しており、そのすべてがHDマップを使用しているわけではないと主張しています。 MITグループは、HDマップのない公道で自動運転車をテストしています。 私の質問は、LIDARとカメラの誤差の差が大きいかどうかです。ベネディクトエヴァンスなどは、自動運転車の十分な精度のSLAMにはライダーが必要であると主張していますが、一見すると、KITTIベンチマークデータはその主張に矛盾しているようです。その印象を確認または反論したい。 視覚オドメトリ/ SLAMメソッドのKITTI Visionベンチマークリーダーボードでは、最初にV-LOAMと呼ばれるLIDARベースのメソッドが、4番目にSOFT2と呼ばれるステレオカメラベースのメソッドが示されています。それらは同じ回転誤差を持ち、それぞれの並進誤差のパーセントポイント差は0.05です。 自律カーナビゲーションに関して、翻訳精度の0.05パーセントポイントの違いは大きいですか、それとも重要ではありませんか? オドメトリ/ SLAMメソッド用のKITTI Visionベンチマークリーダーボード:

4
オドメトリと推測航法
ロボット工学に関して、オドメトリと推測航法の違いは何ですか? オドメトリは位置を推定するためにホイールセンサーを使用し、推測航法もホイールセンサーを使用しますが、「方位センサー」も使用することを読みました。誰かがこの点について詳しく説明してくれませんか?

3
KINECTを使用してモバイル自律ロボットのマップを改善するにはどうすればよいですか
私の狙いの背景 私は、未知の領域の周りをナビゲートし、障害物を回避し、さまざまなタスクを実行するために音声入力を受信する必要がある移動自律ロボットを構築しています。また、顔やオブジェクトなども認識しなければなりません。Kinectセンサーとホイールオドメトリデータをセンサーとして使用しています。公式ドライバーとSDKがすぐに利用できるので、私はC#を主要言語として選択しました。ビジョンとNLPモジュールを完了し、ナビゲーション部分に取り組んでいます。 私のロボットは現在、Arduinoを通信用のモジュールとして使用し、ラップトップ上のIntel i7 x64ビットプロセッサをCPUとして使用しています。 これはロボットとその電子機器の概要です: 問題 エンコーダーからロボットの位置を取得するシンプルなSLAMアルゴリズムを実装し、Kinectを使用して(3D点群の2Dスライスとして)見えるものをマップに追加します。 これは私の部屋の地図が現在どのように見えるかです: これは私の実際の部屋の大まかな表現です: ご覧のとおり、それらは非常に異なり、非常に悪いマップです。 これは推測航法だけを使用することから予想されますか? 私はそれを洗練して実装する準備ができている粒子フィルターを知っていますが、この結果を改善する方法は何ですか? 更新 私の現在のアプローチについて言及するのを忘れていました(以前は忘れていました)。私のプログラムは大まかにこれを行います:(私は動的テーブルを格納するためにハッシュテーブルを使用しています) Kinectから点群を取得 シリアルオドメトリデータの受信を待つ タイムスタンプベースの方法を使用して同期する ウィキペディアの方程式とエンコーダーデータを使用してロボットのポーズ(x、y、theta)を推定する 点群の「スライス」を取得する 私のスライスは基本的にXおよびZパラメータの配列です 次に、ロボットのポーズとXおよびZパラメータに基づいてこれらのポイントをプロットします 繰り返す
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.