タグ付けされた質問 「slam」

SLAM(同時ローカリゼーションとマッピング)は、センサーデータ(マッピング)を介して環境のマップを構築し、同時にそのマップ(ローカリゼーション)での自身の位置を追跡するロボットを指します。

1
いくつかの再帰的ベイジアンフィルターでIMU、LIDAR、およびエンコーダー情報からの測定値を融合する最良の方法は何ですか?
私は、SLAMを4輪(2輪駆動)差動駆動ロボットで通路を運転しています。廊下はどこでも平らではありません。そして、ロボットは所定の位置で回転し、その結果の方向に移動します。SLAMアルゴリズムはオンラインで実行する必要はありません。 ロボットは、ストラップダウンIMU /ジャイロ測定から測定値を取得します(ax,ay,az,wx,wy,wz)。ここでax、x方向の加速度を参照しwx、x軸周りの角加速度を測定します。LIDARは270度の弧で廊下をスキャンし、範囲と角度を測定します。しかし、私が知る限り、廊下には、角を曲がるとき以外は識別できる機能はありません。 エンコーダーによって測定された提案されたアクションをIMUおよびLIDARデータと融合する最良の方法を見つける必要があります。IMUからのヨーをエンコーダーデータと融合して方位をよりよく理解できるのは理にかなっていますが、LIDARデータをどのように組み込む必要がありますか? 本質的に、適切な測定モデルとは何ですか、またどのようにノイズをモーションモデルに組み込む必要がありますか 横にちょうどいくつかのいくつかのガウス雑音を追加しますか(0,σ)? 補遺 これは質問と多少直交しますが、混乱を招きます。現在、SLAMを実行するために粒子フィルターを使用していますが、粒子自体の角加速度の不確実性を表すかどうかについて少し混乱しています。2つのオプションが表示されます。 EKF(または実際には何でも)を使用して「最適な」角加速度行列のベクトルを最初に見つけ、次にこの行列を粒子フィルターの絶対的な真実として使用する別のナビゲーションフィルター。そのため、粒子のドリフトは、角加速度の不確実性によるものではありません。 パーティクルドリフト自体に不確実性を組み込みます。このオプションの方が賢明に見えますが、これを行うための原則的な方法が何かはわかりません。

3
ランドマークのないスラム?
まず、2Dでロボットのランドマークなしのマップを作成することは可能ですか?2つの壁に囲まれた通路があるとします。ロボットはこの環境で動きます。今、そのようなSLAM問題を構築することは可能ですか?それとも、ランドマークはそうするために利用可能でなければなりませんか?

4
EKF-SLAMでは、より信頼性の高いセンサーがある場合にオドメトリが必要になるのはなぜですか?また、すべてのSLAMアルゴリズムは機能ベースですか?
SLAMの本では、ロボットがオドメトリよりも正確なレーザースキャナーから取得したデータをロボットが使用するときに、オドメトリが必要なのはなぜですか?なぜレーザースキャナーに頼って、オドメトリーをやめないのですか?レーザースキャナーにはないオドメトリーによる貢献はありますか?また、すべてのSLAMアルゴリズムは機能ベースですか?

5
Arduino Unoボードは計算上どのくらい強力ですか?
UnoのようなArduinoボードは本当に何ができますか?もちろん、2つのサーボを制御するような単純なことは非常に簡単です。しかし、UnoボードがモバイルロボットのKinectセンサーから収集された点群データからリアルタイム3D SLAMを実行できるとは思いませんか?ロボットがまったく速度を持っていた場合、Arduinoは追いつくことができませんでしたね?移動中に2D SLAMを実行して、追いつくことができますか?Kinectセンサーからポイントの1/10を取り、それらのみを処理するのはどうですか? 基本的に、そのようなArduinoボードのリソース制限の例は何ですか?
8 arduino  slam  kinect 
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.