タグ付けされた質問 「localization」

ローカライゼーションは、ロボットの環境マップに対するロボットのポーズを推定する際の問題です。

3
いくつかの超音波センサーを使用して探索エリアのマップを作成するためにどのアルゴリズムを使用できますか?
最近、超音波センサーは信じられないほど安価であり、多くの趣味のロボットアプリケーションで人気があります。アルゴリズムを備えたロボットの周りにセンサーの束(たとえば10)を使用して、エリアの大まかなマップを作成します(ロボットはそれを探索します。)この段階では、動いているオブジェクトを処理することには興味がなく、静止しているものを特定するだけです。GPSを使用して位置を特定します。レーザースキャナーなどの他のコンポーネントを使用すると、はるかに正確な結果が得られると思いますが、そのようなデバイスも天文学的に高価です。 この目的のためのアルゴリズムはありますか?

1
イノベーションステップekfローカリゼーション?
センサーからの観測束があり、ランドマークの予測測定値を取得できるマップがあるとします。補正ステップのEKF位置測定では、各観測値を予測された測定全体と比較する必要がありますか?この場合、2つのループがありますか?または、各観測値と各予測測定値を比較するだけですか?したがって、この場合は1つのループがあります。私は、センサーがすべてのランドマークのすべての観測値をスキャンごとに提供できると思います。次の図はシナリオを示しています。これで、EKFローカリゼーションを実行するたびに、が得られ、があるので、私は得ることができますziziz^{i}z^私z^i\hat{z}^{i}z私ziz^{i}z^私z^i\hat{z}^{i}z私= {z1、z2、z3、z4}zi={z1,z2,z3,z4}z^{i} = \{ z^{1}, z^{2}, z^{3}, z^{4}\}メートルmmz^私= {z^1、z^2、z^3、z^4}z^i={z^1,z^2,z^3,z^4}\hat{z}^{i} = \{ \hat{z}^{1}, \hat{z}^{2}, \hat{z}^{3}, \hat{z}^{4}\}。イノベーションのステップを得るために、これは私がやったことです ここで技術革新です。イテレーションごとに4つのイノベーションが生まれます。これは正しいです?この本の確率的ロボティクスの 204ページで、EKFローカリゼーションを使用しています。Z1=z1−z^1Z2=z2−z^2Z3=z3−z^3Z4=z4−z^4Z1=z1−z^1Z2=z2−z^2Z3=z3−z^3Z4=z4−z^4 Z^{1} = z^{1} - \hat{z}^{1} \\ Z^{2} = z^{2} - \hat{z}^{2} \\ Z^{3} = z^{3} - \hat{z}^{3} \\ Z^{4} = z^{4} - \hat{z}^{4} \\ ZZZ

1
複数の位置推定の融合
ロボットの位置を推定するために2つのサブシステムがあるシステムがあります。最初のサブシステムは、ロボットが保持しているマーカーを検出するために使用され、ロボットの位置と向きの3つの推定値を出力する3つのカメラで構成されています。2番目のサブシステムは、ロボットに配置され、ロボットの2点の速度を測定するシステムです。これら2つを数値的に統合することで、ロボットの位置と向きの推定値を取得できます(2つの点を同時に追跡しているため)。 最初のシステムは精度が低くなりますが、2番目のシステムはドリフトします。最初のシステムは約1秒に1回の出力を提供しますが、2番目のシステムはより頻繁に出力します(1秒あたり100〜200回)。 最初のシステムの推定値で位置をリセットするだけではなく(100%正確ではないため)、2番目のセンサーシステムからの累積位置を使用し、それを最初のシステム。また、最初のシステムの3つの推定値をどのように融合するかという質問がありますか?2つの推定値がまったく同じで、3番目の推定値が完全に異なる(たぶんもっと間違っているという意味)ので、純粋な平均よりも良い方法があるはずです。 そのようなシステムでの使用を推奨する融合アルゴリズムはありますか?カルマンフィルターについては知っていますが、2つのシステムが異なる周波数でデータを出力するため、フィルターの使用方法を理解するのに苦労しています。 質問が十分に明確であることを願っています。見積もりをより正確で正確な見積もりに融合するための最良のアプローチは何ですか? ありがとう

1
モンテカルロローカリゼーション
私は、環境とその開始位置と方向のマップが与えられたロボットのモンテカルロローカリゼーションを実装しています。鉱山のアプローチは次のとおりです。 指定された位置の周りに均一に500個のパーティクルを作成します 次に、各ステップで: モーションはすべてのパーティクルをオドメトリで更新します(現在のアプローチはnewX = oldX + odometryX(1 + standardGaussianRandom)などです)。 ソナーデータを使用して各粒子に重みを割り当てます(式は各センサーの確率に対するものです* = gaussianPDF(realReading)。ここで、ガウスには平均予測読み取りがあります) このステップでの位置として最大の確率で粒子を返す 次に、重みに従って古い粒子から新しい粒子の9/10がリサンプリングされ、予測された位置の周囲で1/10が均一にサンプリングされます 今、私はロボットの環境のためのシミュレーターを書きました、そしてこれはこのローカリゼーションがどのように動作するかです:http : //www.youtube.com/watch? v=q7q3cqktwZI ロボットが長期間失われる可能性があることを非常に恐れています。より広い領域に粒子を追加すると、ロボットはさらに簡単に迷子になります。 より良いパフォーマンスを期待しています。何かアドバイス?

4
EKF-SLAMでは、より信頼性の高いセンサーがある場合にオドメトリが必要になるのはなぜですか?また、すべてのSLAMアルゴリズムは機能ベースですか?
SLAMの本では、ロボットがオドメトリよりも正確なレーザースキャナーから取得したデータをロボットが使用するときに、オドメトリが必要なのはなぜですか?なぜレーザースキャナーに頼って、オドメトリーをやめないのですか?レーザースキャナーにはないオドメトリーによる貢献はありますか?また、すべてのSLAMアルゴリズムは機能ベースですか?

1
キャリブレーションとローカリゼーションに拡張カルマンフィルターを使用すると、どのようなパフォーマンスが期待できますか?
現在、6つの状態変数を追跡するために拡張カルマンフィルターを使用する三輪車スタイルのロボットがあります。システムへの入力は、操舵エンコーダー、距離エンコーダー、および既知のランドマークに方位情報のみを返す回転レーザーです。現在、両方のエンコーダーがメインホイールに配置されています(操縦し、動力も供給されるもの)。 カルマンフィルターによって追跡される6つの変数は、X、Y、ヘディング、距離スケーリング(距離エンコーダーのキャリブレーション)、ステアキャリブレーション(ステアエンコーダーのオフセット)、最後に回転レーザーのベアリングキャリブレーションです。 この種のシステムを使用して、車両を組み立て、ランドマークが豊富な既知の良好な場所を提供し、少し走行します。最終的には、目印の少ない確実な距離で長距離を走行できる、十分に調整された車両になります。そのシンプルで素晴らしい作品です。時間の経過とともにエンコーダーがドリフトすると、自動的にドリフトに追従して調整されます。 現在、同じ原理を複数の操舵輪と駆動輪を備えたロボットに適用しようとしています。この場合、車両は任意の方向に移動したり、所定の位置でスピンしたりできます。各ステアリング/ドライブホイールには、それぞれを調整する必要のある独自のステアリングおよび距離エンコーダーがあります。 より複雑なシステムから同じ種類の信頼性とパフォーマンスを得ることが期待できますか?より多くの変数を含めるためにカルマンフィルターを拡張するときに注意すべき一般的な落とし穴はありますか?次善の値に落ち着くリスクはありますか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.