視覚センサーを備えたロボットの確率的信念を計算する最良の方法は何ですか?


12

カメラを主なセンサーとするロボットの「信念空間」計画を実現しようとしています。SLAMと同様に、ロボットには3Dポイントのマップがあり、すべてのステップで環境と2D-3Dマッチングを実行することで位置特定します。この質問のために、マップは変更されないと想定しています。

信念空間の計画の一環として、ロボットが最初から最後まで進む経路を計画しますが、定位の精度が常に最大になるようにします。したがって、実際にロボットを動かさずに、ロボットの可能な状態をサンプリングする必要があり、ロボットがそれらの状態である場合にロボットが行う観察は、ロボットの「信念」を形成する(私が間違っている場合は修正してください) 、その後、それらの位置でのローカリゼーションの不確実性をエンコードします。そして、プランナーは、不確実性(共分散)が最も少ないノードを接続しようとします。

このカメラベースのロボットのローカリゼーションの不確実性は、特定の場所から見える特徴点の数、ロボットの進行方向などに完全に依存するため、特定のサンプルでのローカリゼーションの「不良」の推定値が必要です私がそれを捨てるべきかどうかを決定するでしょう。そこに到達するには、これの測定モデルをどのように定義しますか?それはカメラの測定モデルですか、それともロボットの位置に関連するものですか?事前に測定値を「推測」する方法と、推測された測定値からロボットの共分散を計算するにはどうすればよいですか?

編集:私にとっての主な参照は、ランダムビリーフツリー迅速に探索するというアイデアです。これは、ビリーフロードマップメソッドの拡張です。別の関連論文では、制約付き計画にRRBTを使用しています。このホワイトペーパーでは、状態は従来のRRTと同様にサンプリングされ、グラフとして頂点として表されますが、頂点が接続される場合、アルゴリズムは信念を現在の頂点から新しい頂点に伝播します(セクションVのPROPAGATE関数1) 、そしてここが私が行き詰まっているところです。実際にトラバースして新しい測定値を取得せずに、信念をエッジに沿って伝播して、ローカリゼーションからの新しい共分散を得る方法を完全に理解していません。RRBT紙 「共分散予測とコスト期待方程式は、PROPAGATE関数に実装されています」と述べていますが、予測のみを使用する場合、たとえば、ローカリゼーションの精度を向上/低下させる可能性がある十分な機能が将来の位置にあるかどうかはどうやってわかりますか?


これに関する文献を読みましたか?
ヤコブ

はい、出くわした関連論文についての質問にいくつかの詳細を追加しました。
HighVoltage

わかりました。私がそれを理解しているかどうか、そして他の人への参照のために言い換えてみましょう。地域全体をサンプリングして、多数の場所での潜在的なビューを決定できるようにし、次に、最初から最後までのルート、「良い」ランドマークのビューを可能にするビューの両方を提供する一連の場所を選択します。SLAMスタイルのローカライズで利用します。あなたの質問は、ビューがどのように「良い」または「悪い」かを定量化する方法と、その「ビューの良さ」が共分散にどのように関連するかです。これは公平な要約ですか?
チャック

1
一言で言えば、はい!これはすでにRRBTの論文ですでに達成されていますが、その背後にある数学を理解するのに苦労しています。
HighVoltage

1
これはクールなコンセプトのように聞こえます。今日はモバイルですが、明日紙を読んで話をします。アルゴリズム全体は、特定のステップで感じると思うものの推測(信念)に基づいていると思います、つまり、実際の測定値はアルゴリズムに属していないため、実際にスペースを移動する必要はありません。アルゴリズム全体は、マップのアプリオリな知識に基づいて構築されており、質の高い結果を得るには正確であることに依存しているようです。
チャック

回答:


2

ベアリングのみのローカリゼーションを使用してカメラの情報をモデル化し、ノイズをゼロにして測定をシミュレートします(例:革新なし)。

さまざまな理由から、これは実際には、パスの有益性を推定する理論的に適切な方法です。

フィッシャーインフォメーションマトリックスのように、多くの「測定不要」の情報量指標があります。必要なのは、ロボットの位置とマップ内のランドマークの位置であり、ランドマークの位置を測定することによってロボットの位置に関する情報がどの程度得られるかを決定します。(またはその逆、測定からのイノベーションはターゲットとロボットの両方に適用されます(SLAMでしょ?)。したがって、同じメトリックが両方に機能します)。

ビジョンセンサーの優れた、広く受け入れられているモデルであるため、私は方位センサーから始めます。世界の地物を特定する際に数ピクセルの誤差を想定して、方位測定の「ノイズ」を把握します。システムの状態をロボットの位置とその不確実性に加え、サンプルパス(推奨通り)とします。サンプリングされたパスの各位置から、FIMを使用して予測された不確実性を再計算します。これは難しくありません。測定値にエラーがないと仮定してください(つまり、ロボットの信念についての「革新」はありませんが、ロボットの位置推定の共分散の減少によって表される不確実性の低下が引き続き発生します。私は問題を単純化するために、ランドマークの位置や不確実性を更新しないでください。

これは、私がこの文学の最後のレビューで思い出したものからかなりよく理解されたアプローチですが、私の言葉を使わないでください(自分でレビューしてください!)。少なくとも、これは簡単にシミュレーションできるベースラインアプローチを形成するはずです。文学の力を使いましょう。あなたは、この論文をセットアップと方程式のために熟読するかもしれません。

まとめ

  1. xΣ
  2. Σi
  3. 軌道の「コスト」を、目標への進行と共分散の逆数(たとえば、情報行列)の凸型の組み合わせとする

いくつかの機微

意味のある最小の状態ベクトルを使用します。ロボットがモーションとは無関係にカメラを向けることができる、または複数のカメラがあると想定できる場合は、向きを無視して位置を追跡するだけです。2Dの位置のみで作業を進めます。

線形化されたシステムを導出する必要がありますが、上記の論文からそれを借りることができます。シミュレーション測定に煩わされないようにしてください(たとえば、「シミュレーション測定」でのみEKF更新を行う場合は、測定が真でノイズがないと想定します。

Pi|i1=FiTPi1|i1Fi+Q
P=PPHT(HPHT+R)1HP

Woodburyマトリックスアイデンティティを適用する場合

P1=P1+HTR1H

n

I=i=1nHiTR1Hi

Ri=1nHiTR1Hi

HHnx2nn2Rn×nσIn×nσ

測定式とは?それは

tan1ytyrxtxr

tr


再帰をほどく。私は次のように進みます:

  1. 不確実性を考慮せずにその方法を見つけるパス検索アルゴリズムを記述します。
  2. H
  3. trace(HTRH)
  4. 結果が軌道のFIM(読者に任せる運動)と一致し、理論的かつ適切な方法で最も有益な軌道が決定されていることに注意してください。

すばらしい答えをありがとう!私は実際に非常によく似たルートをたどり、カメラベースのメトリックを使用して、Rの推定値とRRTを組み合わせたものを使用しました(ごく最近、自分の質問に答える必要があると思っていましたが、あなたは私を倒しました!)。ちなみに、私はあなたの簡略化された更新方程式にinv(R)が含まれているはずだと思います:これはsum(inv(R))のトレースを最大にするか、パス全体でsum(R)を最小にする(Hを無視して)
HighVoltage

ナイスキャッチ。更新します。
ジョシュヴァンダーフック
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.