タグ付けされた質問 「particle-filter」

5
粒子フィルター:リサンプリングの方法は?
粒子フィルターの基本原理を理解し、実装しようとしました。しかし、リサンプリングの部分にこだわった。 理論的には、非常に簡単です。古い(および重み付けされた)パーティクルのセットから、置換された新しいパーティクルのセットを描画します。その際、重量の大きい粒子を優先してください。ウェイトが高いパーティクルはより頻繁に描画され、ウェイトが低いパーティクルはより頻繁に描画されません。おそらく一度だけか、まったくないでしょう。リサンプリング後、すべての重みに同じ重みが割り当てられます。 これを実装する方法に関する私の最初のアイデアは、本質的にこれです: 重みを正規化する 各重量に粒子の総数を掛ける それらのスケーリングされた重みを最も近い整数に丸めます(たとえばint()Pythonで) 今、私は、各粒子を描画する頻度を知っている必要があります、しかし、原因丸めエラーのために、私が持っ終わる少ない粒子リサンプリングステップの前によります。 質問:リサンプリング手順の前と同じ数のパーティクルに到達するために、欠落しているパーティクルを「埋める」にはどうすればよいですか?または、ここで完全に軌道に乗っていない場合、どのように正しくリサンプリングしますか?

2
Rao-Blackwellized粒子フィルターと通常のフィルターの違い
これまで読んだことから、Rao-Blackwellizedパーティクルフィルターは、次の変数をマージナライズした後に使用される通常のパーティクルフィルターであるようです。 p (rt、st| yt)p(rt、st|yt)p(r_t,s_t | y^t) 私はその結論について本当に確信が持てないので、これら2種類のフィルターの正確な違いを知りたいと思います。前もって感謝します。

1
いくつかの再帰的ベイジアンフィルターでIMU、LIDAR、およびエンコーダー情報からの測定値を融合する最良の方法は何ですか?
私は、SLAMを4輪(2輪駆動)差動駆動ロボットで通路を運転しています。廊下はどこでも平らではありません。そして、ロボットは所定の位置で回転し、その結果の方向に移動します。SLAMアルゴリズムはオンラインで実行する必要はありません。 ロボットは、ストラップダウンIMU /ジャイロ測定から測定値を取得します(ax,ay,az,wx,wy,wz)。ここでax、x方向の加速度を参照しwx、x軸周りの角加速度を測定します。LIDARは270度の弧で廊下をスキャンし、範囲と角度を測定します。しかし、私が知る限り、廊下には、角を曲がるとき以外は識別できる機能はありません。 エンコーダーによって測定された提案されたアクションをIMUおよびLIDARデータと融合する最良の方法を見つける必要があります。IMUからのヨーをエンコーダーデータと融合して方位をよりよく理解できるのは理にかなっていますが、LIDARデータをどのように組み込む必要がありますか? 本質的に、適切な測定モデルとは何ですか、またどのようにノイズをモーションモデルに組み込む必要がありますか 横にちょうどいくつかのいくつかのガウス雑音を追加しますか(0,σ)? 補遺 これは質問と多少直交しますが、混乱を招きます。現在、SLAMを実行するために粒子フィルターを使用していますが、粒子自体の角加速度の不確実性を表すかどうかについて少し混乱しています。2つのオプションが表示されます。 EKF(または実際には何でも)を使用して「最適な」角加速度行列のベクトルを最初に見つけ、次にこの行列を粒子フィルターの絶対的な真実として使用する別のナビゲーションフィルター。そのため、粒子のドリフトは、角加速度の不確実性によるものではありません。 パーティクルドリフト自体に不確実性を組み込みます。このオプションの方が賢明に見えますが、これを行うための原則的な方法が何かはわかりません。

1
パーティクルフィルターでの姿勢状態(四元数、回転行列)のリサンプリング
姿勢状態を含むパーティクルフィルターがあるとします(このディスカッションでは、ボディから地球フレームまでの単位四元数を使用します)。qebqbe\mathbf{q}_b^e リサンプリングに使用する方法と使用しない方法 多くのリサンプリングスキーム(このペーパーなど)では、分散をある段階で計算する必要があるようですが、これはにとっては簡単なことではありません。または、粗面化を行う場合は分散が必要です。SO{3}SO{3}SO\{3\} 態度の状態の再サンプリングに関する優れた論文はありますか?特に、完全なポーズ(例:位置と姿勢)を再サンプリングするものは?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.