タグ付けされた質問 「computer-vision」

4
ステレオビジョンシステム用のカメラの選択方法
私は、UGVで使用するステレオビジョンシステムを構築中です。このシステムは、大きな屋外フィールドで比較的小さな色の岩を見つけるために遠隔操作される競技で使用されるロボット用です。このようなシステムを調整し、ステレオビジョンシステムのデータを処理する方法を理解しています。しかし、そのようなシステムにカメラを選択する方法は知りません。ステレオビジョンシステム用のカメラを選ぶためのベストプラクティスは何ですか?

4
シングルカメラビジョンおよびマッピングシステム
少し前に、1台のカメラが取り付けられた小さな「おもちゃの戦車」のデモを見ました。この戦車は床を駆け回って物体を検出し、移動/操縦してそれらを回避することができました。おもしろいのは、単一のカメラビジョンシステムを使用していることで、覚えている限りでは、床が平らであることを利用していました。そして、モーターと移動方向に関連してシーン内でフィーチャが移動している速度を使用して、シーンを評価し、それによってマップします。 誰も私にこれに関するいくつかの情報を得るために検索するもの、またはこれを行うことができるコードベースへのポインタを私に送ることができますか? 私が尋ねる理由は、これは何年も前の単一のカメラシステム(5+)であり、したがって(覚えていることから)比較的低い計算負荷であったためです。Raspberry PIでこれを試して、部屋または部屋のセットをマップする車/タンクを構築するつもりでした。


1
視覚センサーを備えたロボットの確率的信念を計算する最良の方法は何ですか?
カメラを主なセンサーとするロボットの「信念空間」計画を実現しようとしています。SLAMと同様に、ロボットには3Dポイントのマップがあり、すべてのステップで環境と2D-3Dマッチングを実行することで位置特定します。この質問のために、マップは変更されないと想定しています。 信念空間の計画の一環として、ロボットが最初から最後まで進む経路を計画しますが、定位の精度が常に最大になるようにします。したがって、実際にロボットを動かさずに、ロボットの可能な状態をサンプリングする必要があり、ロボットがそれらの状態である場合にロボットが行う観察は、ロボットの「信念」を形成する(私が間違っている場合は修正してください) 、その後、それらの位置でのローカリゼーションの不確実性をエンコードします。そして、プランナーは、不確実性(共分散)が最も少ないノードを接続しようとします。 このカメラベースのロボットのローカリゼーションの不確実性は、特定の場所から見える特徴点の数、ロボットの進行方向などに完全に依存するため、特定のサンプルでのローカリゼーションの「不良」の推定値が必要です私がそれを捨てるべきかどうかを決定するでしょう。そこに到達するには、これの測定モデルをどのように定義しますか?それはカメラの測定モデルですか、それともロボットの位置に関連するものですか?事前に測定値を「推測」する方法と、推測された測定値からロボットの共分散を計算するにはどうすればよいですか? 編集:私にとっての主な参照は、ランダムビリーフツリーを迅速に探索するというアイデアです。これは、ビリーフロードマップメソッドの拡張です。別の関連論文では、制約付き計画にRRBTを使用しています。このホワイトペーパーでは、状態は従来のRRTと同様にサンプリングされ、グラフとして頂点として表されますが、頂点が接続される場合、アルゴリズムは信念を現在の頂点から新しい頂点に伝播します(セクションVのPROPAGATE関数1) 、そしてここが私が行き詰まっているところです。実際にトラバースして新しい測定値を取得せずに、信念をエッジに沿って伝播して、ローカリゼーションからの新しい共分散を得る方法を完全に理解していません。RRBT紙 「共分散予測とコスト期待方程式は、PROPAGATE関数に実装されています」と述べていますが、予測のみを使用する場合、たとえば、ローカリゼーションの精度を向上/低下させる可能性がある十分な機能が将来の位置にあるかどうかはどうやってわかりますか?

4
ステレオカメラから密な点群を取得する方法は?
シーンの再構成にステレオカメラを使用しようとしていますが、通常は疎な点群しか取得できません(つまり、画像の半分以上には適切な深度情報がありません)。 ステレオ処理アルゴリズムは、画像内のテクスチャの存在に依存しており、視差範囲や相関ウィンドウサイズなど、より良い結果を得るために微調整できるいくつかのパラメーターがあることを理解しています。ただし、これらのパラメーターを調整する限り、Kinectなどのアクティブセンサーを使用して取得できる結果にリモートで近い結果を得ることができません。 私が欲しいのは、隣接する領域に対応する点群が一致を取得するのに十分なオーバーラップを持たないことが非常に多いため、再構成が著しく損なわれるためです。 コンピュータビジョンの専門家への私の質問は次のとおりです。一般に、(オフィス環境を恣意的に変更せずに)より高密度の点群を取得するにはどうすればよいですか?

7
ロボットのナビゲーションにレーザーセンサーではなくカメラを使用する理由
私は都市環境でのロボットの位置特定とナビゲーションに取り組んでいます。カメラを使いたい。しかし、LRFデータやその他のレーザーデータについて少し混乱しています。 なぜ人々はカメラを使いたいのですか? なぜLRFや他のレーザーデータではないのですか? 誰かがカメラを支持して説明してくれますか?

2
クワッドローターをターゲットに向けて導く
クワッドローターに取り組んでいます。-私はその位置を知っている私が行ってみたい、 -目標位置、及びそのI計算Aベクターから -私の目標に私を取る単位ベクトルを:b caaabbbccc c = b - a c = normalize(c) クワッドローターは回転せずにどの方向にも移動できるため、私がやろうとしたのは ロボットのヨー角でを回転させるccc コンポーネントに分割するx 、yバツ、yx, y それらをロール角とピッチ角としてロボットに渡します。 問題は、ヨーが0°±5の場合、これは機能しますが、ヨーが+90または-90に近い場合、失敗し、誤った方向に進みます。私の質問は、ここに明らかな何かが足りないのですか?
9 quadcopter  uav  navigation  slam  kinect  computer-vision  algorithm  c++  ransac  mobile-robot  arduino  microcontroller  machine-learning  simulator  rcservo  arduino  software  wifi  c  software  simulator  children  multi-agent  ros  roomba  irobot-create  slam  kalman-filter  control  wiring  routing  motion  kinect  motor  electronics  power  mobile-robot  design  nxt  programming-languages  mindstorms  algorithm  not-exactly-c  nxt  programming-languages  mindstorms  not-exactly-c  raspberry-pi  operating-systems  mobile-robot  robotic-arm  sensors  kinect  nxt  programming-languages  mindstorms  sensors  circuit  motion-planning  algorithm  rrt  theory  design  electronics  accelerometer  calibration  arduino  sensors  accelerometer 

2
電子シャッターに関する概念的な問題
CCDとCMOSのセンサーとカメラを見て、印刷プロセスの自動制御のプロセスでどちらを使用するかを決定しました。今ではほとんどすべての必須の数字と略語を把握していますが、シャッターにはまだ問題があります。 機械式と電子式のシャッターにはさまざまなタイプがあることを理解しています。私の問題はシャッター速度に関係しています。メカニカルシャッターを使用する場合、最大シャッタースピードはアセンブリ内の特定の要素によって異なりますが、電子シャッターではどのように機能しますか?私はどのような仕様でも「最大シャッター速度」を読んだことがありません。私がいつも浮かんでいるのはフレーム/秒だけです。しかし、それらは通常、約120 fpsの制限を通過しません。センサーの構成によっては、ハーフフレームを使用する場合、最大シャッタースピードは1/120または1/240であると考えることができます。 これは正しいのでしょうか?本当に遅いようです。約17 m / sで移動する紙の鮮明で鮮明な画像を記録するタスクに直面します。シャッタースピードが遅いと、これは不可能です。メカニカルシャッターを使わざるを得ませんか、それとも誤解していますか?

1
コンピュータービジョンにおける車両検出器の公開トレーニングデータ?
この質問は、物体(特に車両)の検出研究に詳しい人を対象としています。 私はコンピュータビジョンが初めてで、オブジェクト検出分類器のトレーニングについて混乱しています。具体的には、車両検出です。私は車両検出に関する文献を数週間読んでいますが、まだ少し混乱しています。 私が混乱しているのは評価です。システムの評価のために、研究コミュニティは通常、データのテストに使用できるベンチマークされたデータセットを持っています。しかし、システムのパフォーマンスは、トレーニングに使用されたデータにも大きく依存します。 それで、そこにもトレーニングデータセットはありませんか?これにより、メソッドの比較がより均一になります。評価のためにベンチマークデータセットを使用して論文を探し続けているようですが、トレーニングデータの入手元については言及していません。

2
ナビゲーション可能なパスを決定するためのフロアセグメンテーション
私のアプリケーションでは、ロボットに次の物理的な設定があります。 フィードバック付き差動駆動機構(ホイールエンコーダー) ロボットのベースに既知の変換が実装された市販のWebカメラ(RGB、奥行きなし) ロボットは構造化された屋内タイプの環境(オフィス、自宅、大学など)をナビゲートします。ビジョンセンサーを使用して、環境内のナビゲート可能なパスを特定できるようにしたいと考えています。 単一のビジョンセンサーが与えられたときに安全な移動経路を見つけるという問題に取り組むための最良の方法は何ですか? 編集: 私は、実際の経路計画のメカニズムよりも視覚処理技術に興味があると思います。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.