タグ付けされた質問 「kinect」

4
Kinect for WindowsとKinect for XBoxの違いは何ですか?
私が見るように、2つの間に大きな価格差がある$ 223対$(アマゾンで)99。 私の意図は、Ubuntu linuxのいずれかを使用して深度センシング、ナビゲーションなどを実行することであり、当然、より安価なものを好みます。ただし、Kinect for Xboxバージョンに賭けているときに重要なポイントを見逃しているかどうかはわかりません。 Windowsバージョンは開発用のライセンスを持っているため、価格が高すぎるようです。ここでは、内部の違いはあるものの、正確な詳細はないことが示されています(Windowsバージョンの場合、最小検知距離のほうが優れているようです)。 誰もが比較チャートを与えることができますか?知っておくといいでしょう 接続性:USB、特殊コネクタ、... ハードウェアの違い:重量、エネルギー消費、速度、検出範囲などは同じですか、それとも本当に違いますか? ドライバー:UbuntuでXboxバージョンを使用できますか? APIの使用:Xboxバージョンで開発できますか、両方で同じ/類似のAPIを使用できますか?XboxのAPIは十分成熟していますか? ライセンス:家庭/趣味/教育用に開発するのはXboxバージョンのライセンスに反しますか? ありがとう。
40 sensors  kinect 

2
クワッドローターをターゲットに向けて導く
クワッドローターに取り組んでいます。-私はその位置を知っている私が行ってみたい、 -目標位置、及びそのI計算Aベクターから -私の目標に私を取る単位ベクトルを:b caaabbbccc c = b - a c = normalize(c) クワッドローターは回転せずにどの方向にも移動できるため、私がやろうとしたのは ロボットのヨー角でを回転させるccc コンポーネントに分割するx 、yバツ、yx, y それらをロール角とピッチ角としてロボットに渡します。 問題は、ヨーが0°±5の場合、これは機能しますが、ヨーが+90または-90に近い場合、失敗し、誤った方向に進みます。私の質問は、ここに明らかな何かが足りないのですか?
9 quadcopter  uav  navigation  slam  kinect  computer-vision  algorithm  c++  ransac  mobile-robot  arduino  microcontroller  machine-learning  simulator  rcservo  arduino  software  wifi  c  software  simulator  children  multi-agent  ros  roomba  irobot-create  slam  kalman-filter  control  wiring  routing  motion  kinect  motor  electronics  power  mobile-robot  design  nxt  programming-languages  mindstorms  algorithm  not-exactly-c  nxt  programming-languages  mindstorms  not-exactly-c  raspberry-pi  operating-systems  mobile-robot  robotic-arm  sensors  kinect  nxt  programming-languages  mindstorms  sensors  circuit  motion-planning  algorithm  rrt  theory  design  electronics  accelerometer  calibration  arduino  sensors  accelerometer 

3
KINECTを使用してモバイル自律ロボットのマップを改善するにはどうすればよいですか
私の狙いの背景 私は、未知の領域の周りをナビゲートし、障害物を回避し、さまざまなタスクを実行するために音声入力を受信する必要がある移動自律ロボットを構築しています。また、顔やオブジェクトなども認識しなければなりません。Kinectセンサーとホイールオドメトリデータをセンサーとして使用しています。公式ドライバーとSDKがすぐに利用できるので、私はC#を主要言語として選択しました。ビジョンとNLPモジュールを完了し、ナビゲーション部分に取り組んでいます。 私のロボットは現在、Arduinoを通信用のモジュールとして使用し、ラップトップ上のIntel i7 x64ビットプロセッサをCPUとして使用しています。 これはロボットとその電子機器の概要です: 問題 エンコーダーからロボットの位置を取得するシンプルなSLAMアルゴリズムを実装し、Kinectを使用して(3D点群の2Dスライスとして)見えるものをマップに追加します。 これは私の部屋の地図が現在どのように見えるかです: これは私の実際の部屋の大まかな表現です: ご覧のとおり、それらは非常に異なり、非常に悪いマップです。 これは推測航法だけを使用することから予想されますか? 私はそれを洗練して実装する準備ができている粒子フィルターを知っていますが、この結果を改善する方法は何ですか? 更新 私の現在のアプローチについて言及するのを忘れていました(以前は忘れていました)。私のプログラムは大まかにこれを行います:(私は動的テーブルを格納するためにハッシュテーブルを使用しています) Kinectから点群を取得 シリアルオドメトリデータの受信を待つ タイムスタンプベースの方法を使用して同期する ウィキペディアの方程式とエンコーダーデータを使用してロボットのポーズ(x、y、theta)を推定する 点群の「スライス」を取得する 私のスライスは基本的にXおよびZパラメータの配列です 次に、ロボットのポーズとXおよびZパラメータに基づいてこれらのポイントをプロットします 繰り返す

5
Arduino Unoボードは計算上どのくらい強力ですか?
UnoのようなArduinoボードは本当に何ができますか?もちろん、2つのサーボを制御するような単純なことは非常に簡単です。しかし、UnoボードがモバイルロボットのKinectセンサーから収集された点群データからリアルタイム3D SLAMを実行できるとは思いませんか?ロボットがまったく速度を持っていた場合、Arduinoは追いつくことができませんでしたね?移動中に2D SLAMを実行して、追いつくことができますか?Kinectセンサーからポイントの1/10を取り、それらのみを処理するのはどうですか? 基本的に、そのようなArduinoボードのリソース制限の例は何ですか?
8 arduino  slam  kinect 
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.