タグ付けされた質問 「sensors」

センサー(検出器とも呼ばれます)は、物理量を測定し、それを信号に変換して、観測者または(今日は主に電子的な)機器が読み取ることができる信号に変換します。

4
Kinect for WindowsとKinect for XBoxの違いは何ですか?
私が見るように、2つの間に大きな価格差がある$ 223対$(アマゾンで)99。 私の意図は、Ubuntu linuxのいずれかを使用して深度センシング、ナビゲーションなどを実行することであり、当然、より安価なものを好みます。ただし、Kinect for Xboxバージョンに賭けているときに重要なポイントを見逃しているかどうかはわかりません。 Windowsバージョンは開発用のライセンスを持っているため、価格が高すぎるようです。ここでは、内部の違いはあるものの、正確な詳細はないことが示されています(Windowsバージョンの場合、最小検知距離のほうが優れているようです)。 誰もが比較チャートを与えることができますか?知っておくといいでしょう 接続性:USB、特殊コネクタ、... ハードウェアの違い:重量、エネルギー消費、速度、検出範囲などは同じですか、それとも本当に違いますか? ドライバー:UbuntuでXboxバージョンを使用できますか? APIの使用:Xboxバージョンで開発できますか、両方で同じ/類似のAPIを使用できますか?XboxのAPIは十分成熟していますか? ライセンス:家庭/趣味/教育用に開発するのはXboxバージョンのライセンスに反しますか? ありがとう。
40 sensors  kinect 

2
センサーからの線形データと角度データを融合する方法
私のチームと私は、エンコーダー、商用グレードのIMU、GPSセンサーを備えた屋外ロボットをセットアップしています。ロボットは基本的なタンク駆動を備えているため、エンコーダーは左右の車輪から十分にティックを供給します。IMUは、ロール、ピッチ、ヨー、およびx、y、zの線形加速度を与えます。後で冗長性を与える他のIMUを追加できますが、ロール、ピッチ、ヨーの角速度も追加で提供できます。GPSは、グローバルなx、y、およびz座標を公開します。 ロボットのxy位置と方向を知ることは、ロボットがその環境をローカライズおよびマップしてナビゲートするのに役立ちます。ロボットの速度は、スムーズな動きの決定にも役立ちます。地上のロボットなので、z軸についてはあまり気にしません。ロボットにはLIDARセンサーとカメラもあります。したがって、ロールとピッチはLIDARとカメラのデータを変換して向きを変えるのに役立ちます。 すべてのセンサーの精度を最適に活用する方法で、これらすべての数値を融合する方法を見つけようとしています。現在、カルマンフィルターを使用[x, x-vel, x-accel, y, y-vel, y-accel]して、単純な遷移行列の推定値を生成しています。 [[1, dt, .5*dt*dt, 0, 0, 0], [0, 1, dt, 0, 0, 0], [0, 0, 1, 0, 0, 0], [0, 0, 0, 1, dt, .5*dt*dt], [0, 0, 0, 0, 1, dt], [0, 0, 0, 0, 0, 1]] フィルタは、IMUによって提供される加速度にのみ基づいて状態を推定します。(IMUは最高の品質ではありません。約30秒以内に、ロボットが(静止状態で)初期位置から20メートルほどドリフトするのが表示されます。)ロール、ピッチ、ヨーの使用方法を知りたいIMU、および潜在的にロール、ピッチ、およびヨーレート、車輪からのエンコーダデータ、および状態推定を改善するためのGPSデータ。 少しの数学を使用して、2つのエンコーダーを使用して、ロボットのx、y、およびヘッディング情報、および線速度と角速度を生成できます。エンコーダーは非常に正確ですが、屋外のフィールドで滑りやすくなります。 ここには、融合するのが難しい2つの別個のデータセットがあるように思えます。 x、x-vel、x-accel、y、y-vel、y-accelの推定 ロール、ピッチ、ヨーの推定値、およびロール、ピッチ、ヨーの速度 これら2つのセットの間にはクロスオーバーがありますが、それらをどのように組み合わせるかについて推論するのに苦労しています。たとえば、ロボットが一定の速度で移動している場合、x-velおよびy-velによって決定されるロボットの方向は、ヨーと同じになります。ただし、ロボットが停止している場合、ヨーはxおよびyの速度によって正確に決定できません。また、角速度に変換されたエンコーダーによって提供されるデータは、ヨーレートの更新になる可能性があります... …

8
GPSを使用しない絶対測位
IMUを使用すると、ロボットは開始位置に対する現在位置を推定できますが、これには時間の経過とともにエラーが発生します。GPSは、ローカルエラーの蓄積によって偏らない位置情報を提供するのに特に役立ちます。しかし、GPSは屋内では使用できず、屋外でもむらがある場合があります。 では、GPSを使用せずに(基準のフレームに対して)ローカライズするためにロボットが使用できる方法またはセンサーは何ですか?

1
6軸の力/トルクセンサーはどのように機能しますか?
ロボットに6軸の力/トルクセンサーが本当に欲しいのですが、それを買う余裕はありません。私は自分のものを作ることを考えていました。 ひずみゲージの使用経験はありますが、6軸の力/トルクセンサーを作成するためにひずみゲージを配置する方法はわかりません。 これは私が自分で実行できるものですか? 彼らはどのように機能しますか?それらの背後にある理論は何ですか? 自分で作るのが現実的でないとしても、どのように機能するのか知りたいです。 追加: 明確にするために、このATI Nano 17のような力/トルクセンサーについて説明しています。 私は加速度計やジャイロ、またはMEMS IMUについて話をしていません。

6
人を検出する最も安い/最も簡単な方法は何ですか?
標準の既製の安価なセンサーを使用して、温かい体の哺乳類(つまり人間)の検出に成功した人がいるかどうかを知りたいのですが。 理想的には、安価なセンサーまたはセンサーの組み合わせを使用して、部屋の中の人を検出し、その人の位置を特定したいと思います。ロボットを部屋に入れて、人がいるかどうかを検出し、検出された人に移動してほしい。コストはより大きな要因であるため、精度は100%である必要はありません。このようなセンサーの計算要件は、Arduinoで実行できるようにしたいのですが、それが不可能な場合は、Raspberry PiやBeagleBone Blackなど、より強力な機能を使用したいと思います。私はいくつかの考えがあります。ただし、それらのいずれも理想的ではありません。 PIRセンサー -大きな視野(通常は120度以上)内の動きを検出できます。私が知っている「人間」の検出器に最も近いものかもしれません。ただし、このような大きな視野では、人がどこにいるのかを移動およびローカライズ/三角測量することは非常に困難です(不可能ですか?)。 超音波 -オブジェクトを高い精度で検出できます。視野がずっと狭くなっています。ただし、静的な非生物と人間を区別することはできません。 IR検出器 -(シャープレンジセンサーなど)再び非常に狭い視野で非常に正確にオブジェクトを検出できます。ただし、再びオブジェクトを区別することはできません。 Webcam + OpenCV-おそらく顔検出を使用して部屋内の人間を検出します。これが最良のオプションかもしれません。ただし、OpenCVは計算コストが高く、実行するにはarduinoよりもはるかに多くが必要です。Raspberry Piでも、遅くなる場合があります。 Kinect - Kinectの機能検出機能を使用すると、エリア内の人間を比較的簡単に識別できます。ただし、Kinectは高価すぎるため、「安い」ソリューションとは見なしません。 おそらく誰かが体温に合わせて調整された安価な「熱検出器」を知っているか、上記の(#1-4)のいくつかの組み合わせで成功していて、結果を共有したいのでしょうか?
15 sensors 

4
磁石はIMU値に影響しますか?
建設に12個の3x10mm円筒磁石を必要とするロボットを製造する過程でのIm。IMUを設置する予定のロボットの中心から30mmです。 MPU-6050の使用を考えていました。磁石は値に影響しますか?はいの場合、解決策はありますか?IMUの周りにシールドや何かを持っているかもしれませんか?
13 sensors  imu 

2
ロボットのDCモーターが故障し始めているかどうかを検出するにはどうすればよいですか?
ロボットのDCモーター、たとえばドライブに使用されているDCモーターが故障している可能性があることを示す、信頼できる早期警告の兆候となる可能性のある特性はどれですか。手動検査ではなくセンサーの観点で対処する回答を探しています。そのため、発生する前に潜在的な障害を警告する回路を構築できます。 電流の増加や回転速度/電圧の低下など、いくつかのアイデアがありますが、合理的な摩耗や裂け目、または厳しい地形で苦労しているロボットによって引き起こされる誤った警告から保護したいです。 明らかに、そのようなシステムは絶対確実ではありませんが、私が注目できる点はありますか?
13 sensors  failure  motor 

2
コンパスラグ(レート依存ヒステリシス)を処理する方法は何ですか?
距離を追跡するための低精度のホイールエンコーダと、方位を決定するための電子コンパスを備えたトレッド駆動のロボットを手に入れました。コンパスは、たとえばウェイポイントに到達した後など、ロボットが素早く旋回するときに大きな(1秒を超える)ラグがあります。 遅延に対処する方法は何ですか?多くの測定を行い、コンパス応答をモデル化できると思います。ただし、これはレートに依存し、瞬時のレートがわからないため、問題があるようです。 単純だが遅いアプローチとして、ロボットを非常に大まかに正しい方向に向けるまで回転させ、その後、正しい方向に向けるまで短時間の測定休止で非常に小さな増分回転を行います。これに対処する他の方法はありますか?
12 sensors  compass 

3
テーブルの端を検出するにはどうすればよいですか?
私はロボット作成が初めてで、最初のarduinoをいじってみました。 テーブルの上をうろうろするロボットを作りたいし、長持ちするのかと思ったら、テーブルから落ちないように作れるかなと思います。 テーブルの端を検出して停止して方向転換できるようにするための最良の方法は何ですか?それは信頼できる何か、できれば安いものでなければなりません。 テーブルに余分なものを追加する必要がなく、どの面でも使用できるようにした方が良いでしょう(私の最初のアイデアは、テーブルにパスラインを描画してラインフォロアーロボットを作ることでしたが、私はしませんでしたこのアイデアのように)。
11 sensors 

1
デジタルコンパスに対するモーター電流の動的な影響をどのように特徴付け、補正できますか?
デジタルコンパス(磁力計)を正確にするには、ハード/ソフトアイアンキャリブレーションが必要です。これにより、近くの金属物体(ロボットのシャーシ)によって引き起こされる磁気障害が補正されます。 (http://diydrones.comからの画像) ただし、デジタルコンパスは、モーターによって引き出される比較的大量の電流によって引き起こされる電界の影響も受けやすくなっています。 正確なコンパス測定値を得るために、モーター電流レベルの変化によって引き起こされる干渉を測定(および補償)するための最良の方法は何ですか?

3
推測航法用の加速度計の選択
これまでに加速度計を使用したことはありませんが、I2C、SPI、およびアナログ出力が付属していることを認識しています。I2cまたはSPI、デバイスを使用することを選択した場合、通信時間によるエラーが蓄積されますか? アナログ信号の高速サンプリングは、I2Cを使用するよりも正確な推定位置を取得する可能性がありますか? これは本当ですか 部屋を移動するロボット 屋外の地形を移動するロボットで、坂道を滑り落ちる可能性があります。 また、Gsの感覚がありません。私の拳でandro-sensorを実行している携帯電話で手をすばやく動かそうとすると、読み取り値が20m / s 2で飽和することがわかりました。ロボットが別の脂肪の動くボットにぶつかったり、速く歩く人間にぶつかったりした場合、ロボットはどのようなGを体験することができますか?

2
障害物回避のためのソナー:センサーの数と設置場所は?
2Dロボットのナビゲーション中に障害物を回避するために、ソナーセンサーを配置するのに最適な位置/角度は何ですか?いくつあるべきですか? 配置の問題に関する理論や例があるかどうか知りたいのですが。ロボットの動き方や形状にもよりますが、一般的な答えを探しています。


2
ロボティクスの場所の追跡と追跡?
ターゲットが動き回るときにターゲットを追跡するロボットを構築しています。ターゲットを追跡するための設定について、いくつかの支援が必要です。最も明白な解決策は超音波または赤外線センサーですが、このアプリケーションではそれらは機能しません。ロボットが混雑したエリアに配置され、そのエリア内の特定の人に向かって移動するように求められたと想像してください(簡単にするために、人が5メートル以内にいると仮定します)。これに対する何らかのレーダーまたは無線ソリューション、または何かありますか?

2
クワッドローターをターゲットに向けて導く
クワッドローターに取り組んでいます。-私はその位置を知っている私が行ってみたい、 -目標位置、及びそのI計算Aベクターから -私の目標に私を取る単位ベクトルを:b caaabbbccc c = b - a c = normalize(c) クワッドローターは回転せずにどの方向にも移動できるため、私がやろうとしたのは ロボットのヨー角でを回転させるccc コンポーネントに分割するx 、yバツ、yx, y それらをロール角とピッチ角としてロボットに渡します。 問題は、ヨーが0°±5の場合、これは機能しますが、ヨーが+90または-90に近い場合、失敗し、誤った方向に進みます。私の質問は、ここに明らかな何かが足りないのですか?
9 quadcopter  uav  navigation  slam  kinect  computer-vision  algorithm  c++  ransac  mobile-robot  arduino  microcontroller  machine-learning  simulator  rcservo  arduino  software  wifi  c  software  simulator  children  multi-agent  ros  roomba  irobot-create  slam  kalman-filter  control  wiring  routing  motion  kinect  motor  electronics  power  mobile-robot  design  nxt  programming-languages  mindstorms  algorithm  not-exactly-c  nxt  programming-languages  mindstorms  not-exactly-c  raspberry-pi  operating-systems  mobile-robot  robotic-arm  sensors  kinect  nxt  programming-languages  mindstorms  sensors  circuit  motion-planning  algorithm  rrt  theory  design  electronics  accelerometer  calibration  arduino  sensors  accelerometer 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.