タグ付けされた質問 「calibration」

2
クワッドローターをターゲットに向けて導く
クワッドローターに取り組んでいます。-私はその位置を知っている私が行ってみたい、 -目標位置、及びそのI計算Aベクターから -私の目標に私を取る単位ベクトルを:b caaabbbccc c = b - a c = normalize(c) クワッドローターは回転せずにどの方向にも移動できるため、私がやろうとしたのは ロボットのヨー角でを回転させるccc コンポーネントに分割するx 、yバツ、yx, y それらをロール角とピッチ角としてロボットに渡します。 問題は、ヨーが0°±5の場合、これは機能しますが、ヨーが+90または-90に近い場合、失敗し、誤った方向に進みます。私の質問は、ここに明らかな何かが足りないのですか?
9 quadcopter  uav  navigation  slam  kinect  computer-vision  algorithm  c++  ransac  mobile-robot  arduino  microcontroller  machine-learning  simulator  rcservo  arduino  software  wifi  c  software  simulator  children  multi-agent  ros  roomba  irobot-create  slam  kalman-filter  control  wiring  routing  motion  kinect  motor  electronics  power  mobile-robot  design  nxt  programming-languages  mindstorms  algorithm  not-exactly-c  nxt  programming-languages  mindstorms  not-exactly-c  raspberry-pi  operating-systems  mobile-robot  robotic-arm  sensors  kinect  nxt  programming-languages  mindstorms  sensors  circuit  motion-planning  algorithm  rrt  theory  design  electronics  accelerometer  calibration  arduino  sensors  accelerometer 

2
なぜ通常、ロボットアームの他の運動学的表現よりもDHパラメータを優先するのですか?
キネマティックキャリブレーションに関して、DHパラメータと他の表現の比較に特に興味があります。キネマティックキャリブレーションで見つけることができる最高の(最も明確な)情報源は、Bruno Siciliano、Lorenzo Sciavicco、Luigi Villani、Giuseppe Oriolo、第2.11章の本「Robotics:Modelling、Planning and Control」にあります。これには、DHパラメーターのアームの説明、キネマティクス方程式の乗算、各DHパラメーターによる偏微分、そして最小二乗近似(左の疑似逆行列)が必要で、その後反復します。 異なる表現(xyz +オイラー角など)の代わりにDHパラメーターが使用される根本的な理由はありますか?パラメーターが少ない(4対6またはそれ以上)ことを理解していますが、このようなキャリブレーション手順では、とにかく未知数よりもはるかに多くのデータを取得します。私が読んだすべてのロボット工学の教科書は、DHパラメータを提示し、「これがあなたが使うべきものです」と言っていますが、実際にはその理由を説明しません。おそらく、この議論はDenavitによる元の論文にありますが、追跡することはできません。

2
回転軸に取り付けられた2Dスキャナーを較正する
2Dレーザースキャナーが回転軸に取り付けられています。スキャナーからの入力と回転角度のみを使用して、軸の中心からスキャナーの中心への変換行列を決定したいと思います。 2Dスキャナー自体は校正済みであると想定されており、スキャナーの原点に関して、レーザーの平面内のオブジェクトの位置を正確に測定します。 回転軸も校正されており、自身の動きの角度を正確に測定します。 スキャナーは回転の中心の近くに位置合わせされて取り付けられていますが、正確なオフセットは不明であり、時間とともにドリフトする可能性があります。 スキャナーの位置と向きを直接測定するのは実際的ではないと仮定します。スキャナーからの6度のオフセットの正確な値を決定する方法を探しています。これは、スキャナーからの2d情報と軸からの回転角度だけで決定されます。 他の2つは入力データから一貫した3D点群を生成することに関して重要ではないので、ここで示されている4つのオフセットに主に関心があります。 既知のキャリブレーションオブジェクトをスキャンすることで、これらのオフセットを特定できるはずです。このための数式は何ですか? 最低限どのような校正情報が必要ですか?たとえば、平らな表面をスキャンするだけですべてのパラメータを決定できますが、表面が平らであること以外は何も知りませんか? (回転軸から世界への変換行列も不明ですが、軸からカメラへの変換がわかれば、それは簡単に決定できます。) 例 左側では、カメラは回転軸に正確に配置されています。カメラは、参照点ABおよびCで平面オブジェクトをスキャンします。レーザー距離測定値と軸の角度に基づいて、この平面オブジェクトを再構築できます。 右側では、カメラの軸に対するオフセットが不明です。同じオブジェクトをスキャンします。このオフセットを認識せずに点群を作成すると、平面サーフェスは曲面にマッピングされます。 表面の曲率に基づいてオフセットを計算できますか? A、B、C間の実際の距離と角度がわかっている場合、そこからカメラのオフセットを計算するにはどうすればよいですか?4つのオフセットすべてに必要な参照ポイントの最小数はいくつですか?

4
3軸加速度計に左手座標系があるように見えるのはなぜですか?
ADXL345データシートの 35ページ(図58)を注意深く検査すると、重力荷重のみで、チップは左手座標系を使用していることがわかります。このチップでの私自身の実験はこれを確認します。 私は通常、チップを使用して重力ベクトルを示します。したがって、このチップを使用するときは、値を無効にして右手座標系を取得します。しかし、これは正しくないようです。左手座標系には論理的および数学的説明があると思いますが、それが何であるかはわかりません。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.