ロボティクス

プロのロボットエンジニア、愛好家、研究者、学生のためのQ&A

1
DCモーター制御-速度-トルク曲線
DCモーターの速度-トルク曲線を実際に使用する方法を理解できません。 速度とトルクの曲線の勾配は、モーターの設計によって定義されると理解しています。曲線の正確な位置は、印加される電圧に依存します。したがって、電圧が変更されると、速度-トルク曲線も変更されますが、電圧が変更される前の初期曲線と平行のままです。下の図を参照してください。 したがって、直感的に推測できるのは、モーターを特定の目標動作点(目標速度と目標トルク)で使用する場合、対応する速度-トルク曲線Cdにモーターのデータシートで指定された勾配があり、動作点を通過することです。この曲線Cdは、対応する電圧Vdで得られる。下の図を参照してください。 したがって、次の推測では、モーターをこの望ましい動作点で動作させるには、モーターに印加する電圧をVdに設定し、電流Id(トルクとトルク定数を使用して計算)を印加する必要があります。 今私が読んだことから、これはDCモーターコントローラーで行われていることではありません。これらは、maxonによって次の図に示されているように、電流と何らかのPWMマジックを使用してのみモーターを駆動しているようです。 DCモーター制御で電圧が使用されず、電流のみが使用される理由は誰でも知っていますか?電圧を変更しない場合、速度を設定する方法がわかりません。そして、PWMは何に役立ちますか? 私はインターネットで何時間も探しましたが、関連するものを見つけることができませんでした。 おかげで、 アントワーヌ。
8 motor  control 

2
Quadcopter:z軸に沿った安定化(高度を保持するため)
最近、クワッドコプターのファームウェアにいくつかの作業を費やしました。モデルはその姿勢を比較的よく安定させています。しかし私は気づきました、それはその高度を時々変えていることに気づきました(多分圧力変化、風または乱気流)。今、私はこれらの高度の低下を取り除きたいと思い、あまり多くの文献を見つけませんでした。私のアプローチは加速度計を使用しています: Z軸の現在のGフォースを計算します g力が0.25 gを超え、25ミリ秒を超える場合、加速度計の項(cm 2 /s²)をpidに送ります 出力はモーターに送られます モデルは、モーターのアップレギュレーションにより、落下時に反応します。ただし、現在の加速度をレギュレーターにフィードするのが賢明かどうかはわかりません。現在、高度の突然の小さな変化に対処するためのよりスマートな方法があるかどうか疑問に思っています。 現在のコード: # define HLD_ALTITUDE_ZGBIAS 0.25f # define HLD_ALTITUDE_ZTBIAS 25 const float fScaleF_g2cmss = 100.f * INERT_G_CONST; int_fast16_t iAccZOutput = 0; // Accelerometer // Calc current g-force bool bOK_G; float fAccel_g = Device::get_accel_z_g(m_pHalBoard, bOK_G); // Get the acceleration in g // Small & …

1
イノベーションステップekfローカリゼーション?
センサーからの観測束があり、ランドマークの予測測定値を取得できるマップがあるとします。補正ステップのEKF位置測定では、各観測値を予測された測定全体と比較する必要がありますか?この場合、2つのループがありますか?または、各観測値と各予測測定値を比較するだけですか?したがって、この場合は1つのループがあります。私は、センサーがすべてのランドマークのすべての観測値をスキャンごとに提供できると思います。次の図はシナリオを示しています。これで、EKFローカリゼーションを実行するたびに、が得られ、があるので、私は得ることができますziziz^{i}z^私z^i\hat{z}^{i}z私ziz^{i}z^私z^i\hat{z}^{i}z私= {z1、z2、z3、z4}zi={z1,z2,z3,z4}z^{i} = \{ z^{1}, z^{2}, z^{3}, z^{4}\}メートルmmz^私= {z^1、z^2、z^3、z^4}z^i={z^1,z^2,z^3,z^4}\hat{z}^{i} = \{ \hat{z}^{1}, \hat{z}^{2}, \hat{z}^{3}, \hat{z}^{4}\}。イノベーションのステップを得るために、これは私がやったことです ここで技術革新です。イテレーションごとに4つのイノベーションが生まれます。これは正しいです?この本の確率的ロボティクスの 204ページで、EKFローカリゼーションを使用しています。Z1=z1−z^1Z2=z2−z^2Z3=z3−z^3Z4=z4−z^4Z1=z1−z^1Z2=z2−z^2Z3=z3−z^3Z4=z4−z^4 Z^{1} = z^{1} - \hat{z}^{1} \\ Z^{2} = z^{2} - \hat{z}^{2} \\ Z^{3} = z^{3} - \hat{z}^{3} \\ Z^{4} = z^{4} - \hat{z}^{4} \\ ZZZ

2
6 DOFシリアルチェーンのインバースキネマティクスの解析ソリューションはありますか?
6自由度のロボット構造を考えてみましょう。これは、位置の3 DOFグローバル構造と、エンドエフェクタの方向の3 DOFローカル構造で構成されています。 (ローカル構造の)最後の3軸が1つの点で一致している場合、インバースキネマティクスは、位置と方向の問題に分解することによって解析的に解くことができます。 しかし、最後の3つの軸が1つの点で一致しない場合、インバースキネマティクスを解析的に解決することはできますか?私は、三角関数の非線形性が高く、3D空間のモーションが複雑であるため、6 DOFシリアルチェーンを解析的に解くことができないと主張する論文をいくつか読んだことがあります。 これが正しいかどうか誰かが知っていますか?

1
複数の位置推定の融合
ロボットの位置を推定するために2つのサブシステムがあるシステムがあります。最初のサブシステムは、ロボットが保持しているマーカーを検出するために使用され、ロボットの位置と向きの3つの推定値を出力する3つのカメラで構成されています。2番目のサブシステムは、ロボットに配置され、ロボットの2点の速度を測定するシステムです。これら2つを数値的に統合することで、ロボットの位置と向きの推定値を取得できます(2つの点を同時に追跡しているため)。 最初のシステムは精度が低くなりますが、2番目のシステムはドリフトします。最初のシステムは約1秒に1回の出力を提供しますが、2番目のシステムはより頻繁に出力します(1秒あたり100〜200回)。 最初のシステムの推定値で位置をリセットするだけではなく(100%正確ではないため)、2番目のセンサーシステムからの累積位置を使用し、それを最初のシステム。また、最初のシステムの3つの推定値をどのように融合するかという質問がありますか?2つの推定値がまったく同じで、3番目の推定値が完全に異なる(たぶんもっと間違っているという意味)ので、純粋な平均よりも良い方法があるはずです。 そのようなシステムでの使用を推奨する融合アルゴリズムはありますか?カルマンフィルターについては知っていますが、2つのシステムが異なる周波数でデータを出力するため、フィルターの使用方法を理解するのに苦労しています。 質問が十分に明確であることを願っています。見積もりをより正確で正確な見積もりに融合するための最良のアプローチは何ですか? ありがとう

1
いくつかの再帰的ベイジアンフィルターでIMU、LIDAR、およびエンコーダー情報からの測定値を融合する最良の方法は何ですか?
私は、SLAMを4輪(2輪駆動)差動駆動ロボットで通路を運転しています。廊下はどこでも平らではありません。そして、ロボットは所定の位置で回転し、その結果の方向に移動します。SLAMアルゴリズムはオンラインで実行する必要はありません。 ロボットは、ストラップダウンIMU /ジャイロ測定から測定値を取得します(ax,ay,az,wx,wy,wz)。ここでax、x方向の加速度を参照しwx、x軸周りの角加速度を測定します。LIDARは270度の弧で廊下をスキャンし、範囲と角度を測定します。しかし、私が知る限り、廊下には、角を曲がるとき以外は識別できる機能はありません。 エンコーダーによって測定された提案されたアクションをIMUおよびLIDARデータと融合する最良の方法を見つける必要があります。IMUからのヨーをエンコーダーデータと融合して方位をよりよく理解できるのは理にかなっていますが、LIDARデータをどのように組み込む必要がありますか? 本質的に、適切な測定モデルとは何ですか、またどのようにノイズをモーションモデルに組み込む必要がありますか 横にちょうどいくつかのいくつかのガウス雑音を追加しますか(0,σ)? 補遺 これは質問と多少直交しますが、混乱を招きます。現在、SLAMを実行するために粒子フィルターを使用していますが、粒子自体の角加速度の不確実性を表すかどうかについて少し混乱しています。2つのオプションが表示されます。 EKF(または実際には何でも)を使用して「最適な」角加速度行列のベクトルを最初に見つけ、次にこの行列を粒子フィルターの絶対的な真実として使用する別のナビゲーションフィルター。そのため、粒子のドリフトは、角加速度の不確実性によるものではありません。 パーティクルドリフト自体に不確実性を組み込みます。このオプションの方が賢明に見えますが、これを行うための原則的な方法が何かはわかりません。

1
モンテカルロローカリゼーション
私は、環境とその開始位置と方向のマップが与えられたロボットのモンテカルロローカリゼーションを実装しています。鉱山のアプローチは次のとおりです。 指定された位置の周りに均一に500個のパーティクルを作成します 次に、各ステップで: モーションはすべてのパーティクルをオドメトリで更新します(現在のアプローチはnewX = oldX + odometryX(1 + standardGaussianRandom)などです)。 ソナーデータを使用して各粒子に重みを割り当てます(式は各センサーの確率に対するものです* = gaussianPDF(realReading)。ここで、ガウスには平均予測読み取りがあります) このステップでの位置として最大の確率で粒子を返す 次に、重みに従って古い粒子から新しい粒子の9/10がリサンプリングされ、予測された位置の周囲で1/10が均一にサンプリングされます 今、私はロボットの環境のためのシミュレーターを書きました、そしてこれはこのローカリゼーションがどのように動作するかです:http : //www.youtube.com/watch? v=q7q3cqktwZI ロボットが長期間失われる可能性があることを非常に恐れています。より広い領域に粒子を追加すると、ロボットはさらに簡単に迷子になります。 より良いパフォーマンスを期待しています。何かアドバイス?

4
プロペラは危険ですか?[閉まっている]
休業。この質問は意見に基づいています。現在、回答を受け付けていません。 この質問を改善してみませんか?この投稿を編集して、事実と引用で回答できるように質問を更新してください。 3年前休業。 すべてのプロペラは超危険ではありませんか?HexやPocket Droneのような新興企業は、ドローンを「子供向け」として消費者に販売していますか?子供が飛行中にプロペラの移動スペースに指を置くとどうなりますか?

2
10cm〜200cmのIR距離センサーを構築するにはどうすればよいですか?
ここの誰もがおそらくシャープ距離センサー(GP2Y0シリーズ、たとえばGP2Y0A02YK0F)を知っています。彼らはダイオードを使用して赤外光を放射し、PSDで反射光の角度を測定します(つまり、三角測量を行います)。彼らはこの技術の唯一の生産者のようです。 私が知っているのは、似ているが比較できないいくつかのデバイス(周辺光のセンサーとSi114xのような距離または近接)だけです。他にどのような比較可能な製品がありますか? この質問をする別の方法:「10cm-200cmの範囲の低コストIR距離センサーを構築するためのさまざまな方法と、それらの各方法の例は何ですか?」

1
パーティクルフィルターでの姿勢状態(四元数、回転行列)のリサンプリング
姿勢状態を含むパーティクルフィルターがあるとします(このディスカッションでは、ボディから地球フレームまでの単位四元数を使用します)。qebqbe\mathbf{q}_b^e リサンプリングに使用する方法と使用しない方法 多くのリサンプリングスキーム(このペーパーなど)では、分散をある段階で計算する必要があるようですが、これはにとっては簡単なことではありません。または、粗面化を行う場合は分散が必要です。SO{3}SO{3}SO\{3\} 態度の状態の再サンプリングに関する優れた論文はありますか?特に、完全なポーズ(例:位置と姿勢)を再サンプリングするものは?


1
コンピュータービジョンにおける車両検出器の公開トレーニングデータ?
この質問は、物体(特に車両)の検出研究に詳しい人を対象としています。 私はコンピュータビジョンが初めてで、オブジェクト検出分類器のトレーニングについて混乱しています。具体的には、車両検出です。私は車両検出に関する文献を数週間読んでいますが、まだ少し混乱しています。 私が混乱しているのは評価です。システムの評価のために、研究コミュニティは通常、データのテストに使用できるベンチマークされたデータセットを持っています。しかし、システムのパフォーマンスは、トレーニングに使用されたデータにも大きく依存します。 それで、そこにもトレーニングデータセットはありませんか?これにより、メソッドの比較がより均一になります。評価のためにベンチマークデータセットを使用して論文を探し続けているようですが、トレーニングデータの入手元については言及していません。

3
リモート脳を使って小さなロボットを作る
ロボットをできるだけ小さく、「デリケートな」パーツをできるだけ少なくして作りたいと思います(ボットはお互いにぶつかります)。 bluetooth / IR / wifiコマンドを受信して​​モーターを動かし、次に加速度計などのセンサーに基づいてフィードバックを送り返す(衝撃を検出する)ことができる小さなチップを使用できるかどうか疑問に思っていました。 私はおそらくPiCyでこのようなことを達成できます ただし、これは(Piのサイズが原因で)希望よりも少し大きく、Piが継続的に影響を与える期間はわかりません。 したがって、脳(Pi)をアリーナの側面にオフセットし、小さなチップを使用して移動コマンドを受信し、加速度計からデータを返送したいと考えています。 そのようなチップに対する推奨事項はありますか?Wifiが私の選択ですが、それがサイズに影響を与える場合、BTを試すことができます 編集:さらなる調査の後、WiFi RedBackシールドを備えたArduino nanoが、モーターに対して次のようなものと一緒に機能する可能性があるようです:http ://www.gravitech.us/2mwfecoadfor.html

3
ランドマークのないスラム?
まず、2Dでロボットのランドマークなしのマップを作成することは可能ですか?2つの壁に囲まれた通路があるとします。ロボットはこの環境で動きます。今、そのようなSLAM問題を構築することは可能ですか?それとも、ランドマークはそうするために利用可能でなければなりませんか?

4
EKF-SLAMでは、より信頼性の高いセンサーがある場合にオドメトリが必要になるのはなぜですか?また、すべてのSLAMアルゴリズムは機能ベースですか?
SLAMの本では、ロボットがオドメトリよりも正確なレーザースキャナーから取得したデータをロボットが使用するときに、オドメトリが必要なのはなぜですか?なぜレーザースキャナーに頼って、オドメトリーをやめないのですか?レーザースキャナーにはないオドメトリーによる貢献はありますか?また、すべてのSLAMアルゴリズムは機能ベースですか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.