タグ付けされた質問 「calibration」

7
デジタルマルチメータにはキャリブレーションが必要ですか?
この記事では、デジタルマルチメータDMMの仕様/仕様について説明します デジタルマルチメータは、特定の環境内にある場合にのみ仕様を満たすことができます。温度、湿度などの条件は、パフォーマンスに影響を与えます。また、線間電圧などの条件がパフォーマンスに影響を与える可能性があります。デジタルマルチメータがその不確かさの仕様内で動作できることを保証するには、外部条件が満たされていることを保証する必要があります。この範囲外ではエラーが増加し、測定値が保証されなくなります。 さらに考慮すべき要素は、デジタルマルチメータのキャリブレーション期間です。すべての回路は時間とともにドリフトするため、仕様内で動作するようにDMMを定期的に再調整する必要があります。キャリブレーション期間は、DMMの仕様の一部を形成します。最も一般的な校正期間は1年ですが、一部のデジタルマルチメータの仕様では、90日間の校正期間が規定されている場合があります。90日間は、より厳しい仕様をデジタルマルチメーターに適用することを可能にし、より要求の厳しいアプリケーションで使用できるようにします。 デジタルマルチメータのキャリブレーション期間を見るとき、キャリブレーションは所有コストの重要な要素を形成し、数年後には減価償却費よりも大幅に高くなることを覚えておく必要があります。特に要求の厳しいテストが必要な場合を除いて、デジタルマルチメータの長いキャリブレーション期間は通常、推奨されます。 毎年デジタルマルチメーターを校正する必要がありますか?(私の理解では、アナログマルチメータのみがキャリブレーションを必要とします)

2
磁力計の動的較正
この質問は、電気工学スタック交換で回答できるため、信号処理スタック交換から移行されました。 8年前に移行され ました。 私はIMUの一部である磁力計AK8975に取り組んでいます。それは私にとって非常に難しいようです。このチップは、地球上の任意の場所またはその近くの地球の磁場を表す3Dベクトルを出力として提供します。 次の2つのタイプの見出し計算アルゴリズムを試しました。1つは単純でarctan(-y/x)、もう1つは傾き(ピッチ)とバンク(ロール)キャンセルされた数学です。傾斜とバンクの両方が間違った出力を与えます。 2つのアルゴリズムのいずれかを使用して、平面図を水平に保ちながら回転させると、地球に対して正しい見出しを取得することができます(簡単な利用可能なオープンスタディリソースを使用)。 ソフトアイアンとハードアイアンのエラーのキャリブレーションを試みました。3Dでプロットでき、完璧な3D球体を表示できます。それでも、傾斜や赤緯では機能しません。 任意のポインターが役立ちます。 コードとその実装は次のとおりです。 void Compass_Heading() { double MAG_X; double MAG_Y; double cos_roll; double sin_roll; double cos_pitch; double sin_pitch; cos_roll = cos(roll); sin_roll = sin(roll); cos_pitch = cos(pitch); sin_pitch = sin(pitch); //// Tilt compensated Magnetic filed X: MAG_X = magnetom_x*cos_pitch + magnetom_y*sin_roll*sin_pitch + magnetom_z*cos_roll*sin_pitch; //// …

1
磁力計∞形のキャリブレーション
3軸電子コンパスを使用する携帯電話およびその他のデバイスでは、∞/ 8 / S形の動きを使用して、これらのビデオに示すように磁力計を較正します。 なぜこの動きが実行されるのか、理論は何なのか、それを実装するためのCコードの例を挙げることができますか? あなたは、より多くの情報を含む私の別の同様の質問を通過しなければなりません。 この特定の質問に関する追加情報:プラットフォームは、AVR Studio 5を使用した8ビットAtMega32です。 今まで試してみました:形状を作る磁力計のベクトル値の2で平均を除算してみました。考えることはオフセットの計算に役立つかもしれません。形状の2つの同一の部分/側面が、地球の磁場を相殺し、オフセット値を与える方法を考えています。私は間違っているかもしれません。しかし、特に形状ベースのキャリブレーションでは、これが私が現在いる場所です。キャリブレーションはこのように機能すると思います。アイデアは、それがこのようにうまくいくかどうかを調べることです? オフセットを計算し、後でそれらをRaw磁気3Dベクトルから単純に差し引くことができるコードを確認します。私は完全に間違っている可能性があり、それがどのように機能するのか説明がありません。ビデオと球体上にプロットされたデータを見て、どういうわけか私の思考が加速し、方程式の形でその思考を使用しました。B) コード: Read_accl();およびRead_magnato(1);機能は、センサデータを読んでいます。コードが自明であることを願っています。賢明なPPLがこれをはるかに良い方法で使用することを願っています。:\ void InfinityShapedCallibration() { unsigned char ProcessStarted = 0; unsigned long cnt = 0; while (1) { Read_accl(); // Keep reading Acc data // Detect Horizontal position // Detect Upside down position // Then detect the Horizontal position …
15 calibration  imu 

3
標準のボルトとアンペア
ここで回路の精度を計算する方法について尋ねる最近の質問は、一般的なキャリブレーションについて考えました。 特に、EEとしては、通常、ボルトとアンペアを単位として使用しますが、これらはどちらもかなり曖昧で定量化が難しいものです。 以前は、ボルトはどこかに保管されていた「標準セル」によって定義されていましたが、70で動作する超伝導集積回路チップを使用する複雑なシステムである「ジョセフソン電圧標準」の使用に変更印加周波数と基本定数のみに依存する安定した電圧を生成する96 GHz。 後者は、地下室や、ほとんどの企業のテストエンジニアリング部門で一緒に使用できるものではありません。 アンペアはさらに悪い。SIでは、「定電流は、無限の長さの2つの真っ直ぐな平行導体で維持され、無視できる円形断面であり、真空中に1メートル離れて配置された場合、これらの導体間に2×10に等しい力を生成する定電流」と定義されています長さ1メートルあたり-7ニュートン。」 誰もそれを測定する方法はありません。 オームは、水銀の特定の高さと重量によって定義されていましたが、1Vと1Aから派生したユニットであるために放棄されました。 これはすべて、私たちが使用しているもののどれくらいが他の誰かのメーターに合わせて調整されているのかと思うことです。そして、それらのメーターのうちどれだけがまだ他の誰かのものに合わせて較正されているか... カードの大きな家のようです。 1V、1A、および1Rの校正済み基準として使用するために購入できる測定器または機器の中間的な基準はありますか?(明らかに、必要なのはこれらのうち2つだけです。) ボーナス質問:実際のSI値に対して実際にテストされているか、たとえばFlukeに対してテストされていることを示すメーターまたはその他の機器を購入するときに探す必要のある認定ステッカーはありますか?

4
サーミスタを校正する最も簡単な方法は何ですか?
実験装置にアクセスできない趣味家として、私が持っているサーミスタを校正することは私には本当に不可能に思えます。 もちろん、DS18B20のようなキャリブレーションされた温度センサーがありますが、Aruino UNO(新しいMCUと比較して)のような遅いMCUの特別なサーミスタはより高速です。 ラボ機器を使用せずにサーミスタを校正するには、どのようなオプションがありますか?


3
PIC24 RTCCの32.768kHzクリスタルをどのように校正しますか
PIC24 RTCCクリスタルキャリブレーションの最適な方法を見つけようとしています。彼らのアプリケーションノートには、ルックアップテーブルを使用する方法とリファレンスシステムクロックを使用する方法の2つが記載されています。 彼らによれば、リファレンスシステムクロック方式が最適ですが、16.777MHzなどのRTCC水晶発振器の倍数であるシステム発振器を推奨しています。 PIC24に対してこのRTCCクリスタルキャリブレーションプロセスを実際に試した人はいますか?私はいくつかの実用的なガイドラインをいただければ幸いです。PIC24FJ128GA006を使用しています。
10 pic  crystal  rtc  calibration 

1
スマートフォンはどのようにバッテリー残量を測定しますか?
スマートフォン(Androidを想定)は、通常、バッテリーの割合を0〜100%で表示します。これがバッテリーの使用可能な電力容量だと思います。いくつか質問があります。 1)それはどのように正確に残りの電力を測定しますか?バッテリーの定格が3.2Vであると想定すると、完全に充電されたときに3.3 Vを供給している可能性があり、電話の最低限必要な電圧は3Vである可能性があります。0-100%は3Vから3.3Vを指しますか?このキャリブレーションは製造時に一度だけ行われますか? 2)残存電力%はどのようにして正確に測定されますか?測定値は一定期間の平均ですか?もしそうなら、サンプリング周波数とは何ですか?また、最終結果を得るために平均化される読み取り値の数は? 3)充電中の残量%はどのように測定されますか?充電中は出力電圧が違うのではないでしょうか。 4)バッテリー電力の校正は周囲温度の影響をどのように受けますか?最近のバッテリーには温度センサーが付いています。バッテリー残量の計算に使用されている温度ですか、それとも最適充電率ですか? 5)バッテリーの消費がバッテリーの放電と線形ではないと仮定します(集中的なゲームなど)。スマートフォンは可変放電率をどのように処理しますか?バッテリーを再調整するアプリがあります。それらはどのように機能しますか? 6)OSは各アプリのバッテリー使用量をどのように決定しますか?それは単にCPUサイクルとスクリーン時間に基づいていますか、それとも実際に電力消費の測定がありますか? 質問が多すぎる場合は、お詫びします。私はそれらがすべて関連していると思います。

4
1%の抵抗を使用してエラーを校正することは、どの程度実行可能ですか?
現時点では、0.1%の抵抗を使用して、分圧器で正確な電圧を測定しています。ただし、コストが高いため、0.5%または1%の抵抗を使用し、製造時に高精度電圧リファレンスを使用してソフトウェアの誤差を補正することを考えていました。誰かがこれを成功させましたか?どのような落とし穴に遭遇しますか?

1
大量生産のために複数の磁力計を校正する方法
生産環境でいくつかの磁力計を校正するにはどうすればよいですか?磁力計は、コンパスの目的で使用されています。 現在私は、磁力計と関連する電子機器を3次元すべてで回転させ、ソフトウェアを使用して、搭載電子機器の固有の磁気干渉。 大企業が磁気干渉を導入せずにこのプロセスをどのように拡大するのかは気になります。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.