タグ付けされた質問 「preprocessing」

3
Kayの推定量を使用するには、実際の値の信号をどのように前処理する必要がありますか?
20kHzでサンプリングされた信号サンプルが100,000あります。データは回転機械からの振動データであり、機械の回転速度に関連する重要なスペクトル成分が含まれています。x [ n ]x[n]x[n] マシンの速度はサンプルの持続時間にわたって変化するため、FFTのピークを使用しても、探している結果は得られません。 したがって、短期推定を可能にするケイの推定器などの推定器を使用したいのですが、次の信号モデルを想定しています。 x [ n ] = A exp(jはω N + θ )+ Z[ n ]x[n]=Aexp⁡(jωn+θ)+z[n]x[n] = A \exp(j \omega n + \theta) + z[n] ここで、 = 0 ... 99,999、は振幅、は推定される周波数、は初期オフセット、は複素ノイズです。A ω θ Z [ N ]nnnAAAωω\omegaθθ\thetaz[ n ]z[n]z[n] ただし、私の信号は実数値であり、次のようになります。 x [ n ] = A cos(ω …


3
クロマサブサンプリング:データレートを適切に計算する方法
たとえばY'UV画像でクロマサブサンプリングを利用するときにデータレートを計算する方法を理解するのに苦労しています。 以下の計算例があります。 画像解像度:352*288 周波数:25 fps 以下のために(:4:4 4)以下のように計算例を行きます: (352px * 288px) * 3 color channels * 25 fps * 8 bit = 60 825 600 bit/s ここまでは順調ですね。 しかし、今来る(4:2:0): (352px*288px) * 1.5 color channels * 25 * 8 = 30 412 800 bit/s さて、この例を例(4:1:1)に変換しようとすると、1.5カラーチャネルの比率がどのように計算されるかを正しく理解しているかどうかわかりません。 計算の最初の推測は(4:2:0)の場合でした: 2/4*3=1.5 color channels 同様に(4:1:1)の場合、カラーチャネルの比率を次のように計算します。 1/4*3=0.75 color channels …

4
ビデオフレーム間のハリスコーナートラッキングを改善するための前処理?
無人航空機のグレースケールビデオ画像安定化アプリケーションでは、フレームNから選択されたフレームN + 1の「良い」ハリスコーナーを見つけるのが困難です。問題の原因は、フレーム間の急激な不均一なピクセルコントラストの変化にあるようです。おそらく空中にいて、遅いフレームレート(約3 fps)を使用していることが、ピクセルコントラストのシフトの根本的な原因です。 フレームN + 1の「良い」ハリスコーナーの追跡を改善するために、フレーム間のピクセルコントラストを滑らかにするために、さまざまなヒストグラム均等化手法を試しました。結果は依然として悪いままです。 誰かが遅いフレームレートの日中の空中環境でビデオフレーム間のハリスコーナートラッキングを改善する方法について何か提案がありますか?よろしくお願いします。 編集:2012年1月30日、テストケース(実際のフレームサイズではない)画像を追加 概要の更新:2012年2月8日。人々は、Harrisコーナーはグレースケールビデオ機能の追跡ではそれほど有用ではないことを示唆しています。以下の回答は、さまざまな代替案へのリンクを提案および提供しています。これらの代替案を評価しており、その時点で結果を報告します。コメントと回答をありがとうございました。 これは、35個の「良好な」5x5ハリスコーナーが選択された前のフレームNです。元のフレームは8 bppのrawピクセルです。 59列266列目にある5x5のハリスコーナーは次のとおりです。 追跡された5x5のHarrisコーナーがいくつかある現在のフレームN + 1。そのうちの1つだけが有効です。 r47 c145のフレームN + 1に表示される前のフレーム5x5 Harrisコーナー: 選択した5x5のピクセル強度がすべて、前のフレームから現在のフレームまで不均一に変化していることに注意してください。フレーム間のコントラストイコライゼーションテクニックは、現在のフレームで選択された5x5ピクセルの前のフレームを検出するのに役立ちません。すべての提案を歓迎します。

8
水中で信号を送信するには、音が最善の方法ですか?
音を使って水中で音波をデジタル送信することはできますか?その後、音はリピーターによって変換され、電波で伝送されますか?水中で長距離にわたって音以外に信号を送信するには、他にどのような方法がありますか? /space/32421/how-would-a-transmission-be-relayed-through-bottom-of-europa-ocean-to-earth

4
分光データに対してラバーバンド補正を実行する方法は?
私は基本的に、ラバーバンド/ベースライン修正がどのように機能するかを理解しました。 与えられたスペクトルは(N)の範囲に分割されます。 すべての範囲の最低点が決定されます。 最初のベースラインはこれらのポイントから構築されます。 現在、スペクトル上のすべてのポイントは、現在の範囲の最低ポイントとベースラインの最低ポイントの差によって描かれています。 ただし、扱い方がわからない微妙なニュアンスもあります。たとえば、ポイントの1つが2つの範囲の境界に正確にある場合などです。 さらに、私が書いているアルゴリズムが確かなものであり、他の研究や科学論文で参照できることを証明できる必要があります。 誰かが私にいくつかの参照を与えることができれば私はとても嬉しいでしょう。

1
単純な画像に使用できるセグメンテーション方法は何ですか?
私が現在携わっているプロジェクトに関連して、自分のイメージを「セグメント化」するのに役立つ可能性があることが1つあることに気付きました。そのために、以下に非常に簡単な例を示しました。 セグメンテーションメソッドは一般的にどのように機能し、どのクラスが最初のイメージから私を導くのに役立ちますか: ...秒に: ここで発生したと思われるスケーリングを無視してください。

1
MP3デコードの不一致
2つの異なるデコーダーが同じMP3に対して2つの異なるサンプル結果を出力することは可能ですか?私はMatlabでmp3をデコードし、2つの列を生成します(おそらく各チャネルに1つ)。AVAssetReader(iOS)を使用して同じファイルからサンプルデータを抽出すると、異なる結果が得られます。WAVファイルで同じコードを試したところ、2つの結果が一致したので、コードは問題ないと思います(Matlabの結果には余分な空白フレームがいくつかありました)。 非科学的に、AVAssetReader MP3の結果からランダムな値を選択し、Matlabの結果でそれらを検索すると、それらは存在する傾向がありますが、常にそうとは限りません。これが単なる偶然なのか、丸め誤差が異なるのか、それとも完全に一致するのかはわかりません。問題は、それらが一致する場合、周囲の数値が互いに異なることです。たとえば、0.0021は両方の結果で発生しますが、Matlabの周囲の数値は-0.0649、0.0147などです(AVAssetReaderの結果で0.0021の近くには表示されません)。 この不一致の原因は何ですか。アプリの整合性に深刻な欠如が生じますか、またどのように修正すればよいですか?ありがとうございました。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.