タグ付けされた質問 「audio」

オーディオ、または信号処理の観点から見ると、オーディオ信号は、通常は電圧としての、音声のアナログまたはデジタル表現です。

1
全体的なラウドネスを変更せずに2つの信号を混合するにはどうすればよいですか?
さまざまな混合比で混合したい2つのオーディオ信号があります。最初は、次のようなものに行きました y(t)=α⋅x1(t)+(1−α)⋅x2(t)y(t)=α⋅x1(t)+(1−α)⋅x2(t)y(t) = \alpha \cdot x_1(t) + (1-\alpha) \cdot x_2(t) ここで、は0と1の比率であり、とは2つの信号です。αα\alphax1x1x_1x2x2x_2 ただし、信号を直線的にミックスしなかったパンニング曲線がいくつかありました。彼らは私に線形混合が混合している間全体的なラウドネスを変えると言った。 それには何かありますか、それとも線形混合がそれを行う正しい方法ですか?


1
バイクアッドフィルターの振幅応答のプロット
バイクワッドフィルターを使用してマルチバンドオーディオEQを作成しました。RBJクックブックのメソッドを使用して係数を取得しています。 次に、振幅応答を示す曲線をプロットします。このソースからの方程式を使用しています これは、係数を取得し、関心のあるポイントでの振幅応答を取得するための関数です。 void GetCoefficients (double samplerate = 44100.0) { //from the rbj biquad coefficient cookbook by Robert Bristow-Johnson long double SR = (long double)samplerate; long double A = powl(10.0L, dBGain/40.0L); long double W0 = 2.0L * PI * Center / SR; long double alpha = sinl(W0)*sinhl( LN2/2.0L * WidthInOctaves …


2
PCMストリームのラウドネス
PCMサンプルを1チャネルのストリーム(8000サンプル/秒)で受信しています。私は次の1000サンプルごとにabs値を追加して1000であるサンプル数で除算することにより信号の「力」を計算することでラウドネスを見つける方法を見つけました。サンプルの値は常に蓄積され、とんでもない値に到達するようです...だから私はそこで何か悪いことをしていると思います。面白いことに、計算が狂ってしまうと、手で「サウンド入力デバイス」を押すと、すべてが正常に戻ります;) とにかく。私の質問は、PCMサンプルのセットのラウドネスを適切に計算する方法ですか?
7 audio  sound 

2
WAVEファイルに保存された値について
waveファイルで見つけられる値、例えば 0.0036 0.0026 0.0174 0.0050 0.0026 0.0108 0.0154 -0.0114 -0.0006 0.0115 あると思いますが、-1と1の間の相対値です。オーディオ編集プログラムで波形を見るときに通常表示される範囲です。では、ファイルを再生すると、これらの相対値はどのようにマッピングされますか?たとえば、値が0.5の場合、それは最大可能ラウドネスの半分での再生を意味しますか?相対値が参照するWAVEファイルに何らかの参照値が保存されていますか? 別のこと:上記の例では、7つの正の値の後に2つの負の値が続きます。それで、スピーカーで振動して音を生み出す膜は、他の方向よりも一方向に長く押されますか、またはこれをどのように解釈する必要がありますか?正の値は振動の1つの方向であり、負の値は別の方向への振動です。または、これは間違っていますか? どうもありがとうございました :-)
7 audio  wave 

1
音声圧縮-LPCでは、線形予測フィルターは一般的なレベルでどのように機能しますか?
こんにちは、私はマルチメディアシステムコースを受講しており、火曜日の試験の準備をしています。一般的なレベルでLPC圧縮について理解しようとしていますが、線形予測フィルター部分で何が起こっているのか問題があります。これはこれまでのところ私の理解です: LPCは、アナログ信号をデジタル化し、セグメントに分割することによって機能します。各セグメントについて、信号の主要な特徴を決定し、これらを可能な限り正確にエンコードしようとします。主な機能は、信号のピッチ(つまり、基本的なフォルマント周波数)、信号のラウドネス、および音声が有声か無声かです。声道励起パラメータと呼ばれるパラメータも決定され、声道モデルで使用されて、音を生成した声道の状態をより適切にモデル化します。このデータはネットワークを介して渡され、受信側でデコードされます。信号のピッチは有声または無声シンセサイザーへの入力として使用され、ラウドネスデータはこの結果の信号の振幅をブーストするために使用されます。 私のノートでは、声道モデルは線形予測フィルターを使用し、n番目のサンプルは、前のpサンプルとシンセサイザーからのエラー項の線形結合であると述べています。 これは、エンコーダーとデコーダーの両方で最後のpサンプルの移動平均を維持することを意味しますか?エンコーダでこの平均信号と実際の信号の差に対応するデータのみを送信するようにするには、 なぜこれらの以前のサンプルの線形結合なのですか?私の理解では、音のラウドネス、周波数、有声/無声の性質を抽出し、実際の信号と予測信号との差ができるだけ小さくなるようにそれらを選択することにより、これらの声道励起パラメータを生成します。確かに、これらの前のサンプルの平均が次のサンプルのより良い指標になるでしょうか? あなたがそれらを指摘することができれば私の理解に穴があればそれは素晴らしいでしょう!前もって感謝します!

2
事前に間引かれたストリーミングオーディオのエイリアシングを最小限に抑えるローパスフィルターの設計
PCMファイルにローパスフィルターを適用する必要があります。FIRフィルター、IIR(butterworth-chebyshev ..)フィルターなど、いくつかの方法がありますが、高速フーリエ変換を適用し、より高い周波数を除去することが理想的なフィルターに最も近い方法のようです。 最速で理想的なフィルタリング方法に最も近いものは何ですか? サウンドのサンプリングレートを変更する前のアンチエイリアスに必要です。(Fcutoff = Fs / 2)そして、1秒のブロックごとに適用されます。データ。主な要件は、サンプルレートを変更した後、新しいオーディオ品質が元のオーディオ品質に可能な限り近いことです。(騒々しくない。) ありがとう。
7 filters  audio 

1
フォンはラウドネスとどのように関係していますか?
まったく同じ信号が2つの.wavファイルに保存されているとしましょう。そして、関数を使用して各ファイルを処理し、1つのファイルが他のファイルよりも20 フォン大きいことが確認されたとします。その関数がこれを計算する方法を無視しましょう。 これは、1つのファイルが他のファイルよりも約4倍大きいことを意味しますか? 2つの信号のホーンの違いをラウドネスの違いに関連付けるには、どの公式を使用できますか? -10 phons = 0.5 0 phons = 1 10 phons = 2


1
MP3デコードの不一致
2つの異なるデコーダーが同じMP3に対して2つの異なるサンプル結果を出力することは可能ですか?私はMatlabでmp3をデコードし、2つの列を生成します(おそらく各チャネルに1つ)。AVAssetReader(iOS)を使用して同じファイルからサンプルデータを抽出すると、異なる結果が得られます。WAVファイルで同じコードを試したところ、2つの結果が一致したので、コードは問題ないと思います(Matlabの結果には余分な空白フレームがいくつかありました)。 非科学的に、AVAssetReader MP3の結果からランダムな値を選択し、Matlabの結果でそれらを検索すると、それらは存在する傾向がありますが、常にそうとは限りません。これが単なる偶然なのか、丸め誤差が異なるのか、それとも完全に一致するのかはわかりません。問題は、それらが一致する場合、周囲の数値が互いに異なることです。たとえば、0.0021は両方の結果で発生しますが、Matlabの周囲の数値は-0.0649、0.0147などです(AVAssetReaderの結果で0.0021の近くには表示されません)。 この不一致の原因は何ですか。アプリの整合性に深刻な欠如が生じますか、またどのように修正すればよいですか?ありがとうございました。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.