タグ付けされた質問 「modulation」

変調は、一般に送信される情報を含む低周波数変調信号の振幅を使用して、キャリア信号と呼ばれる高周波周期波形の1つ以上のプロパティを変化させるプロセスです。

4
誰かの声を模倣/コピー/偽造する方法は?
サンプル誰かの声に、既存のアプリケーションはありますし、任意の他の音声を調節したり、元の1に似ているために、テキストを合成するためにそれを使うのか? たとえば、このAT&Tの音声合成デモでは、サンプリングされた人間の声に基づいていると思われるプリセットから音声と言語を選択できます。 このプロセスをどのように呼びますか?音声変調ですか?音声合成?
19 modulation  voice 

1
変調ノイズを理解するための数学ツールは何ですか?
ガウスホワイトノイズで構成される信号があるとしnnnます。我々はを乗じて、この信号を変調した場合sin2ωtsin⁡2ωt\sin 2\omega t、得られる信号は、まだ白いパワースペクトルを持っていますが、はっきりとノイズが今の時間に「束ね」です。これは周期定常プロセスの例です。 x(t)=n(t)sin2ωtx(t)=n(t)sin⁡2ωtx(t) = n(t) \sin2\omega t ここで、サインおよびコサイン局部発振器と混合して、周波数でこの信号を復調し、ωω\omegaIおよびQ信号を形成すると仮定します。 I=x(t)×sinωtI=x(t)×sin⁡ωtI = x(t) \times \sin\omega t Q=x(t)×cosωtQ=x(t)×cos⁡ωtQ = x(t) \times \cos\omega t x(t)x(t)x(t)(よりはるかに長い時間間隔で取得)のパワースペクトルが白色であることを単純に観察すると、IとQの両方に同じ振幅の白色ガウスノイズが含まれている1/f1/f1/fことが予想されます。ただし、実際に起こることは、I求積法が高分散で時系列x (t )の部分を選択的にサンプリングし、Qが90度位相がずれて低分散の部分をサンプリングすることです。IIIQQQIIIx(t)x(t)x(t)QQQ その結果、Iのノイズスペクトル密度はQの 33–√3\sqrt{3}倍。QQQ 明らかに、変調ノイズを記述するのに役立つパワースペクトルを超えるものが必要です。私の分野の文献には、上記のプロセスを説明する多くのアクセシブルな論文がありますが、信号処理/ EEコミュニティによってより一般的にどのように扱われるかを学びたいです。 周期定常ノイズの理解と操作に役立つ数学ツールは何ですか? 文献への参照も歓迎します。 参照: Niebauer他、「非定常ショットノイズと干渉計の感度への影響」。物理学 牧師A 43、5022から5029まで。

5
シャノンの能力を壊すことはできますか?
ワイヤレス通信の研究に携わっている友人がいます。彼は、1つの周波数を使用して、特定のスロットで複数のシンボルを送信できることを教えてくれました(もちろん、受信機でデコードできます)。 彼が言った技術は新しい変調方式を使用しています。したがって、1つの送信ノードがワイヤレスチャネルを介して1つの受信ノードに送信し、各ノードで1つのアンテナを使用すると、1つの周波数で1つのスロットで2つのシンボルを送信できます。 私はこのテクニックについて尋ねていませんし、それが正しいかどうかはわかりませんが、これができるかどうか知りたいですか?これも可能ですか?シャノンの制限を破ることはできますか?そのような手法の不可能性を数学的に証明できますか? 私が知りたい他のこと、このテクニックが正しい場合、結果は何ですか?たとえば、このような手法は、干渉チャネルの有名な未解決の問題に対して何を意味するのでしょうか? 何か提案はありますか?参照を歓迎します。

3
2台のコンピューター間で音声でデータを送信します(非常に近い距離)
私は、2台のコンピューター間でサウンドを介してデータを送信する例を作成しています。いくつかの要件: 距離が非常に近い。つまり、2台のコンピューターは基本的に互いに隣接している ノイズが非常に少ない(先生がノイズソースとしてロックソングをオンにするとは思わない) エラーは許容されます。たとえば、「無線通信」を送信した場合、他のコンピューターが「RadiQ通信」を受信した場合も同様に問題ありません。 可能であれば:ヘッダー、フラグ、チェックサムなどはありません。サウンドを介してデータを送信する基本を示す非常に基本的な例が必要なためです。派手になる必要はありません。 このリンクに従って、オーディオ周波数シフトキーイングを使用してみました。 ラボ5 APRS(自動パッケージレポートシステム) そしていくつかの結果を得ました: 私のGithubページ しかし、それだけでは十分ではありません。クロックリカバリ、同期の方法がわかりません...(リンクにはタイミングリカバリメカニズムとしてフェーズロックループがありますが、明らかに十分ではありませんでした)。 だから私はもっと簡単なアプローチを見つけるべきだと思う。ここにリンクを見つけました: データを音声に変換して戻します。ソースコードによる変調/復調 しかし、OPは回答で提案されたメソッドを実装していなかったため、非常に複雑になる可能性があります。また、私は答えで提案されているデコード方法を明確に理解していません: デコーダはもう少し複雑ですが、概要は次のとおりです。 必要に応じて、サンプリングされた信号を11Khz付近でバンドパスフィルターします。これにより、ノイズの多い環境でパフォーマンスが向上します。FIRフィルターは非常にシンプルで、フィルターを生成するオンラインデザインアプレットがいくつかあります。 信号をしきい値処理します。最大振幅の1/2を超える値はすべて1で、以下の値はすべて0です。これは、信号全体をサンプリングしたことを前提としています。これがリアルタイムの場合は、固定のしきい値を選択するか、一定の時間にわたって最大信号レベルを追跡する何らかの自動ゲイン制御を行います。 ドットまたはダッシュの開始をスキャンします。サンプルをドットと見なすために、ドット期間に少なくとも一定数の1を表示することをお勧めします。次に、スキャンを続けて、これがダッシュかどうかを確認します。完全な信号を期待しないでください。1の真ん中にいくつかの0が表示され、0の真ん中にいくつかの1が表示されます。ノイズがほとんどない場合、「オン」期間と「オフ」期間を区別するのはかなり簡単です。 次に、上記のプロセスを逆にします。ダッシュが1ビットをバッファにプッシュする場合、ドットが0をプッシュする場合。 ドットとして分類する前に1がいくつあるのかわかりません。そのため、今のところわからないことがたくさんあります。プロセスを理解できるように、音声でデータを送信する簡単な方法を提案してください。どうもありがとうございました :) 更新: (ある程度)動作しているように見えるMatlabコードをいくつか作成しました。まず、振幅シフトキーイング(サンプリング周波数48000 Hz、F_on = 5000 Hz、ビットレート= 10ビット/秒)を使用して信号を変調し、次にヘッダーと終了シーケンスを追加します(もちろん変調もします)。ヘッダーと終了シーケンスはアドホックベースで選択されました(そう、ハックでした)。 header = [0 0 1 0 1 1 1 1 1 0 0 0 0 0 0 1 1 0 0 0 …
12 audio  modulation  sound  fsk 

1
FSK復調、ビットタイミング回復
私は現在、音響FSK変調と復調を実装しています。私は信号処理の専門家ではないので、ビットタイミングの回復について助けていただければ幸いです。現在、各トーンに対して2つの整合フィルターを使用して復調器を実装しています(非コヒーレント検出の場合、位相の差はです)。基本的に、各フィルターの出力は、振幅の異なるピークです。2つの質問があります。90∘90∘90^{\circ} ビットタイミング回復を実行するにはどうすればよいですか? パケット同期プリアンブル(チャープ、バーカーコード、ゴールデンコードなど)には何をお勧めしますか? 私はガードナーアルゴリズムをグーグルアウトしましたが、それが適用可能かどうか、またその方法はわかりません。現在、サウンドカードを使用してビットレート800 bpsの2つの周波数で作業していると考えてください。

1
興味深いサウンドを作成するためにオーディオ信号で実行される操作の基本的なカテゴリは何ですか?
私はdspに非常に慣れていないので、この質問が意味があるかどうかはわかりません。 私が遭遇したオーディオdspへの限られた進出で: 周波数変調 振幅変調 添加剤合成 減算合成 私の質問は、これらは信号操作(特にオーディオ)の主な基本カテゴリですか? 言い換えれば、プラグインのフルスイートを備えたFL Studioが実行できるすべてのエフェクトと空想的なことを、上記の4つの操作の一連の組み合わせに分解できますか?それとももっとたくさんありますか?プラグインを備えた最新のDAWは、理論的にはこの方法で任意のカテゴリに分類できますか?上記の4つのカテゴリはそれ自体で意味がありますか?! 背景:基本的に、プログラミングとオーディオdspの両方を学習するプロジェクトとして、非常に基本的な(ただし非常に柔軟な)オーディオシンセサイザ/エディタを作成しようとしています。Javaを使用して、基本的な現実世界のシンセサイザーのようなクラスを模倣し、OscillatorやLFOなどを呼び出すことから始めましたが、何か新しいことを学ぶたびに、新しい概念をプログラムに合わせるためにすべてを書き直さなければならないことに気づきます。 ここでもう一度始めて、プログラムの基本的なオブジェクトと構造を考え出そうとしています。これを適切に行うには、これらのオブジェクトがどのように相互作用することを許可する必要があるかを知る必要があります... ありがとう! 編集* * * 有用なコメントと回答をありがとう。私はおそらくdsp側の要素を過小評価していることに気づき、単純なシンセサイザの基本的なテンプレートと構造を作成してから、それを拡張/構築することはできません。新しいことや、物事を行うための「適切な」方法を学ぶとき、私はおそらく何度も何度も何度も再構築する必要があります...それはもっと時間がかかりますが、もっと学ぶでしょうか?また、申し訳ありませんが、まだ誰にも賛成できないほどの担当者がいないようです...できるだけ早く、そうします。 編集*編集*** 少しグーグルすると、この「合成のタイプ」へのこの基本的なガイドが明らかになり、関連性があり興味深いと思いました。

1
低周波数での水中音響通信に使用するのに最適な変調についてどう思いますか?
低周波水中通信に使用するのに最適な変調タイプは何かについての一般的な考えをDSPハイブマインドにpingしたかったのです。多くのことを学ぶことができるので、このプロジェクトを選びました。 いくつかのコンテキスト: 500 Hz未満の低周波数(明らかに、キャリアデータと変調データの両方) たとえば、BPSは200 Hzが良いでしょう。 確かにマルチパスがあります。 周波数は、ドップラーにより、元の周波数の約0.3%の最大係数で不鮮明になる可能性があります。 これまでに見つけたもの: 私はOFDMについて考えていましたが、チャネル推定ははるかに簡単ですが、ドップラー効果に対してはるかに敏感であることを学びました。 チャープ変調についても考えていましたが、そのようなことをした人はいますか? あなたの考えは何ですか? 編集:(マルチパスチャネル、bps = 200 Hzの場合)の「最悪の場合」のシナリオと思われるものをいくつか添付しました。チャネルは時間領域のビット数で表されるため、次の反射が到着する前に通過するビット数をより簡単に確認できます。 ケース1: ケース2: ケース3: ケース4: ノート: 見てわかるように、私はほぼ常に同じ大きさの第2のパスを持っていますが、メインパスに固定する準備ができています。 200 bps(5秒)で1000ビットのパケットの場合、チャネルが大幅に変化する可能性があると思いますが、同時に、パケットの長さと内容を完全に制御できます。 ドップラーによる周波数オフセットは比較的「正常に動作」している、つまり突然の「ジャーク」はないと想定できます。キャリアの不一致による周波数オフセットも同様に考えることができます。

2
DQPSKをソフトデコードする方法
シンボルと前のシンボルのコンスタレーション位置のドット積をとることで、D-BPSKをソフトデコードできました。結果が1以上の場合、シンボルの位相は変更されておらず、ビットはゼロです。結果が<= -1の場合、位相はシフトしており、結果は1です。-1と1の間の結果は、ソフト0またはソフト1です。 D-QPSKで同じことを行う方法がわかりません。フェーズのみを使用することもできますが、これにより、ソフトデコーダーに役立つ可能性のある多くの情報が破棄されます。 このペーパーでは、その方法を説明し、式(10)を示します。 b1=Re{sns∗n−1},b2=Im{sns∗n−1}b1=Re{snsn−1∗},b2=Im{snsn−1∗}b_1 = \mathrm{Re}\{s_n s^*_{n-1}\}, b_2 = \mathrm{Im}\{s_n s^*_{n-1}\} しかし、表記がわかりません*。上に浮かぶとはどういう意味ですか?複素数を掛けて実数部と虚数部をとるだけでうまくいきませんでした。 コンスタレーションは回転することができるので、2つの軸をどのように分離することができますか?

2
深宇宙通信BERおよびFEC?
深宇宙通信(Pioneer、Voyagerなど)から得られるビットエラーレートの種類と、その微視的レベルの受信信号電力でメッセージを回復できるようにする変調とFECの種類を教えてください。 同様のチャネル条件に対して、より近代的な変調方法とエンコード方式はありますか?

2
FSK信号のスペクトル
ここでは、C でシンプルなV.23のようなFSKモデムを実装しました。 選択された変調の特殊性は、0と1が2つの異なる周波数(それぞれ2100 Hzと1300 Hz)のトーンとして送信され、各シンボルの持続時間が1/1200秒、つまり1と2の全周期の間にあるというものです。シンボルトーン周波数の。 受信機で使用したバンドパスフィルターは約875Hz〜2350Hzです。この範囲は経験的に決定されました。 問題は、トーン周波数とシンボル持続時間からそのような信号のこの周波数範囲をどのように計算するかです。 編集:振幅変調との類似性が示唆されています。変調信号は、F キャリア -メッセージ帯域幅からF キャリア +メッセージ帯域幅 Hzの帯域に分類されます。 このロジックをケースに直接適用しようとすると、FSK信号の帯域幅が以下の和集合になると期待できます。 F1 - ビットレートのF1 +はレートビット F0 - ビットレートにF0 + ビットレート または、数字を挿入すると、以下の和集合になります。 1300-1200 = 100から1300 + 1200 = 2500 2100-1200 = 900から2100 + 1200 = 3300 それとも、単にから100への3300ヘルツ。 ただし、FSK信号のスペクトルを見ると、1300-1200 = 100から2100 + 1200 = 3300 Hz ではなく、2100-1200 = 900から1300 …

3
AMとFMでサイドバンドが生成されるのはなぜですか?
信号が電磁スペクトルの搬送波に変調されると、その信号は搬送波周波数を取り巻くスペクトルのごく一部を占めます。また、搬送周波数の上下の周波数で側波帯が生成されます。 しかし、これらの側波帯がAMとFMでどのように、そしてなぜ生成されるのか、また、FMで生成される側波帯が2つしかないのに、なぜAMで生成されるのか?数学的にどのように生成されるかはすでに知っているので、具体的な例を挙げてください。 私が知っていることは、時間領域で、元の信号がキャリア信号に入れられると、実際にキャリア信号と乗算されます。つまり、周波数領域では、元の信号がキャリア信号と畳み込まれます。AMのこれら2つのサイドバンドは、実際にはキャリア信号のフーリエ変換です。 これは正しいです?

1
周波数変調合成アルゴリズム
私が読んだ内容に基づいて、FMサウンド合成のアルゴリズムを作成しました。正しくできたかどうかはわかりません。ソフトウェアシンセ楽器を作成する場合、関数を使用して発振器を生成し、変調器を使用してこの発振器の周波数をモジュール化できます。FM合成が正弦波の変調にのみ機能すると想定されているかどうかはわかりませんか? アルゴリズムは、計測器の波動関数と、周波数変調器の変調器インデックスおよび比率を使用します。各ノートでは、周波数を受け取り、キャリアと変調器の発振器の位相値を保存します。変調器は常に正弦波を使用します。 これは疑似コードのアルゴリズムです: function ProduceSample(instrument, notes_playing) for each note in notes_playing if note.isPlaying() # Calculate signal if instrument.FMIndex != 0 # Apply FM FMFrequency = note.frequency*instrument.FMRatio; # FM frequency is factor of note frequency. note.FMPhase = note.FMPhase + FMFrequency / kGraphSampleRate # Phase of modulator. frequencyDeviation = sin(note.FMPhase * PI)*instrument.FMIndex*FMFrequency …

3
SDRレシーバーがI / Qサンプルを送信するのはなぜですか?
ソフトウェア定義の無線アプリケーション用のハードウェアレシーバーを理解するには、基本的に入力信号を受け取り、それを同調周波数と混合してキャリア周波数を削除し、ペイロード信号の帯域幅に対して十分に高いサンプリングレートで結果の電圧をサンプリングします。 。これらのサンプルは、I / Q値のペアの形式で復調ソフトウェアに送信されます。後で別のサンプルをサイクル(チューニング周波数に関して)取得してQ値を取得し、サンプルレートを実質的に2倍にすることを想定しています。1/41/41/4 なぜI / Q表現を使用するのですか? たとえば、振幅を変えるだけで周波数または位相変調を行うことができるため、信号を合成するときにI / Qが(ハードウェアで)優れた表現であることがわかりますが、この理由はSDRレシーバーの場合には当てはまらないようです。 では、サンプリングレートの2倍のIではなく、出力にI / Qを使用することで得られるものはありますか?それとも慣習の問題ですか?

2
Sound FSK / PSK / DSSSを介したPC間のデータ通信
楽しさと仕事のために、PCのスピーカーを使用して音声またはデータをエンコードして送信できるJavaベースのアプリケーションを実装する必要があります。受信側には、デコーダーソフトウェア付きのマイクがあります。 私は実装にFSK(synまたはasyncまたは提案)を使用することを考えていました: テキスト(データ)--- modulate ---> 10khz-20khzオーディオ搬送波--->無線伝送--->マイク->復調--->テキストまたはデータを表示します。 私の主な考慮事項は次のとおりです。 帯域幅が200bps以下の場合 特定のレベルまでのノイズに強い できれば16khz-20khzの搬送波で44.1khzのサンプリング(この領域ではノイズが少なく、高齢者やマイクにはあまり聞こえません。スピーカーは安価で、ラップトップですぐに利用できます) コーディングロジックが複雑すぎないこと。 最小限のコーディング作業でどの変調が最も効果的に機能しますか?Javaを使用してFSK / BFSK / PSKまたはDSSSを実現するためのライブラリ/サンプルに関する推奨事項はありますか?

2
帯域幅とデータレートの関係
私のメモの一つの質問はこのようなものです。 Consider a communication channel with a bandwidth of 2400Hz. If QPSK technique is used, what is the possible transmission rate? (Assume that rectangular pulses are used in the baseband signals, and that 90% energy preservation is required.) For a baseband system, a bipolar signal of bandwidth B can support …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.