自分の声を他の人に見せます


18

Sooo ..私はこのようなことを考えてきました。私たちは皆、私たちが自分の声で聞いているものとは異なる音であることを知っています。自分を録音して聞くことで、他の人が私たちをどのように聞いているかを簡単に見つけることができます。

しかし、他の方法はどうですか?

自分の声を知覚するときに他の人が私たちの声を聞くことができるように、私たちの声を変える方法はありますか?とても興味深い質問だと思います。悲しいことに、Googleで数回検索した後、ウェブ上で何も見つかりませんでした。誰もこれについて考えたことがありませんか、または私が見ていない何らかの理由で不可能ですか?

これに関する任意のリードをいただければ幸いです:)。


5
問題をできるだけ簡単にすることができます。ヘッドフォンで聞くと、無響室で話すときに聞こえる音声と同じように聞こえる音声の録音を作成します。その方法がわからない。
オリーニーミタロ

2
まさにそれを提案したかったのです。しかし、本当に部屋の影響を排除する必要がありますか?音源としての声の指向性は確かに要因ですが、「調整手順」が行われる場所と同じ場所で録音が行われる場合、この方法はおそらく十分に機能すると思います。
applesoup

回答:


10

不可能ではありませんが、公園を散歩することもできません。

あなたがしようとしているのは、骨介して耳に伝達され、他の誰にもアクセスできない振動を音声信号に追加することです。

しかし、これは正確な方法で行うよりも簡単です。

媒体を通る音の伝播は、その密度に大きく依存します。音は水中で〜1500m / sで移動し、空気中を移動するよりも少ない消散(〜340m / s)で移動します。骨は空気よりも密度が高いため、音は骨をより速く伝わるはずです。これは、「あなたの」音が最初に耳を刺激し始め、次に「通常の」空気チャンネルを介して知覚する音が続くことを意味します。現実には、骨には内部構造があり、さまざまな周波数が通過する方法に影響を与える可能性がありますが、話している周波数の範囲では、おそらく同等の立体と考えることができます。これは、測定の試みが侵襲的である必要があるだけでなく、聴覚が主観的であるため、近似することができるだけです。

聴覚、または音の知覚は、ここでの困難の大きな要因です。耳自体、外耳(目に見えるビット)、運河、および内部機構は、非常に複雑な方法で連携します。これは心理音響学の主題です。この複雑な処理の1つの例は、脳がそこにあるはずの物を埋めている幻影です。脳自体は、私たちがまだアクセスできない自己生成信号を分離する方法をすでに開発している可能性があります。

しかし、あなた自身の音の聞き手であるかどうかの違いを目撃する単純な単純な!)方法はこれです:

短くてシンプルな単語(たとえば、「Fishbone」、低周波数(b、o、n)と高周波数(F、sh、i、e)の両方を持つ単語)を少し沈黙させて録音し、イコライザーでループしますヘッドフォンを通して。再生を開始し、単語を発声する自分自身を録音と同期します(「フィッシュボーン...フィッシュボーン...フィッシュボーン...」など)。次に、聞くものと発するものがかなり似てくるまで、イコライザーをいじってみてください。

その時点で、イコライザーの設定は音とあなたを通して知覚されるものとの違いを表し、理論的にはそのイコライザーを通過した他の音声は、それを生成したかのように耳に到達する方法をシミュレートします体内のソース。

お役に立てれば。


1
主観の定量化の知覚と不可能の個人差のため、おそらく不可能です。しかし、違いは、すべての生産1000uFキャップが実際にわずかに異なっているの場合のようにマイナーな、...かもしれない
FAT32

1
@ Fat32不可能であると判断することはできませんでした。技術的には、骨を通して確立された2番目のチャネルの寄与を定量化/測定でき、合理的な仮定によって近似値が得られるためです。同様に、それは医学的状態にあるように感じているものを「患者」の視点については全く異なっています。これは、単なるEQよりも優れた近似値です。しかし、認識の時点では、はい、今のところ、要求に応じてサウンドクリップを変換する決定的な「フィルター」を提案することは不可能です。
A_A

別の方法で再次のように述べた。同じ与えられた正確な phsyical刺激がで作成された蝸牛二つの異なる個人の、彼らは(おそらく)二つの異なる認識を聞くと、彼らがします実際に聞く(私の知る限り)任意の外部inquisitonに閉じての自己の経験ですあらゆる種類のまだ数学的...言われているように、人間が音響的に通信できるのは、言語の離散的な性質の結果です。
Fat32

どうもありがとう!これは非常に有益で有益であり、同時に非常に残念なxDです。人間の骨の構造によって音が異なる方法で変化するのではないかと心配しました。まあ、少なくとも彼らのMIGHTは、個々の人間ごとに、音を翻訳する特定の機能を持っています。
Dunkingdev

@KevinFiegenbaum教えてくれてありがとう。知覚は多くの思考の源です。脳は感覚を介して現実と結びつき、おそらく起こっていることのモデルを作成および確認(または拒否)します。錯視は、2つの「推測」(モデル)が同じ説明に当てはまる場合であり、脳はそれらを切り替えるために決定できない場合です。すべての感覚はすでにエンコードされた脳に到達し、個人がどのように経験しているかを本当に知ることは非常に困難です。最善の方法は、合理的な推測です。ではごきげんよう。
A_A

11

私が知っている最も実用的な試みは、Won and Berger(2005)によるものです。彼らは同時に、マイクで口で発声を録音し、自家製の振動計で頭蓋骨を発声しました。次に、線形予測コーディングとケプストラム平滑化を使用して、関連する伝達関数を推定しました。


0

失望する前に、別のアプローチを試してみることをお勧めします。

私が見るように、あなたは2つの非常に異なる部分を持っています:行うべきイコライゼーションを知ること(各人にパーソナライズされる)と特定の信号(あなたの声)にそれを適用します。

第1部:内部の人間の聴覚システムのモデル

データの収集、プロセスの標準化などに取り組んでいる専門家がいます。Afaik、古典的なオージオグラム(空気と骨の信号を測定する)を超える測定とグラフを開発する努力があります。それらのいくつかは「リスニングテスト」です(より主観的ですが、同様に興味深い)。

これらの専門家と連携します。あなたが彼らの仕事に従うなら、あなたは彼らの結果が必要です。重い物を持ち上げさせてください。彼らは自分の部分を知っているので、何十年もの調査を要しました。彼らはあなたが必要とする知識を進歩させています。これは、誰かが「内」でどのように聞こえるかを測定する一種のオージオグラムです。彼らはそれをグラフ化しているに違いない。そして、あなたはそのグラフが必要です。

第二部:シミュレーション

あなたがやろうとしていることと似たようなことをしました。任意の人のオージオグラムから、あなたは彼/彼女のように自分で聞くことができます。これはffmpegで行われます。こちらで確認できます:comomeoyes.com

基本的に、あなたは自分の声を録音し、アルゴリズムがそれをあなたのパーソナライズされたオージオグラムと等しくします。これにより、聴力損失のある人のオージオグラムを入力し、自分の声がどのように聞こえるかを自分で聞くことができます。

同じことをしたいのですが、内部聴力システムが音をどのようにイコライズするかをモデル化した別のオージオグラムでやりたいと思います。

このような種類のオージオグラムはすでに存在している可能性があり、聴覚学者、医療従事者、耳鼻咽喉科の医師、研究者などは、測定から有用なグラフをモデル化するために必要なデータを取得するために行う音響試験の種類について議論している可能性があります。

幸運を。あなたの試みは他の人を助けることができます。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.