アナログビデオをデジタルビデオのように圧縮できないのはなぜですか(内部の例)?


9

アナログとデジタルのTV信号の基本を学んでいるので、これ元のリンクがなくなりました)の短い記事に出くわし ました(次のページも参照)。

MPEG-2を使用する場合、アナログビデオ信号をデジタル信号と同様の方法で圧縮できないのはなぜですか(MPEG-2で理解できることの基本的な例を提供する上記の記事を参照してください)。デジタルのように帯域幅の使用量を減らすために、アナログで「繰り返し」ピクセルを無視できないのはなぜですか?

どういう意味かはこの質問を参照しください。そこには、次の画像があります。

ピクセルのラインを単純に「無視」して(変調しないことで)(フレーム間で変化しないと仮定して)、データ信号の周波数を下げて、帯域幅の使用量を減らすことができないのはなぜですか。


6
なぜなら、analogには繰り返しをエンコードする手段がないからです。
Ignacio Vazquez-Abrams

無視するピクセル数、信号の再構成方法などの情報をどのように送信しますか?
John D

@JohnDわかりました私は私が理解していることから少し拡大します。
Ant

1
「なぜ繰り返しピクセルを削減するためにアナログで無視できないのですか?」アナログ=連続的、目立たない。アナログにはピクセルがありません。
woliveirajr 2014年

3
アナログ処理の制限に関するすべての点はさておき、アナログで使用するために提案する圧縮は、本質的にRLE(ランレングスエンコーディング、最も単純で最も効率の悪いタイプの圧縮)です。少数のピクセルが1つのフレームから別のフレームに完全に同じであるか、または隣接するピクセルと比較されるため、ビデオ圧縮には特に適していません。MPEG-2と他のほとんどのデジタルビデオ圧縮方式は、離散コサイン変換と動き予測に基づいており、離散/サンプリング/デジタルデータを操作する他の方式の中でも特に重要です。
ブリストリスト2014年

回答:


11

品質を犠牲にして、アナログビデオを圧縮して帯域幅を節約できます。スロースキャンテレビ。月の表面からぼやけたモノクロでテレビ放送を送信するために使用されます。最近では、火星の表面からカラーHDを取得できます。

さまざまなデジタル圧縮技術がどのように機能するかを詳細に検討する価値はありますが、それらはすべて、現在のフレームの以前のフレームまたはビットを保存し、現在のフレームとの違いに基づいて計算することに依存しています。アナログでこれを実際に実行できない理由は2つあります。

  • ランダムアクセス、高速、アナログメモリはありません。Brian Drummondが述べた遅延線は、アナログメモリのほとんど唯一の実用的な技術であり、将来的に同じ信号を同じ速度で提供します。

  • アナログ計算は帯域幅が制限されており、損失があります。ゲイン帯域幅積は、高速化できる範囲を制限します。

HD h264デコードの各フレームには、何億もの個別の算術演算が含まれることに注意してください。さらに多くの操作をエンコードします。


24

アナログTV信号は元々、実際的な最小数のバルブ(チューブ)でデコードされるように設計されていました。したがって、信号空間の約半分(信号振幅の30%、時間のほぼ30%)は、アナログバルブ回路で簡単に検出できる同期パルスにのみ使用され、画像情報は残りの半分だけに残されます。

この元の仕様に対する拡張は、互換性のある方法で実装する必要がありました。したがって、カラー信号は高周波キャリアで変調され、基礎となる白黒信号の動作を妨げることはありません(実際に優れたB&Wセットでは、細かい斑点パターンとして表示されます)。

その後、他の情報(英国ではPRESFAX、テスト信号-パルスとバー、カラーバーの1行、CEEFAX /テレテキスト、クローズドキャプション)は、フィールド同期中に、名目上見えない「未使用」の行に「互換性」を保って絞り込まれましたが、練習すると、画面の配置がうまくいかない上に、移動するドットパターンが表示されます。

このような互換性のある方法で圧縮を実装することはできません...数行の画像をどのように保存しますか?ここにチューブの箱があります。色が出てきたとき、低帯域幅の色信号の1本の線が、遅延線PALまたはSECAM "Sequential Color with Memory"デコーダーのいずれかの遅延線に格納されていましたが、それは中頃までは十分に安価ではありませんでした。 1960年代。私が考える遅延線は、SAW(表面弾性波)デバイスでした。

いずれにせよ、カラーバーのテストパターンと同じくらい規則的な信号は、最適化する価値がないほどまれです。また、単純な画像で信号スペースを節約した場合、それをどのように使用しますか?より典型的な画像のような複雑な信号は、とにかく全帯域幅を必要とします。


1
ああ、あなたの説明が思い出させる良い思い出:-)色、H、およびV同期レートの間の正確な数学的関係、およびHがすべての周波数をロックするために15734 hzになった方法、およびこれらの関係がどのようにもたらされたかに驚いたことを今でも覚えています初期のスクランブル方法について(それらをクラックする方法を追加):-)
Randy

また、テストパターンは、画面の機能だけでなく、信号がどのようにデコードされるかをテストするためにあります
ラチェットフリーク

@ランディ素晴らしい思い出、LOL。私は自分自身が当時のバックデスクランブラのカップル....内蔵されている可能性が
ジョン・D

ラインとフレームのスキャン波形発生器用のアプリケーション回路を備えたマツダバルブデータブックを持っています。それぞれがアクティブなデバイスを3つだけ使用しました:T.31サイラトロンに続いて2つのAC / P4 "特別な"三極管(1200Vで動作するように定格)。そのアプリのノート... 1939年8月1日日付である
ブライアン・ドラモンド

加えて、これは405ライン伝送システム用であり、それが出現したときに最先端の技術を推進していました。私は80年代半ばにBBCで働いていましたが、最後の405ライントランスミッターがオフになりました。友人は何ヶ月も前に戦争余剰の "GEE"レーダーディスプレイ(クラシックな40年代後半のハックで変更)を復元して、最後の送信を(7インチのオレンジ色のスクリーンで)見ていた!
ブライアンドラモンド

11

アナログビデオ信号は基本的に波形です。これは100%時間ベースであり、1つのフレームの転送には特定の時間がかかります。

ウェーブ自体は一定量の帯域幅を使用します。これは基本的に、そのウェーブに保持されるデータの量です。さまざまなフィルタリング技術により、必要な帯域幅の量を減らすことができます。

アナログビデオには、実際には「今」という概念しかありません。その瞬間に表示される単一のピクセルです。

逆に、デジタルビデオ信号はインターリーブされたデータストリームです。サブストリームの1つは画像ストリームです。これはフレームベースのストリームであり、ビデオの各フレームは個別のエンティティとして扱われます。ビデオ圧縮を可能にするのは、このフレームの概念です。デジタルビデオには、「このピクセル」ではなく「このフレーム」という概念があるため、3次元すべて(フレームの上下左右2次元だけでなく、3番目の「時間」も)で隣接するピクセルを比較できます。次元、過去、さらには未来のフレームとの比較)。

アナログビデオ信号は、フレームグラバーを使用してかなり簡単にデジタル形式に変換できます。その後、他のデジタル形式と同じように圧縮できます。

良い例えはオーディオです。古いオーディオカセットをMP3と比較します。カセットを再生しているとき、テープは設定速度で読み取りヘッドを通過し、読み取りヘッドはその特定の瞬間のテープ上の磁気をスピーカーの動きに変換します。

逆に、MP3では、データのチャンク(これもフレームと呼ばれます)は、スピーカーで再生するためにオーディオ波形にデコードします。

(注:これは非常に簡略化された説明であり、結果として完全に間違っています;))


1
' アナログビデオには、実際には「今」という概念しかありません。その瞬間に表示される単一のピクセルです。'それは重要です。+1。
トランジスタ

3

編集:圧縮と呼ばれるものにはさまざまな種類があります。コンテンツ非依存圧縮とコンテンツ依存圧縮を区別します。コンテンツに依存しない圧縮とは、たとえば信号帯域幅やインターレースなどを減らすことです。このような手法は、送信されるコンテンツとは無関係に適用でき、一般に何らかの方法で信号の品質を低下させます。コンテンツ依存の圧縮は、MPEG-2などの方法で、信号のコンテンツを調べ、画像/サウンド/その他の重複部分を削除します。コンテンツに依存しないメソッドの帯域幅使用率の改善は常に同じです。コンテンツに依存するメソッドの場合、信号のコンテンツに依存します(出力品質が固定されている場合)。多くの重複がある場合(例:MPEG-2でエンコードされている静止画像)、データサイズが大幅に削減されます。重複がない場合(たとえば、ランダムノイズがエンコードされている場合)、サイズは縮小されません。MPEG-2のような実際の方法では、十分な複製が利用できない場合、信号の品質を下げることにより、特定の最大データ使用量を保証します。

この回答の残りの部分では、MPEGなどのコンテンツ依存の圧縮方法のみを検討します。

原則として、アナログ信号を圧縮できない理由はありません。圧縮が元々アナログテレビで使用されなかったのは、その技術がまだ存在していなかったため、存在しない処理ハードウェアが必要であり、当時の技術でハードウェアをまったく作成できたとしたら、非常に高額でした。

たとえば圧縮を追加するために既存の信号フォーマットを変更すると、すべてのレシーバーを変更する必要があるため、問題が生じます。これは基本的に、多くの国でアナログからデジタルへの切り替えで起こっていることです。とにかくすべてのレシーバーを更新または交換する必要がある場合は、信号をデジタルに変更することもできます。これは、現在のテクノロジーでは、アナログ信号よりもコストと帯域幅の効率が高くなっています。

既存のアナログ信号に何らかの種類の信号を追加する方法を考案することもできますが、既存のすべてのレシーバーをアップグレードしたくない場合は、既存のアナログ信号を削除できないため、帯域幅の使用量を削減できません。国がアナログの送信をデジタルの送信に置き換えるだけでなく、アナログの送信をデジタル送信に置き換える主な理由は、利用可能な無線スペクトル帯域幅の量が限られていることです。

別の側面は、例えば、前のフレームから変化しなかった場合、スキャンラインをアナログTV送信で送信しないためには、「変化しなかった」が正確に何を意味するかを決定する必要があるということです。デジタル信号では、ピクセルの値が量子化されるため、ピクセルの1つの行が前の行と同じ場合を定義するのは簡単です。アナログ信号では、2つのスキャンラインの信号がまったく同じになることは決してないので、同等と見なすもののしきい値が必要になります。このようなしきい値を適用することで、信号のこの側面を量子化するため、デジタルに近づくための小さなステップになります。


3
EE.SEへようこそ。この質問はほぼ3年前のものであり、回答は認められています。その上、圧縮はアナログ(カラー)TVで非常に多く使用されています。カラー側波帯のインターレース、帯域幅の減少、およびRGBではなくYUVは、すべてアナログ圧縮技術によるものです。
winny 2017

2
そうだね。コンテンツ依存の圧縮、つまり、画像に多くの詳細が含まれていない場合は、より少ない帯域幅を使用することを検討していました。インターレースと帯域幅の削減は常にオンです。(そして、UV部分の帯域幅圧縮は圧縮ですが、YUVは白黒テレビとの下位互換性がより重要です。)デジタル信号も秒あたりの最大ビット数に制限されていますが、より多くのビットを部分に割り当てることができます。それを必要とする画面。
JanKanis 2017

RGB、帯域幅、YUV、カラーTVをお読みください。ウィキペディアには、これとアナログ圧縮に関する優れた記事があります。
winny 2017
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.