コンピュータプログラミングにおける「ビット」の概念は、情報理論における「ビット」の概念と似ていますか?
今日まで、私は1ビットが変数、つまり1(高)または0(低)のいずれかの値を保持できるメモリ内のスペースであることを知っていました。これは、コンピュータプログラミング、マイクロプロセッサ、DATAバスなどを研究して学んだ概念です。 しかし、情報理論のコースを開始した後、ビットがメッセージ内のシンボルの情報内容として表現されていることがわかりました。これは、シンボルの出現確率の逆数の対数(底2)を使用して計算されます。 これら2つの概念は同じですか?一方、1ビットは、0または1を格納できる変数です。一方、1ビットは、発生確率が0.5の2つのシンボルの1つに関連する不確実性です。では、コンピュータプログラミングまたはASCIIコードの1ビットは、ソースの情報コンテンツまたは情報理論の1ビットを意味するのでしょうか。 少し編集します。ここで、このトピックを理解するときに問題が1つあります。英語のアルファベットのデータ転送では、ASCIIコードを使用する場合、基本的に各シンボルを8ビットで表します。それがaの場合は00000000、bの場合は00000001であるとします。したがって、基本的には、各シンボルに8つの量子化レベルを割り当てています。 ただし、情報理論が機能するようになると、各シンボルの確率が考慮されます。「E」は最高の頻度を持ち、「Z」は最低の頻度を持ちます。つまり、平均的な情報コンテンツは3ビットまたは4ビットに下ります。 私の本は、「エントロピーまたは平均情報コンテンツは、歪みのない各サンプルを表現するために必要な最小の平均ビット数です」と言います。この場合、効率的なデータ転送のために、各シンボルに対して最大4つの量子化レベルを作成していますか?なぜなら、平均して4ビットの情報を運ぶからです。もしそうなら、情報理論のビットは、コンピュータプログラミング、データ転送、ASCIIコードなどのビットと同じではありませんか? あなたはおそらく私がここで明らかにnoobであることを理解します:p