11 非常に基本的な疑問があります。これが少しイライラする場合は申し訳ありません。相互情報の値は0より大きくなければならないことを知っていますが、1より小さくする必要がありますか?上限値によって制限されていますか? ありがとう、アミット。 information-theory mutual-information — アミット ソース
18 はい、上限はありますが、1はありません。 相互情報両当事者(統計)は1ビットの情報を共有する場合(ビット)が1です。ただし、任意の大きなデータを共有できます。特に、2ビットを共有する場合は2です。 相互情報によって上方から制限される確率分布のシャノンエントロピー単一の当事者のために、すなわち、私(X、Y)≤ 分[ H(X)、H(Y)]私(バツ、Y)≤分[H(バツ)、H(Y)]。 — ピョートルミグダル ソース 2つのパーティがバイナリ変数である場合、つまりそれぞれに2つの可能な結果{0,1}しかない場合、および場合、エントロピーは最大になります。。したがって、2つのバイナリ変数の最大相互情報はバツ、Yバツ、YH(X)、H(Y)H(バツ)、H(Y)11P(X)= 0.5P(バツ)=0.5P(Y)= 0.5P(Y)=0.511 — AkseliPalén19年