2
確率としての相互情報量
ジョイントエントロピーに関する相互情報: 0≤I(X,Y)H(X,Y)≤10≤I(X,Y)H(X,Y)≤1 0 \leq \frac{I(X,Y)}{H(X,Y)} \leq 1 「XからYに情報を伝達する確率」と定義されますか? 世間知らずで申し訳ありませんが、私は情報理論を学んだことがなく、その概念を理解しようとしています。
通信に使用されるものでも、抽象的な意味で定義されるものでも、チャネルの情報伝達容量を決定するために使用される数学/統計のブランチ。エントロピーは、情報理論家が確率変数の予測に伴う不確実性を定量化するための手段の1つです。