ジョイントエントロピーに関する直感を構築するのに苦労しています。 =共同分布の不確実性p (x 、y ) ; H (X ) = p x(x )の不確実性; H (Y ) = p y(y )の不確実性。
H(X)が高い場合、分布はより不確実であり、そのような分布の結果を知っている場合、より多くの情報があります!したがって、H(X)も情報を定量化します。
今、私たちは見ることができます
しかし、がわかっている場合は、p x(x )とp y(y )を取得できるため、ある意味でp (x 、y )はp x(x )とp y(y )の両方よりも多くの情報を持っています、それでp(x、y)に関連する不確実性は、個々の不確実性の合計よりも多くあるべきではありませんか?