3
共同エントロピーに関する直感
ジョイントエントロピーに関する直感を構築するのに苦労しています。 =共同分布の不確実性p (x 、y ) ; H (X ) = p x(x )の不確実性; H (Y ) = p y(y )の不確実性。H(X、Y)H(X,Y)H(X,Y)p (x 、y)p(x,y)p(x,y)H(X)H(X)H(X)pバツ(x )px(x)p_x(x)H(Y)H(Y)H(Y)py(y)py(y)p_y(y) H(X)が高い場合、分布はより不確実であり、そのような分布の結果を知っている場合、より多くの情報があります!したがって、H(X)も情報を定量化します。 今、私たちは見ることができますH(X、Y)≤ H(X)+ H(Y)H(X,Y)≤H(X)+H(Y)H(X,Y) \leq H(X) + H(Y) しかし、がわかっている場合は、p x(x )とp y(y )を取得できるため、ある意味でp (x 、y )はp x(x )とp y(y )の両方よりも多くの情報を持っています、それでp(x、y)に関連する不確実性は、個々の不確実性の合計よりも多くあるべきではありませんか?p (x 、y)p(x,y)p(x,y)pバツ(x )px(x)p_x(x)py(y)py(y)p_y(y)p (x 、y)p(x,y)p(x,y)pバツ(x )px(x)p_x(x)py(y)py(y)p_y(y)