エントロピーの意味と同じくらい意味のある、または有用な微分エントロピーの解釈はありません。連続確率変数の問題は、それらの値の確率が通常0であるため、エンコードに無限のビット数が必要になることです。
あなたは間隔の確率を測定することにより、個別のエントロピーの上限を見れば[nε,(n+1)ε[、あなたが終わります
−∫p(x)log2p(x)dx−log2ε
微分エントロピーではありません。この量はある意味ではより意味がありますが、間隔が小さくなるにつれて無限に発散します。ランダム値の値が多くの間隔のどれに該当するかをエンコードするためにより多くのビットが必要になるので、それは理にかなっています。
連続分布を調べるためのより有用な量は、相対エントロピー(Kullback-Leibler発散)です。離散分布の場合:
DKL[P||Q]=∑xP(x)log2P(x)Q(x).
これは、真の分布がある場合、余分なビット数が使用される計測P、我々は使用−logQ2(x)エンコードビットをx。相対エントロピーの限界を取り、
DKL[p∣∣q]=∫p(x)log2p(x)q(x)dx,
log2εキャンセルされます。連続分布の場合、これは無限小のビンの制限で使用される追加ビットの数に対応します。連続分布と離散分布の両方で、これは常に負ではありません。
p(x)λ(x)=1
−∫p(x)log2p(x)dx=−DKL[p∣∣λ].
- ログ2∫(n + 1 )εN εp (x )dバツ エンコードするビット nの代わりに-番目の間隔 − ログεビット。前者が最適であっても、この差はマイナスになる可能性があります。λ (1に統合しないことにより)不正行為であるため、理論上可能な平均よりも少ないビットを割り当てる可能性があります。
相対エントロピーの優れた紹介については、Sergio Verduの講演をご覧ください。