微分エントロピーの解釈方法は?


14

最近、離散確率分布のエントロピーに関するこの記事を読みました。使用する単語の確率分布を考慮して、エンコードが最適な場合にメッセージをエンコードするのに必要な予想ビット数(少なくともエントロピー定義でを使用する場合)としてエントロピーについての素晴らしい考え方を説明します。log2

以下のような連続した場合に拡張するときしかし、ここで私は以来、ダウン休憩をこの考え方を信じるのために任意の連続確率分布P X 私がいた(それが間違っている場合は、私を修正してください)、ので、離散的な場合のように、連続エントロピーの意味について良い考えがあるかどうか疑問に思います。xp(x)=p(x)


エントロピーと微分エントロピーに関するウィキペディアの記事を読もうとしましたか?
ttnphns

連続分布には、確率質量関数はありません。連続した場合にアナログは確率密度の積分であり、xの全範囲にわたって積分が1に等しい
マイケルR. Chernick

@MichaelChernick私はそれが1を持っていたと言っていなかったが、個別のケースについての考え方は、合計が1に等しいという事実に依存している
dippynark

@ttnphnsいいえ、ありませんが、今すぐチェックします、ありがとう。
-dippynark

Shannonエントロピーの解釈については、stats.stackexchange.com / questions / 66186 /…も参照してください。アイデアの一部は移転できます。
kjetil bハルヴォルセン

回答:


14

エントロピーの意味と同じくらい意味のある、または有用な微分エントロピーの解釈はありません。連続確率変数の問題は、それらの値の確率が通常0であるため、エンコードに無限のビット数が必要になることです。

あなたは間隔の確率を測定することにより、個別のエントロピーの上限を見れば[nε,(n+1)ε[、あなたが終わります

p(x)log2p(x)dxlog2ε

微分エントロピーではありません。この量はある意味ではより意味がありますが、間隔が小さくなるにつれて無限に発散します。ランダム値の値が多くの間隔のどれに該当するかをエンコードするためにより多くのビットが必要になるので、それは理にかなっています。

連続分布を調べるためのより有用な量は、相対エントロピー(Kullback-Leibler発散)です。離散分布の場合:

DKL[P||Q]=xP(x)log2P(x)Q(x).

これは、真の分布がある場合、余分なビット数が使用される計測P、我々は使用logQ2(x)エンコードビットをx。相対エントロピーの限界を取り、

DKL[p∣∣q]=p(x)log2p(x)q(x)dx,

log2εキャンセルされます。連続分布の場合、これは無限小のビンの制限で使用される追加ビットの数に対応します。連続分布と離散分布の両方で、これは常に負ではありません。

p(x)λ(x)=1

p(x)log2p(x)dx=DKL[p∣∣λ].

ログ2nεn+1εpバツdバツ エンコードするビット nの代わりに-番目の間隔 ログεビット。前者が最適であっても、この差はマイナスになる可能性があります。λ (1に統合しないことにより)不正行為であるため、理論上可能な平均よりも少ないビットを割り当てる可能性があります。

相対エントロピーの優れた紹介については、Sergio Verduの講演をご覧ください。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.