微分エントロピー


13

ガウスRVの差動エントロピーがあるlog2(σ2πe)。これは、標準偏差であるσに依存します。

ランダム変数を正規化して単位分散を持たせると、差分エントロピーが低下します。コルモゴロフの正規化定数の複雑さはエントロピーの減少と比較して非常に小さいはずなので、私にとってこれは直感に反します。このランダム変数によって生成されたデータセットを復元するために、正規化定数で除算/倍数するエンコーダーデコーダーを簡単に考案できます。

おそらく私の理解は外れています。私の欠陥を指摘してもらえますか?

回答:


17

私はこれを試してみるつもりですが、それは私の頭の上に少しありますので、塩を振りかけて扱います...

あなたは正確に間違っていません。あなたの思考実験が失敗するのは、微分エントロピーがエントロピーの限定的なケースではないと思うからです。このため、それとコルモゴロフの複雑さの類似点は失われていると思います。

離散確率変数があるとしましょう。シャノンエントロピーは、可能なすべての値x iH X = i P X = x ilog P X = x i)を合計することにより、次のように計算できますバツバツ

H(X)=iP(X=xi)log(P(X=xi)).

バツp()

H(X)ip(X=xi)δxlog(p(X=xi)δx),
δxxi
H(X)log(δx)ip(X=xi)δxlog(p(X=xi)).

δxdx

H(X)=log(dx)xp(X=x)log(p(X=x))dx.

右側の用語は微分エントロピーです。しかし、その恐ろしい見てくださいlog(dx)用語を見てください。すべての答えがNaNになるのを避けるために、これを無視する必要があります。微分エントロピーがシャノンエントロピーの限定的なケースではないことを意味しているのではないかと思います。

σ

δ

xp(X=x)log(p(X=x)q(X=x))dx
q(X)バツpバツ そして qバツ、結果はそれほど深刻ではありません。

ありがとう。それはとても興味深いです。理論にそのような仕掛けがあることは知りませんでした。
カグダスオズゲンク

1
表記 ログdバツあまり意味がありませんが、あなたの説明の一部をもう少し正確なものに変えることができます。確かに、密度pバツ リーマン積分可能 pバツδバツログpバツhバツ なので δバツ0。よく見られるこの解釈は、n連続ランダム変数のビット量子化のエントロピーは約 hバツ+n
枢機

1
@枢機卿。ええ、私はそれを知っていましたログdバツ私がそれを書いていたときに話すのは恐ろしく奇妙なことでした。しかし、この方法でそれについて説明することは、微分エントロピーが本当にエントロピーではない理由を本当に理解するのに役立つと思います。
パット

@Cagdas-それをギミックと呼ぶかどうかわからない。それは単に別のものを測定しているだけです。そして、枢機inalが指摘するように、いくつかの用途があります。二項分布に適用したときに壊れるかどうかについては、それをどのように適用するかによって異なります:)。わからない場合は、おそらく新しいトピックを開始する価値があります。
パット

擬似乱数ジェネレーターを考慮すると、エントロピーは明らかにコルモゴロフの複雑さとは異なると考えました。
ジェームズバワリー
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.