統計または情報理論における量使用はありますか?


回答:


24

まかせ、量(ルベーグ又は計数測度、それぞれに対していずれか)を表す確率密度関数を H_ \アルファ(F)= - \ FRAC {1} {\ alpha-1} \ log(\ textstyle \ int f ^ \ alpha \ rd \ mu) は、次数\ alpha \ geq 0のRenyiエントロピーとして知られています。同じ特性の多くを保持するのは、シャノンエントロピーの一般化です。\ alpha = 1の場合、H_1(f)\ lim _ {\ alpha \ to 1} H _ {\ alpha}(f)と解釈し、これは標準シャノンエントロピーH(f)に対応します。f

Hαf=1α1ログfαdμ
α = 1 H 1F LIM α 1 H αF H F α0α=1H1fリムα1HαfHf

レニーは彼の論文でこれを紹介しました

A. Renyi、情報とエントロピーの測定についてProc。第4回バークレーシンプ 数学、統計上 および問題。(1960)、547-561ページ。

これは、アイデアだけでなく、模範的な博覧会スタイルについても読む価値があります。

ケースのためのより一般的な選択肢の一つであるこの特殊なケースは、多くの場合、レーニイエントロピーと呼ばれる(また)です。ここでは、参照すること のために密度分布するランダム変数。α H 2F = - ログF 2 次元 μ = - ログE F X Fα=2α

H2f=ログf2dμ=ログEfバツ
f

なお、凸関数であるので、ジェンセンの不等式によって、私たちは持っている ここで、右側はシャノンエントロピーを示します。したがって、レーニエントロピーはシャノンエントロピーの下限を提供し、多くの場合、計算が簡単です。H 2F = - ログE F X E- ログF X =ログバツ

H2f=ログEfバツEログfバツ=Eログfバツ=Hf

Renyiエントロピーが発生するもう1つの自然な例は、離散確率変数と独立コピー考慮する場合です。いくつかのシナリオでは、の確率を知りたいと思います。これは、基本的な計算では X X = X PX = X = Σ I = 1つの PX = X IX = X I= Σ I = 1つの PX = X Iバツバツバツ=バツ

Pバツ=バツ==1Pバツ=バツバツ=バツ==1Pバツ=バツPバツ=バツ=eH2f

ここで、は、値のセットカウントメジャーに関する密度を示します。Ω = { X II N }fΩ={バツN}

(一般的な)Renyiエントロピーは、熱平衡状態にあるシステムの自由エネルギーにも関連しているようですが、個人的にはそうではありません。このテーマに関する(非常に)最近の論文は

JC Baez、Renyiエントロピーと自由エネルギー、arXiv [quant-ph] 1101.2098(2011年2月)。


実際、シャノンエントロピーの代わりにレニーエントロピーを使用していました。私の直感の確認を見るのはいいことです。啓発的な反応をありがとう。
charles.y.zheng

1
シャノンエントロピーの特性と有用性の多く(すべてではありません!)は、その凸性から生じます。情報理論における基本的な結果の蓄積を見ると、それらは多かれ少なかれジェンセンの不平等にかかっています。そのため、特定の(あいまいな)意味で、「情報」の概念につながる特定の非線形性としてについて(ひどく)特別なことはあまりありません。ログバツ
枢機

1
そうですか。具体的には、私は満足する周辺分布を与えられた最大エントロピー同時分布は、(あなたが自立から得るだろうか)周辺分布の積であるという特性必要
charles.y.zheng
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.