統計または情報理論における量使用はあります か?
統計または情報理論における量使用はあります か?
回答:
まかせ、量(ルベーグ又は計数測度、それぞれに対していずれか)を表す確率密度関数を H_ \アルファ(F)= - \ FRAC {1} {\ alpha-1} \ log(\ textstyle \ int f ^ \ alpha \ rd \ mu) は、次数\ alpha \ geq 0のRenyiエントロピーとして知られています。同じ特性の多くを保持するのは、シャノンエントロピーの一般化です。\ alpha = 1の場合、H_1(f)を\ lim _ {\ alpha \ to 1} H _ {\ alpha}(f)と解釈し、これは標準シャノンエントロピーH(f)に対応します。
レニーは彼の論文でこれを紹介しました
A. Renyi、情報とエントロピーの測定について、Proc。第4回バークレーシンプ 数学、統計上 および問題。(1960)、547-561ページ。
これは、アイデアだけでなく、模範的な博覧会スタイルについても読む価値があります。
ケースのためのより一般的な選択肢の一つであるこの特殊なケースは、多くの場合、レーニイエントロピーと呼ばれる(また)です。ここでは、参照すること のために密度分布するランダム変数。α H 2(F )= - ログ(∫ F 2 次元 μ )= - ログ(E F (X )) F
なお、凸関数であるので、ジェンセンの不等式によって、私たちは持っている ここで、右側はシャノンエントロピーを示します。したがって、レーニエントロピーはシャノンエントロピーの下限を提供し、多くの場合、計算が簡単です。H 2(F )= - ログ(E F (X ))≤ E(- ログF (X ))=
Renyiエントロピーが発生するもう1つの自然な例は、離散確率変数と独立コピー考慮する場合です。いくつかのシナリオでは、の確率を知りたいと思います。これは、基本的な計算では X ⋆ X = X ⋆ P(X = X ⋆)= ∞ Σ I = 1つの P(X = X I、X ⋆ = X I)= ∞ Σ I = 1つの P(X = X I)
ここで、は、値のセットカウントメジャーに関する密度を示します。Ω = { X I:I ∈ N }
(一般的な)Renyiエントロピーは、熱平衡状態にあるシステムの自由エネルギーにも関連しているようですが、個人的にはそうではありません。このテーマに関する(非常に)最近の論文は
JC Baez、Renyiエントロピーと自由エネルギー、arXiv [quant-ph] 1101.2098(2011年2月)。