レーニイエントロピーが似ている、ある意味で、に -normsので、それらの規範が有用である理由の最初のリコールをしましょう。ℓp
私たちは数のベクトルがあるとし∈ R nと。私たちは、の典型元素どうするか、ある意味で、表す単一の番号が欲しいような表情を。a∈Rna
そうするための一つの方法は、中に数字の平均を取ることであるおよそに相当し、ℓ 1規範:E 1 ≤ I ≤ N [ | a i | ]。これは便利ですが、いくつかの用途のためには、次のような問題点がある。まず、ℓ 1ノルムは私たちに、上の最大の要素にバインドされ良いものではありませんAを、単一の大きな要素と多くのゼロがある場合ので、ℓ 1ノルムは最大要素よりも大幅に小さくなります。一方、ℓ 1aℓ1E1≤i≤n[|ai|]ℓ1aℓ1ℓ1また、ノルムは、の要素がどれだけ小さいか、たとえばaが持つゼロの数に関する適切な境界を与えません。この問題は、以前とまったく同じシナリオで発生します。aa
もちろん、上記の極端なシナリオのように、の要素に多くの分散がある場合、単一の数値で上記の両方の問題を解決することはできません。トレードオフがあります。我々は唯一最大の要素を知りたい場合たとえば、私たちは使用することができますℓ ∞ノルムが、その後、私たちは小さな要素に関するすべての情報を失うことになります。我々はゼロの数をしたい場合は、私たちは見ることができℓ 0のサポートのジャストサイズですノルム。aℓ∞ℓ0a
今、考える理由規範は、彼らが私たちに両極端の間の全体の連続トレードオフを与えるということです。大きな要素に関する詳細情報が必要な場合は、pを大きくし、逆も同様です。ℓpp
同じことがレーニイエントロピーのために行く:シャノンのエントロピーは次のようである規範-それは私たちに分散または極端について「典型的な」要素の確率は、何もについて何かを伝えます。最小エントロピーは、最も確率の高い要素に関する情報を提供しますが、残りに関するすべての情報を失います。サポートサイズは、他の極端なものを提供します。Renyiエントロピーは、両極端の間の継続的なトレードオフを提供します。ℓ1
たとえば、多くの場合、Renyi-2エントロピーは、一方でシャノンのエントロピーに近く、分布上のすべての要素に関する情報を含み、他方で最大の要素に関する情報を提供するため、有用です。確率。特に、Renyi-2エントロピーの境界が最小エントロピーの境界を与えることが知られています。たとえば、ここの付録Aを参照してください:http : //people.seas.harvard.edu/~salil/research/conductors-prelim .ps