情報理論のないカルバック・ライブラーの発散


23

Cross Validatedを何度も探した後、私はまだ情報理論の領域外でKLの発散を理解することに近づいているとは感じていません。数学のバックグラウンドを持つ人が情報理論の説明をはるかに理解しやすいと感じるのは、かなり奇妙です。

情報理論の背景から私の理解を概説するために:有限数の結果を持つランダム変数がある場合、平均して最短のメッセージで他の誰かと結果を伝えることができる最適なエンコーディングが存在しますビット単位の画像)。結果を伝えるために必要なメッセージの予想される長さは、最適なエンコーディングが使用されている場合、で与えられます。最適以下のエンコーディングを使用する場合、KLダイバージェンスは、平均してメッセージの長さを示します。

αpαlog2(pα)

この説明は、KL発散の非対称性を非常に直感的に扱っているため、気に入っています。2つの異なるシステム、つまり異なる方法でロードされた2つのロードされたコインがある場合、それらは異なる最適なエンコーディングを持ちます。2番目のシステムのエンコーディングを1番目のシステムに使用することは、1番目のシステムのエンコーディングを2番目に使用することと「同等に悪い」とは思わず感じます。どうやって自分を納得させるかという思考プロセスを経ることなく、私はは、のエンコーディングを使用するときに、この「余分なメッセージの長さ」を与えます。

αpα(log2qαlog2pα)
qp

ただし、ウィキペディアを含むKL発散のほとんどの定義は、2つの離散確率がある場合、(ビットが離散であるため離散用語ではるかにうまく機能する情報理論の解釈と比較できるように、これを離散用語で保持します)分布の場合、KLは「それらの違い」のメトリックを提供します。これらの2つの概念がどのように関連しているのかについての説明はまだありません。私は彼の推論に関する本で覚えているようです、デイブ・マッケイはデータ圧縮と推論が基本的に同じことである点について指摘しており、私の質問はこれに本当に関連していると思います。

それがそうであるかそうでないかにかかわらず、私が念頭に置いているのは、推論の問題に関する質問です。(物事を個別に保つ)、2つの放射性サンプルがあり、そのうちの1つが既知の放射能を持つ特定の物質であることがわかっている場合(これは疑わしい物理学ですが、宇宙がそのように動作するふりをしましょう)、したがって、「真の」分布を知っています測定すべき放射性クリックの既知の持つポアソニアンである必要があります。両方のサンプルの経験的分布を構築し、それらのKL発散を既知の分布と比較し、低い方がその材料である可能性が高いと言いますか?λ

疑わしい物理学から離れて、同じ分布から2つのサンプルが取り出されていることを知っているが、それらがランダムに選択されていないことがわかっている場合、KLの発散を既知のグローバル分布と比較すると、サンプルがどのようにバイアスされているかの感覚が得られますとにかく他と比較して?

最後に、前の質問に対する答えが「はい」の場合、なぜですか?これらのことを、情報理論への(おそらくは希薄な)つながりを作らずに、統計的な観点だけから理解することは可能ですか?


1
ここで私の答えを参照してください:stats.stackexchange.com/questions/188903 / ... これは情報理論を参照していません
kjetil b halvorsen

1
KL発散は純粋に情報理論的な概念ではありませんか?私はそれがベイジアンの前後の相互情報またはそのようなものを与えることを知っており、フェンチェル変換/共役(大偏差理論)の文脈で一度見たことを覚えていますが、いずれにしても情報理論的概念だと思いました。
Chill2Macht

回答:


23

Kullback-Leiblerの発散には純粋に統計的なアプローチがあります。未知の分布からサンプル iidを取得し、分布のファミリー対応する尤度は、 およびその対数は したがって、 れますとKullback-Leibler発散の興味深い部分ですP F = { P θX1,,XnpL θは、| xは1を...

F={pθ, θΘ}
θは、| xは1... xはN= N Σ iが= 1つのログのp θをx i1
L(θ|x1,,xn)=i=1npθ(xi)
(θ|x1,,xn)=i=1nlogpθ(xi)
P θ P HP θ | P DEF =ログ{ P X / P θX }
1n(θ|x1,,xn)E[logpθ(X)]=logpθ(x)p(x)dx
pθp ログ{ P X }
H(pθ|p)=deflog{p(x)/pθ(x)}p(x)dx
他の部分は、の最小[in ]がゼロに等しくなるために存在します。θ HP θ | P
log{p(x)}p(x)dx
θH(pθ|p)

発散、情報理論と統計的推論を接続する本は、Rissanenのある パラメータの最適推定私は見直し、ここに


この数値例を見る可能性はありますか?
ポールウザック

まあ、実際の数字を見ることを意味します。理論はかわいいが、世界は数字で動いている。実際の数値を使用するKL発散の例はないので、私はそれが可能な応用のない理論であるという結論に導かれます。OPは、ビット単位のメッセージの長さとデータ圧縮について説明しました。私は...それのビット数を持っていたすべての例に言及していた
ポールUszak

2
@PaulUszak:N(0,1)とN(1,1)分布の間のKullaback-Leibler距離が1/2であると言ったら、これはどのように役立ちますか?
西安

2
@ Xi'an:その数1/2と対応する尤度比検定の検出力の間に何らかの関係がなければなりませんか?
kjetil bハルヴォルセン

7
+1コメントスレッドについて:「ビット数」に減らすことができない概念は役に立たないという考えに頭を悩ませます。
whuber

8

これは、IJ Goodから大まかに取られたカルバック・ライブラーの発散の統計的解釈です(証拠の重み:簡単な調査、ベイジアン統計2、1985)。

証拠の重み。

密度未知の分布からの独立したサンプルであると信じる理由があるデータポイントを観察するとします。最も単純なケースでは、について2つの仮説とがあり。たとえば、およびです。したがって、未知のをまたはいずれかとしてモデリングしました。x1,x2,,xnf0H1H2f0H1={f1}H2={f2}f0f1f2

証拠の重量サンプルののためにに対するように定義される 特に仮説および事前のを考えると、量を解釈するのは簡単です。実際、その場合、後の対数オッズはに前の対数オッズを加えたものになります。 この数量には、独立したサンプルの加算性など、いくつかの便利なプロパティもあります: x=(x1,,xn)H1H2

W(x)=logf1(x)f2(x).
PH0H1W
logP(H0|x)P(H1|x)=W(x)+logP(H0)P(H1).
W(x1,,xn)=W(x1)++W(xn).
Goodは証拠の重みの使用をさらに正当化し、はKullbackとLeibler(KL発散を導入した論文で)によってを区別するの情報」とも呼ばれます。W(x)xH1H2

要約すると、サンプル与えられた場合、証拠の重みは、手元にある証拠の量を理解するのに役立つ具体的な数値です。「は強力な証拠」などの経験則さえ使用している人がいます(このようなテーブルを盲目的に使用することはお勧めしません)。xW(x)W(x)>2

カルバック・ライブラーの発散

ここで、と間のカルバック・ライブラーの発散は、サンプル予想される証拠の重みです。つまり、 f1f2xf1

KL(f1,f2)=Exf1W(x)=f1logf1f2.

サンプルに対してを支持する肯定的な証拠を提供し、これが不等式 H 1 = { F 1 } H 2 E X F 1 W X 0。xf1H1={f1}H2

Exf1W(x)0.

1

これらの2つの概念がどのように関連しているのかについての説明はまだありません。

私は情報理論についてあまり知りませんが、これは私が考えていることです。情報理論の人が「メッセージの長さ」と言うのを聞くと、私の脳は「驚き」と言います。サプライズは1.)ランダム、2。)主観的です。

1.)「サプライズ」とは、何らかの分布を使用したランダム変数単なる変換であることを意味します。サプライズはとして定義されます。これは、離散確率変数があるかどうかの定義です。Xq(X)logq(X)

サプライズはランダム変数であるため、最終的には単一の数値にすることを期待します。2)では、「主観的」と言うとき、を変換するために必要な分布()を使用できることを意味しています。ただし、「真の」分布に関しては常に期待されます。これらは等しくても等しくなくてもかまいません。真ので変換すると、が得られます。これはエントロピーです。他の分布がと等しくない場合、、それはクロスエントロピーです。間違った分布を使用すると、常に予想外の驚きが大きくなることに注意してください。qXppEp[logp(X)]qpEp[logq(X)]

「それらの違い」について考える代わりに、「間違った分布を使用することによる予想される驚きの増加」について考えます。これはすべて、対数のプロパティからです。

Ep[log(p(X)q(X))]=Ep[logq(X)]Ep[logp(X)]0.

編集

応答:「がどのように「サプライズ」の尺度であるかを詳しく説明できますか?サンプル空間の線形変換では不変ではないため、この量だけでは意味がありません(はpdf)」log(q(x))q

まず、値をどのようにマッピングするかを考えてください。特定の値をにマッピングするがある場合、。離散確率変数の場合、確率実現には「驚き」ます。Xqx0log(0)=10

第二に、は単射であるため、まれな値がそれほど珍しくない値よりも驚きを少なくする方法はありません。log

連続確率変数の場合、は否定的な驚きと一致します。これはマイナス面だと思います。q(x)>1

オリビエは、「証拠の重み」量が私のものにない特性を示唆しているようです。これは、線形変換の下で不変性と呼ばれます(サンプル空間によって彼が何を意味するかは完全には理解できません)。おそらく彼は、、が連続している限り。明らかにはヤコビアンによるものです。XqX(x)Y=aX+bqx((yb)/a)|1/a|XlogqX(X)logqY(Y)

しかし、これが量を「無意味」にする方法はわかりません。実際、この場合に不変性が望ましい特性である理由を理解するのは困難です。規模はおそらく重要です。前に、コメントで、分散の例について言及しました。ここで、期待しているランダム変数はです。これを「極度」と解釈できます。この量は不変性の欠如にも苦しみますが、それは分散とは何かについての無意味な人々の直感をレンダリングしません。(XEX)2

編集2:これを「サプライズ」と考えているのは私だけではないようです。ここから:

条件とするデータの残差情報は、(乗法定数まで)として定義できます(Kullback and Leibler、1951; Burnham and Anderson、1998)そして、「サプライズ」(Good、1956)、対数ペナルティ(Bernardo、1979)または不確実性の尺度として解釈できます。yθ2log{p(yθ)}


1
が「サプライズ」の尺度である方法について詳しく説明できますか?サンプル空間の線形変換では不変ではないため、この量だけでは意味がありません(はpdfであると仮定します)。qlog(q(x))q
オリビエ

1
してみましょう変換可能、。以来可逆で、観察、私のために、観察と同じである:私は簡単に他に1を変換することができます。なぜ私はより多くの観察に驚いべきである観察で私よりも?()この矛盾を避けるために、可逆変換の下での不変性が必要です。T X = a X a 0 T T x x T x x log q T X T x > log q Xx TT(X)=aXa0TT(x)xT(x)xlogqT(X)(T(x))>logqX(x)
オリビエ

@Olivierはい、これはすでに私の編集ですべてカバーされていました。矛盾はありません。分散の予想を考慮して、分散を考慮してください。このランダムな量を「極度」とみなすことができます。しかし、不変性の欠如について不平を言っているのを見ない(XE[X])2
テイラー
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.