12 私は数学者ではありません。KL Divergenceについてインターネットで検索しました。私が学んだことは、KLダイバージェンスは、入力分布に対してモデルの分布を近似したときに失われた情報を測定することです。これらは、2つの連続または離散分布の間で見られます。連続と離散の間、またはその逆でそれを行うことができますか? distributions mathematical-statistics kullback-leibler — プラカシュ ソース 関連:stats.stackexchange.com/q/6907/2970 — 枢機卿
3 xxp(x)p(x)q(x)q(x)ppR3R3qqZZq(x)q(x)p∈R3p∈R3p(z)p(z)z∈Zz∈Z。実際、異なる次元の空間(または離散、または基礎となる確率空間が一致しない場合)での2つの連続分布に対しても、それを行うことはできません。 特定のケースを念頭に置いている場合は、分布間の類似性の類似した目的の測定値を考え出すことができる場合があります。たとえば、離散分布のコードの下で連続分布をエンコードすると(明らかに情報が失われている場合など)、離散ケースでは最も近い点に丸めるなどの意味があります。 — ドゥガル ソース 離散分布と絶対連続分布の間のKLの相違は明確に定義されていることに注意してください。 — Olivier @Olivier通常の定義では、共通の支配的な手段が必要です。 — Dougal 2017 1 PとQが異なる空間で定義されている場合、あなたは正しいです。しかし、共通の測定可能な空間では、そのような測度は常に存在し(たとえば、P + Qを取る)、KLの相違は、測定を支配する特定の選択に依存しません。 — Olivier
8 PPQQXXPPQQffggμ=P+Qμ=P+QDKL(P,Q)=∫Xflogfgdμ.DKL(P,Q)=∫Xflogfgdμ. X=[0,1]X=[0,1]PPQ=δ0Q=δ000f(x)=1−1x=0f(x)=1−1x=0g(x)=1x=0g(x)=1x=0DKL(P,Q)=∞.DKL(P,Q)=∞. — オリビエ ソース ∫Xflogfgdμ∫Xflogfgdμ メジャー定理の変更。 — オリビエ
1 一般的にはありません。KLダイバージェンスは DKL(P || Q)=∫Xlog(dPdQ)dPDKL(P || Q)=∫Xlog(dPdQ)dP PPQQPPQQσσdPdQdPdQ σσ — jtobin ソース