KLダイバージェンスは対称的ではなく、厳密にメトリックと見なすことはできません。そうである場合、JS Divergenceがメトリックに必要なプロパティを満たすときに使用されるのはなぜですか?
KLダイバージェンスは使用できるが、JSダイバージェンスは使用できない、またはその逆のシナリオはありますか?
KLダイバージェンスは対称的ではなく、厳密にメトリックと見なすことはできません。そうである場合、JS Divergenceがメトリックに必要なプロパティを満たすときに使用されるのはなぜですか?
KLダイバージェンスは使用できるが、JSダイバージェンスは使用できない、またはその逆のシナリオはありますか?
回答:
私はQuoraで非常に成熟した答えを見つけ、ここでそれを探している人々のためにここに置きました:
カルバックライブラーダイバージェンスにはいくつかの優れた特性があり、そのうちの1つは種類のな領域で、はnull以外の質量を、はnull質量を持ちます。これはバグのように見えるかもしれませんが、実際には特定の状況での機能です。
(扱いやすい)近似分布による複雑な(扱いにくい)分布近似を見つけようとしている場合は 、もかられることは。KLにこのプロパティがあることは簡単に示されます。被積分関数にはがあります。𝑞(𝑥)が小さいが𝑝(𝑥)が小さい場合は、ありません。しかし、が小さい場合、も小さくなければ、これは非常に急速に大きくなります。したがって、を最小化するためにを選択している場合、それはすることが非常にありそうだ地域に質量の多くを割り当てますゼロに近いです。
ジェンセンシャノン分岐には、この特性はありません。と両方が小さい場合に、適切に動作します。それはできるだけ多くの配布不利ではないだろうというこの手段あなたが不可能である値サンプリングすることができ、そこから。