1
t-SNE目的関数でクロスエントロピーではなく、Kullback-Leibler発散を使用する理由
私の考えでは、サンプル分布から真の分布へのKLの相違は、単純にクロスエントロピーとエントロピーの違いです。 多くの機械学習モデルでクロスエントロピーをコスト関数として使用するのに、t-sneでKullback-Leibler発散を使用するのはなぜですか?学習速度に違いはありますか?
統計、機械学習、データ分析、データマイニング、およびデータの視覚化に興味がある人のためのQ&A