回答:
クラスが相互に排他的である場合(たとえば、各サンプルが1つのクラスに正確に属する場合)、1つのサンプルが複数のクラスを持つことができる場合やカテゴリがソフト確率([0.5、0.3、0.2])である場合は、スパースカテゴリクロスエントロピーを使用します。
カテゴリのクロスエントロピーの式(S-サンプル、C-クラス、サンプルはクラスcに属する)は次のとおりです。
クラスが排他的である場合、それらを合計する必要はありません-各サンプルについて、ゼロ以外の値のみが真のクラスcです。
これにより、時間とメモリを節約できます。相互に排他的な10000クラスの場合を考えてみましょう。サンプルごとに10000を合計するのではなく、ログを1つだけ、10000の浮動小数点ではなく整数を1つだけ。
式は両方の場合で同じであるため、精度に影響はありません。
o1,o2,o3
あり、それぞれに167,11,7
クラスがあります。私はあなたの答えを読みましたが、違いはありませんが、私が使用してsparse__
もしなくても違いはあります。最初のクラスには167のクラスがあるのでcategorical
、最後の2 sparse
つと最初の2つに行くことができますか?