このホワイトペーパーを読むと、「線形分類器はフィーチャとクラス間でパラメータを共有しない」という行があります。この声明の意味は何ですか?ロジスティック回帰などの線形分類器には、相互に独立した機能が必要ということですか?
このホワイトペーパーを読むと、「線形分類器はフィーチャとクラス間でパラメータを共有しない」という行があります。この声明の意味は何ですか?ロジスティック回帰などの線形分類器には、相互に独立した機能が必要ということですか?
回答:
最も単純な線形分類子の1つであるロジスティック回帰を通じてこの質問に答えようとします。
我々が持っている場合、ロジスティック回帰の最も単純なケースであるバイナリ分類タスク(とだけつの入力機能を()。この場合、ロジスティック回帰の出力は次のようになります。
「線形分類器はフィーチャとクラス間でパラメーターを共有しない」というフレーズを2つの部分に分解しようとします。ロジスティック回帰がこれらのタスクのパラメーターを共有しているかどうかを確認するために、複数の機能と複数のクラスのケースを個別に調べます。
線形分類器は機能間でパラメーターを共有しますか?
この場合、それぞれの例で、は(以前と同様に)バイナリ値をとるスカラーであり、は長さN(Nは特徴の数)のベクトルです。ここで、出力は入力フィーチャの線形結合です(つまり、これらのフィーチャとバイアスの加重和)。
X W N xは ⋅ W W 、I X 、I
線形分類器はクラス間でパラメーターを共有しますか?
この場合、はスカラーですが、は長さ(はクラスの数)のベクトルです。これに取り組むために、ロジスティック回帰は基本的に、クラスごとに個別の出力を生成します。各出力はスカラーあり、クラス属するの確率に対応します。、Y M M Y J MのY軸J ∈ [ 0 、1 ] X J
これを考える最も簡単な方法は、それぞれが次の出力を持つ単純な独立したロジスティック回帰としてです。
上記から、異なるクラス間で重みが共有されないことは明らかです。
マルチ機能とマルチクラス:
上記の2つのケースを組み合わせると、最終的に複数の機能と複数のクラスの最も一般的なケースに到達できます。
Y Mは、xはNのbはMW(N×M)
いずれの場合でも、線形分類器はフィーチャまたはクラス間でパラメーターを共有しません。
2番目の質問に答えるために、線形分類器には、機能が独立している必要があるという基本的な仮定がありますが、これは論文の著者が言っていることではありません。