「機能とクラス間でパラメーターを共有する」とはどういう意味ですか


20

このホワイトペーパーを読むと、「線形分類器はフィーチャとクラス間でパラメータを共有しない」という行があります。この声明の意味は何ですか?ロジスティック回帰などの線形分類器には、相互に独立した機能が必要ということですか?

回答:


22

最も単純な線形分類子の1つであるロジスティック回帰を通じてこの質問に答えようとします。

我々が持っている場合、ロジスティック回帰の最も単純なケースであるバイナリ分類タスク(y{0,1})とだけつの入力機能をxR)。この場合、ロジスティック回帰の出力は次のようになります。

y^=σ(wx+b)
ここで、wbは両方ともスカラーです。モデル\ hat y \ in [0,1]の出力は、xがクラス1になるy^[0,1]確率に対応します。1x1

「線形分類器はフィーチャとクラス間でパラメーターを共有しない」というフレーズを2つの部分に分解しようとします。ロジスティック回帰がこれらのタスクのパラメーターを共有しているかどうかを確認するために、複数の機能と複数のクラスのケースを個別に調べます。

線形分類器は機能間でパラメーターを共有しますか?

この場合、それぞれの例で、yは(以前と同様に)バイナリ値をとるスカラーであり、xは長さNNは特徴の数)のベクトルです。ここで、出力は入力フィーチャの線形結合です(つまり、これらのフィーチャとバイアスの加重和)。NN

X W N xはW W 、I X 、I

y^=σ(iN(wixi)+b)orσ(wx+b)
ここで、およびは長さベクトルです。積はスカラーを生成します。上記からわかるように、各入力フィーチャには個別の重みがあり、これらの重みは必ず独立しています。このことから、機能間でパラメータを共有することはできないと結論付けることができますxwNxw wixi

線形分類器はクラス間でパラメーターを共有しますか?

この場合、はスカラーですが、は長さ(はクラスの数)のベクトルです。これに取り組むために、ロジスティック回帰は基本的に、クラスごとに個別の出力を生成します。各出力はスカラーあり、クラス属するの確率に対応します。、Y M M Y J MのY軸J[ 0 1 ] X JxyMMyjMyj[0,1]xj

y^=wx+b,wherey^=y^1,y^2,...,yM

これを考える最も簡単な方法は、それぞれが次の出力を持つ単純な独立したロジスティック回帰としてです。M

y^j=σ(wjx+bj)

上記から、異なるクラス間で重みが共有されないことは明らかです。

マルチ機能とマルチクラス

上記の2つのケースを組み合わせると、最終的に複数の機能と複数のクラスの最も一般的なケースに到達できます。

Y Mは、xはNのbはMWN×M

y^=σ(Wx+b)
ここではサイズベクトル、はサイズ、のサイズを有するベクトルであり、及びのサイズを有する行列である。y^MxNbMW(N×M)

いずれの場合でも、線形分類器はフィーチャまたはクラス間でパラメーターを共有しません

2番目の質問に答えるために、線形分類器には、機能が独立している必要があるという基本的な仮定がありますが、これは論文の著者が言っていることではありません。


1
いい説明。:)
joydeep bhattacharjee
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.