ロジスティック回帰が線形分類器であるのはなぜですか?


49

ロジスティック関数を使用して入力の線形結合を非線形出力に変換しているので、ロジスティック回帰を線形分類器とみなすにはどうすればよいですか?

線形回帰は、隠れ層のないニューラルネットワークのようなものです。なぜニューラルネットワークは非線形分類器と見なされ、ロジスティック回帰は線形なのでしょうか。


7
「入力の線形結合を非線形出力に変換する」ことは、線形分類器の定義の基本的な部分です。これにより、この問題は2番目の部分に削減されます。これは、ニューラルネットワークが一般に線形分類器として表現できないことを示すことになります。
whuber

1
@whuber:ロジスティック回帰モデルが多項式予測変数(例:)を使用して非線形決定境界を生成できるという事実をどのように説明しますか?それはまだ線形分類器ですか?w1x12+w2x23
stackoverflowuser2010

4
@Stack「線形分類器」の概念は、線形モデルの概念に由来すると思われます。stats.stackexchange.com/a/148713で説明されているように、モデルの「線形性」にはいくつかの形式があります。我々は受け入れると線形分類器のWikipediaの特性を、そしてあなたの多項式の例では、と見られる非線形与えられた「機能」の面でとが、それは次のようになり、線形機能の面ではと。この区別は、線形性の特性を活用する便利な方法を提供します。x1x2x12x23
whuber

1
ロジスティック分類器の決定境界が線形であるという質問については、まだ少し混乱しています。私はコーセラ上のコース学習アンドリュー・ウ・マシンを追ってきたし、彼は次のように述べた:![ここに画像の説明を入力します ](i.stack.imgur.com/gHxfr.pngが)だから、実際にそれは私には思える誰も答えはそれがありませんは決定境界の線形性または非線形性に依存します。これは、Htheta(X)として定義される仮説関数に依存します。ここで、Xは入力、Thetaは問題の変数です。あなたにとって意味がありますか?
壊れた剣

回答:


42

ロジスティック回帰は、予測を したがって、予測は線形関数であるに関して記述できます。(より正確には、予測された対数オッズは線形関数です。)

p^=11+eμ^, where μ^=θ^x.
μ^xx

逆に、線形関数に関してニューラルネットワークの出力を要約する方法はありません。そのため、ニューラルネットワークは非線形と呼ばれます。x

また、ロジスティック回帰の場合、決定境界は線形です。これはの解です。ニューラルネットワークの決定境界は一般に線形ではありません。{x:p^=0.5}θ^x=0


2
あなたの答えは、私にとってこれまでで最も明確で複雑ではありません。しかし、私は少し混乱しています。一部の人々は、述語の対数オッズは線形関数であると言い、他の人々はそれが線形関数であると言います。そう?!xθ
ジャックトウェイン14

1
それからあなたの説明によって。ニューラルネットワークの予測は、最後の隠れ層の活性化の線形関数であると言えますか?
ジャックトウェイン14

2
予測された対数オッズは、と両方で線形です。しかし、通常、対数オッズがで線形であるという事実に最も関心があります。これは、決定境界が空間で線形であることを意味するためです。θ^xθ^xxx
ステファンウェイガー14

3
判別境界が空間で線形である場合、分類器は線形であるという定義を使用しています。これは、で線形である予測確率と同じではありません(確率は0から1の間でなければならないため、些細な場合を除いて不可能です)。xx
ステファンウェイガー14

3
@Pegahこれは古いことは知っていますが、ロジスティック回帰には線形の決定境界があります。ouptut自体はもちろん線形ではなく、ロジスティックです。ポイントがラインのどちら側にあるかに応じて、合計出力はそれぞれ0または1に近づきます(決して到達しません)。Stefan Wagnersの答えに追加するには、最後の文は完全に正しいわけではありません。ニューラルネットワークは、非線形のアクティベーションまたは出力関数を含む場合、非線形です。ただし、線形にすることもできます(非線形性が追加されていない場合)。
クリス

20

Stefan Wagnerが指摘しているように、ロジスティック分類器の決定境界は線形です。(分類器は入力が線形に分離可能である必要があります。)明白でない場合に備えて、この数学を拡張したかったのです。

決定境界は、

11+eθx=0.5

少しの代数は、これがと同等であることを示しています

1=eθx

そして、両側の自然対数をとって、

0=θx=i=0nθixi

そのため、決定境界は線形です。

ニューラルネットワークの決定境界が線形ではない理由は、ニューラルネットワークには2つのシグモイド関数の層があるためです:各出力ノードに1つと、各出力ノードの結果を組み合わせてしきい値を設定する追加のシグモイド関数です。


2
実際、1つのレイヤーのみがアクティブ化されている非線形の決定境界を取得できます。2層フィードフォワードネットワークを使用したXORの標準例を参照してください。
ジェームズハーシュホーン

5

と 2つのクラスがある場合、条件付き確率を ベイズの定理 分母はとして表されます。C0C1

P(C0|x)=P(x|C0)P(C0)P(x)
P(C0|x)=P(x|C0)P(C0)P(x|C0)P(C0)+P(x|C1)P(C1)=11+exp(logP(x|C0)P(x|C1)logP(C0)P(C1))
1+eωx

どの条件の下で、最初の式が線形項になりますか?指数族(GaußやPoissonのような指数分布の正準形)を考慮する場合、 その後、線形形式

P(x|Ci)=exp(θixb(θi)a(ϕ)+c(x,ϕ))
logP(x|C0)P(x|C1)=[(θ0θ1)xb(θ0)+b(θ1)]/a(ϕ)

両方の分布が同じファミリーに属し、同じ分散パラメーターを持っていると仮定していることに注意してください。しかし、その仮定の下では、ロジスティック回帰は指数分布のファミリー全体の確率をモデル化できます。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.