ロジスティック回帰はいつ適していますか?


12

現在、分類方法を教えています。具体的には、サポートベクターマシン、ニューラルネットワーク、ロジスティック回帰の3つの方法を検討しています。私が理解しようとしているのは、ロジスティック回帰が他の2つよりも優れたパフォーマンスを発揮する理由です。

ロジスティック回帰の私の理解から、アイデアはデータ全体にロジスティック関数を適合させることです。したがって、データがバイナリの場合、ラベル0のすべてのデータは値0(またはそれに近い)にマッピングされ、値1のすべてのデータは値1(またはそれに近い)にマッピングされる必要があります。ロジスティック関数は連続的で滑らかなので、この回帰を実行するには、すべてのデータが曲線に適合する必要があります。決定境界付近のデータポイントに適用される重要性はこれ以上なく、すべてのデータポイントが異なる量で損失に寄与します。

ただし、サポートベクターマシンとニューラルネットワークでは、決定境界付近のデータポイントのみが重要です。データポイントが決定境界の同じ側にある限り、同じ損失をもたらします。

したがって、決定の周りの難しいデータだけに焦点を合わせるのではなく、多くの重要でない(分類​​しやすい)データに曲線を当てはめようとすると「リソースを浪費する」ため、ロジスティック回帰はサポートベクターマシンまたはニューラルネットワークよりも優れています。境界?


5
LRは確率推定を提供し、SVMはバイナリ推定を提供します。また、クラス間に分離超平面がない場合にもLRが役立ちます。また、アルゴリズムの複雑さや、パラメーターの数や感度などのその他の特性を考慮する必要があります。
バー

回答:


28

「無駄」とみなされるリソースは、実際には、ロジスティック回帰によって得られる情報の増加です。あなたは間違った前提で始めました。ロジスティック回帰は分類子ではありません。これは、確率/リスク推定量です。SVMとは異なり、「クローズコール」を許可し、予期します。観測を分類するたびに暗黙的なユーティリティ関数を組み込むように予測信号をだまそうとしないため、最適な意思決定につながります。最尤推定を使用したロジスティック回帰の目標は、Prob 最適な推定を提供することです。結果は、リフトカーブ、信用リスクスコアリングなど、さまざまな方法で使用されます。NateSilverの著書Signal and the Noiseを参照してください(Y=1|X)、確率論的推論を支持する説得力のある引数です。

ロジスティック回帰の従属変数は、0/1、A / B、yes / noなど、任意の方法でコーディングできることに注意してください。Y

ロジスティック回帰の主な仮定は、が真のバイナリであるということです。たとえば、基になる順序変数または連続応答変数から作成されたものではありません。それは、分類方法と同様に、真にオールオアナッシングの現象のためのものです。Y

一部のアナリストは、ロジスティック回帰が対数オッズスケールでの予測子効果の線形性を仮定していると考えています。それは、1958年にDR Coxがロジスティックモデルを発明したときに、回帰スプラインなどのツールを使用してモデルを拡張するコンピューティングが利用できなかったときにのみ当てはまりました。ロジスティック回帰の唯一の弱点は、モデルで許可する相互作用を指定する必要があることです。付加的な主効果は一般に相互作用よりもはるかに強力な予測子であるため、ほとんどのデータセットではこれが強みになり、相互作用に等しい優先順位を与える機械学習法は不安定で、解釈が難しく、予測にはロジスティック回帰よりも大きなサンプルサイズが必要になる可能性があります上手。


6
+1。正直に言うと、SVMが有用だとは思っていません。彼らはセクシーですが、トレーニングとスコアリングが遅いです-私の経験では-とあなたがいじる必要がある多くの選択肢があります(カーネルを含む)。有用であることがわかったニューラルネットワークだけでなく、多くのオプションと調整もあります。ロジスティック回帰は単純で、合理的に十分に調整された結果をそのまま使用できます。キャリブレーションは、実際の使用に重要です。もちろん、欠点は線形であるため、クラスターのような塊の多いデータやランダムフォレストなどの他の方法に適合できないことです。
ウェイン

1
素晴らしい答え。そして、それは空想のメソッドの作業判明-ところで、あなたはそれが最近、機械学習者は、このようなペナルティ最尤のような伝統的な枠組みの中に自分の空想の方法をフィッティングに周りに来たのを知って興味がある可能性がより良い方法これが行われます。XGBoostを検討してください。これは、おそらく最も効果的なツリーアンサンブルブースティングアルゴリズムです。数学はここにある:xgboost.readthedocs.io/en/latest/model.html。従来の統計学者にとっては非常に馴染みがあるはずであり、通常の損失関数を使用して、多くの一般的な統計目的のモデルを適合させることができます。
ポール

5

あなたは正しいです、多くの場合、ロジスティック回帰は分類器として不十分です(特に他のアルゴリズムと比較した場合)。ただし、これはロジスティック回帰を忘れてはならないという意味ではありません。2つの大きな利点があるため、決して検討する必要はありません。

  1. 確率的な結果。フランク・ハレル(+1)は彼の答えでこれを非常によく説明しました。

  2. これにより、他の独立変数を制御しながら、独立変数が従属変数に与える影響を理解できます。たとえば、条件付きオッズ比の推定値と標準誤差を提供します(オッズはY=1 いつ バツ1=1 の代わりに 2 押しながら バツ2バツp 絶え間ない)。


5
そして、分類器としての明らかなパフォーマンスの低下は、不適切な精度スコアを使用した結果であり、ロジスティック回帰に固有の問題ではありません。
フランクハレル

@FrankHarrell:最近いくつかの実験を行っていますが、ロジスティック回帰は他の方法よりもはるかに自由度の低いデータに適合します。たとえば、ランダムフォレストまたはGAMの柔軟性に合わせて、相互作用を追加し、より多くの機能エンジニアリングを行う必要があります。(もちろん、柔軟性はオーバーフィットの深aを渡る綱渡りです。)
ウェイン

3
これより少ない自由を@wayne、あなたがそれを述べると、それは安定性を提供するので、多くのケースで非常に有用である
rapaio

3
相互作用項を仮定することは、付加的な用語よりも重要性が低いだけでなく、多くの方法で仮定を緩和できます。これについては、元の回答に追加します。
フランクハレル

2
@rapaio:はい、柔軟性は、過剰適合の観点だけでなく、他の点でも危険です。それはドメイン/使用上の問題です。データにノイズが多いのですか、それとも、その用語を使用する場合、本当に「ゴツゴツした/クラスターっぽい」のでしょうか?
ウェイン
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.