要するに、ロジスティック回帰には、MLでの分類器の使用を超える確率的な意味合いがあります。ここでロジスティック回帰についての注意事項があります。
ロジスティック回帰の仮説は、線形モデルに基づくバイナリ結果の発生の不確実性の尺度を提供します。出力の間漸近的に制限されると、および基礎となる回帰直線の値を有する場合に、線形モデルにそのような依存、ロジスティック方程式は、提供分類のための自然なカットオフポイント。ただし、の実際の結果に確率情報を捨てるという代償を払っています。、これは多くの場合興味深いものです(たとえば、収入、クレジットスコア、年齢などが与えられた場合のローンデフォルトの確率)。1 0 0.5 = e 0010時間(ΘTX)=E Θ T X0.5 = e01 + e0h (ΘTx )= eΘTバツ1 + eΘTバツ
パーセプトロン分類アルゴリズムは、例と重みの間の内積に基づいた、より基本的な手順です。例が誤分類されるたびに、内積の符号はトレーニングセットの分類値(および)と対立します。これを修正するために、サンプルのベクトルは、重みまたは係数のベクトルから反復的に加算または減算され、要素が徐々に更新されます。1− 11
ベクトルの例では、特徴または例の属性はであり、アイデアは次の場合に例を渡すことです。xdバツ
∑1dθ私バツ私> 閾値または...
1 - 1 0 1h (x )= 符号(∑1dθ私バツ私− theshold )。ロジスティック回帰のおよびとは対照的に、符号関数の結果はまたはになります。1− 101
しきい値は、バイアス係数吸収されます。式は次のとおりです。+ θ0
、H (X )= 符号(θ T X )h (x )= 符号(∑0dθ私バツ私)、またはベクトル化:。h (x )= 符号(θTx )
誤分類されたポイントはになります。これは、が負の場合、とのドット積が正(同じ方向のベクトル)になることを意味します。または、内積は負(逆方向のベクトル)になりますが、は正になります。 Θは、xはN 、Y N Y N記号(θTx )≠ ynΘバツnynyn
同じコースのデータセットでこれら2つの方法の違いに取り組んでいます。2つの別々の試験のテスト結果は、大学への最終合格に関連しています。
決定境界はロジスティック回帰で簡単に見つけることができますが、パーセプトロンで得られた係数はロジスティック回帰とは大きく異なりますが、結果への関数の単純な適用により、分類アルゴリズムと同じくらい良い。実際、2回目の反復で最大精度(いくつかの例の線形不可分性によって設定された制限)に達しました。係数のランダムなベクトルから開始して、回の反復が重みを近似したときの境界分割線のシーケンスは次のとおりです。10サイン(⋅ )10
反復回数の関数としての分類の精度は急速に向上し、でプラトーに達し、上のビデオクリップで最適に近い決定境界に到達する速さが一貫しています。学習曲線のプロットは次のとおりです。90 %
使用されるコードはこちらです。