kNNと線形回帰は非常に異なるものであるため、直接比較することは非常に困難ですが、ここでの重要なポイントは、「モデリング」と「についての仮定があること」の違いだと思います。f (x )f(x )f(x )
線形回帰を行う場合、ある具体的モデル、のラインのうち、多くの場合、何かここあるガウス雑音用語。最尤モデルは最小二乗和誤差モデルと同等であることがわかります。f (x )= w x + ϵ ϵf(x )f(x )= w x + ϵε
一方、KNNは、2番目の点が示すように、分布全体を具体的にモデル化することなく、局所的に一定の関数( ses 間の距離測定)によってその関数を近似できると想定しています。バツ
言い換えると、線形回帰はしばしば、の値だけから見えないの値の良い考えを持っていますが、kNNはについての予測を行うために他の情報(すなわちk近傍)を必要とします、モデルがないため、の値と値自体だけでは何の情報も提供しません。x x f (x )x f (x )f(x )バツバツf(x )バツf(x )
編集:これをより明確に表現するために以下にこれを繰り返します(コメントを参照)
線形回帰と最近傍法の両方が新しいの値を予測することを目的としていることは明らかです。現在、2つのアプローチがあります。線形回帰は、データが直線(プラスマイナスノイズ)にあると仮定して続行されます。したがって、yの値は値に直線の傾きを掛けたものに等しくなります。つまり、線形式はデータを直線としてモデル化します。x f (x )y= f(x )xf(x)
現在、最近傍メソッドは、データがどのように見えるか(データをモデル化していないか)を気にしません。つまり、メソッドが線、放物線、円などであるかどうかを気にしません。とが類似している場合、とは類似しています。この仮定は、上記のすべてのモデルを含め、ほとんどすべてのモデルにほぼ当てはまることに注意してください。しかし、NN法は、の値がどのように伝えることができなかったに関連しているそれは、この関係のないモデルを持っていないので、それはちょうどそれがで近似できると仮定し、(などそれはラインであるかどうか、放物線、)近点を調べます。f (x 2)x 1 x 2 f (x )xf(x1)f(x2)x1x2f(x)x