K平均とK最近傍の主な違いは何ですか?


回答:


106

これらはまったく異なる方法です。彼らの名前の両方に文字Kがあるという事実は偶然です。

K-meansは、各クラスター内のポイントが互いに近くなる傾向があるように、ポイントセットをKセット(クラスター)に分割しようとするクラスタリングアルゴリズムです。ポイントには外部分類がないため、監視されません。

K最近傍は、ポイントの分類を決定するために、K個の最も近いポイントの分類を結合する分類(または回帰)アルゴリズムです。他のポイントの既知の分類に基づいてポイントを分類しようとしているため、監視されています。


6
この男がクレジットを与えているよりも多くの類似点があると思います。どちらも距離メソッドを使用して、それぞれ入力をクラスタリングおよび分類します。多くの場合、それらが一緒に教えられる理由であり、次元の問題がそれらに関連して議論される理由です。さまざまな距離方法を両方に適用できます。実際、多くの類似点があります。
eljusticiero67

@ eljusticiero67もちろん入力を分類するために使用されます。これはOPによって言及されています。そして、ほとんどの古典的な学習方法は距離ベースであるため、これも驚くことではありません。OPは違いに興味を持っていることに注意してください。また、OPが両方の名前にKがあるために類似性があることを暗示しているように理解しました。
ビット単位

12

Bitwiseの回答で指摘されているように、k-meansはクラスタリングアルゴリズムです。k最近傍(k-NN)に関しては、用語は少し曖昧です。

  • 分類のコンテキストでは、前述の回答にも記載されているように、分類アルゴリズムです。

  • 一般的にはある問題の様々な解決策(アルゴリズム)が存在するため、

したがって、最初のコンテキストでは、「k-NN分類子」とは、実際にはk-NN問題を解決するさまざまな基礎となる具体的なアルゴリズムを意味し、その結果は分類目的で解釈されます。

これらは、二つの異なるものですが、あなたはそれが面白いk平均アルゴリズムをk-NNの問題(マリウスMujaとDavid G. Loweの、解決するための様々な可能な方法の一つであることを見つけるかもしれない「自動アルゴリズムの構成と高速近似最近傍」で、コンピュータビジョン理論と応用に関する国際会議(VISAPP'09)、2009 PDF


0

監視されたk-meansを使用できます。ラベル付きデータに基づいて、重心(k-meansなど)を構築できます。何もあなたを止めません。これを改善したい場合、ユークリッド空間とユークリッド距離は最良の結果をもたらさないかもしれません。空間(たとえばリーマン空間)を選択し、ポイント間の距離を定義する(さらに「ポイント」を定義する)必要があります。最後の2つは研究のトピックであり、データ(信号)のタイプ(プロパティ)にも依存します。


-2

K-meansは近隣ノードのクラスター情報を作成できますが、KNNは特定の近隣ノードのクラスターを見つけることができません。


-2

k平均は、knnが実際の分類段階で展開される前のトレーニングフェーズとして使用できます。Kは、各クラスに属するサンプルの重心とクラスラベルで表されるクラスを作成することを意味します。knnはこれらのパラメーターとk番号を使用して、見えない新しいサンプルを分類し、K平均アルゴリズムによって作成されたkクラスの1つに割り当てます。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.