回答:
これらはまったく異なる方法です。彼らの名前の両方に文字Kがあるという事実は偶然です。
K-meansは、各クラスター内のポイントが互いに近くなる傾向があるように、ポイントセットをKセット(クラスター)に分割しようとするクラスタリングアルゴリズムです。ポイントには外部分類がないため、監視されません。
K最近傍は、ポイントの分類を決定するために、K個の最も近いポイントの分類を結合する分類(または回帰)アルゴリズムです。他のポイントの既知の分類に基づいてポイントを分類しようとしているため、監視されています。
Bitwiseの回答で指摘されているように、k-meansはクラスタリングアルゴリズムです。k最近傍(k-NN)に関しては、用語は少し曖昧です。
分類のコンテキストでは、前述の回答にも記載されているように、分類アルゴリズムです。
一般的にはある問題の様々な解決策(アルゴリズム)が存在するため、
したがって、最初のコンテキストでは、「k-NN分類子」とは、実際にはk-NN問題を解決するさまざまな基礎となる具体的なアルゴリズムを意味し、その結果は分類目的で解釈されます。
これらは、二つの異なるものですが、あなたはそれが面白いk平均アルゴリズムをk-NNの問題(マリウスMujaとDavid G. Loweの、解決するための様々な可能な方法の一つであることを見つけるかもしれない「自動アルゴリズムの構成と高速近似最近傍」で、コンピュータビジョン理論と応用に関する国際会議(VISAPP'09)、2009 PDF)
監視されたk-meansを使用できます。ラベル付きデータに基づいて、重心(k-meansなど)を構築できます。何もあなたを止めません。これを改善したい場合、ユークリッド空間とユークリッド距離は最良の結果をもたらさないかもしれません。空間(たとえばリーマン空間)を選択し、ポイント間の距離を定義する(さらに「ポイント」を定義する)必要があります。最後の2つは研究のトピックであり、データ(信号)のタイプ(プロパティ)にも依存します。