k-Nearest-Neighbourの主なアイデアは、最も近い点を考慮に入れ、多数決によってデータの分類を決定します。その場合、局所性に敏感なハッシュのようなメソッドは最も近い近傍を効率的に見つけることができるため、高次元のデータでは問題が発生しないはずです。
さらに、ベイジアンネットワークでの特徴選択により、データの次元が削減され、学習が容易になります。
ただし、統計的学習におけるJohn Laffertyによるこのレビューペーパーは、高次元の特徴空間でのノンパラメトリック学習は依然として課題であり、未解決であることを指摘しています。
何が問題になっていますか?
1
論文の完全なリファレンスを提供してください。著者はそこに(目立つように)現れていないようです。
—
ラファエル