画像分類は、既知のラベルの1つを特定の画像に割り当てるタスクです。たとえば、写真が2枚与えられ、それぞれの画像にが1つだけ含まれていることがわかっているとします。アルゴリズムは、写真が示すものを言う必要があります。
画像分類のベンチマークデータセットはImageNetです。特に大規模な視覚認識の課題(LSVRC)。それは正確に1000クラスと膨大な量のトレーニングデータを持っています(約250px x 250px画像のダウンサンプルバージョンがあると思いますが、多くの画像はフリッカーからのもののようです)。
この課題は通常、CNN(または他のニューラルネットワーク)で解決されます。
LSVRCでニューラルネットワークを使用しないアプローチを試みる論文はありますか?
質問を明確にするために:もちろん、最近傍やSVMのような他の分類アルゴリズムがあります。しかし、私はそれらが多くのクラス/多くのデータに対してまったく機能しないことを疑っています。少なくとも -NNについては、予測が非常に遅くなると確信しています。SVMの場合、フィッティングと予測の両方が遅くなると思います(?)。