頭に浮かぶ最初の論文はこれです:決定木構築によるクラスタリング
https://pdfs.semanticscholar.org/8996/148e8f0b34308e2d22f78ff89bf1f038d1d6.pdf
別の言及として、「階層的」(トップダウン)および「階層的凝集」(ボトムアップ)は、どちらも木を使用してクラスタリングを行うために考案されたよく知られた手法です。Scipyにはこれがあります。
ライブラリがわからないためカスタムコードで問題ない場合は、2つの方法をお勧めします。これらは、それらが依存しているメカニズムのため、技術的にクラスタリングされていないことに注意してください。この擬似クラスタリングと呼ぶこともできます。
1)監督:これは紙に多少似ています(読む価値があります)。単一のデシジョンツリーモデルを構築して、ターゲットを学習します(意味のあるものを決定します)。ターゲットは、ランダムに生成された列である可能性があります(どの反復が最適かを繰り返し評価する必要があります。以下を参照)。ツリーの各フルパスを「クラスター」として定義します。これは、一連のブランチを通るポイントがターゲットに関して技術的に類似しているためです。これは一部の問題でのみ機能しますが、大規模では効率的です。最終的にK個のクラスターになります(以下を参照)。
2)半教師あり(教師なしの一種ですが、機械的に監視されます)、#1:を使用して、ツリーを構築して、1つだけのパターンで列を予測できます。つまり、スキーマが[A、B、C]の場合、3つのモデル[A、B]-> C、[A、C]-> B、[B、C]-> Aを構築します。KNクラスターを取得します(以下を参照)。N = len(スキーマ)。これらの機能の一部が面白くないか、不均衡すぎる場合(カテゴリの場合)、それらをターゲットとして使用しないでください。
要約:モデルは、情報または純度に基づいて順番に機能を選択し、クラスターはすべてではなく、いくつかの機能にのみ基づいています。これらのクラスターには距離の概念はありませんが、中心に基づいて距離を考案することはできます。
長所:理解と説明が簡単で、迅速なトレーニングと推論、いくつかの強力な機能でうまく機能し、カテゴリで機能します。機能が本質的に異種であり、多くの機能がある場合、距離関数で使用するものを決定するのにそれほど時間を費やす必要はありません。
短所:標準ではない、書かなければならない、素朴なバイアス、ターゲットとの共線性が悪い結果を引き起こし、1000の同様に重要な特徴があるとうまく機能しません(ユークリッド距離のK平均がここで優れています)。
クラスターはいくつ取得しますか?DTモデルが大きくなりすぎないように制限する必要があります。たとえば、リーフごとの最小サンプル、最大リーフノード(推奨)、または最大深度を設定します。必要に応じて、純度またはエントロピーの制約を設定します。クラスターの数を確認し、この方法が実際のクラスタリングより優れているかどうかを評価する必要があります。
テクニックとパラメーターはうまく機能しましたか?どちらが最高でしたか?調べるには、クラスター評価を行う必要があります:教師なし学習を評価するパフォーマンスメトリック
But I need it for unsupervised clustering, instead of supervised classification
このキーフレーズだけでは短すぎて、あなたが望むものを明確に説明していません。その上で、私には決定木と思われるものを説明しました。あなたは今、あなたが望むアルゴについて同様のパッセージを与えることができますか?