ニューラルネットワークは、入力データのより適切な表現を学習するために、教師なし学習で広く使用されています。たとえば、テキストドキュメントのセットが与えられた場合、NNは、結果のベクトルが類似したコンテンツを持つドキュメントで類似するように、ドキュメントから実数値ベクトルへのマッピングを学習できます。これは、たとえば、自動エンコーダーを使用して実現できます。これは、コスト関数として再構成エラー(ID関数からの距離)を使用して、より小さい表現(隠れ層の活性化)から元のベクトルを再構成するように訓練されたモデルです。このプロセスはクラスターを提供しませんが、クラスター化に使用できる意味のある表現を作成します。たとえば、非表示層のアクティベーションでクラスタリングアルゴリズムを実行できます。
クラスタリング:クラスタリング用に特別に設計されたさまざまなNNアーキテクチャがあります。最も広く知られているのは、おそらく自己組織化マップです。SOMは、トポロジーグリッド(通常は長方形)を形成するために接続された一連のニューロンを持つNNです。何らかのパターンがSOMに提示されると、最も近い重みベクトルを持つニューロンが勝者と見なされ、その重みがパターンとその近傍の重みに適合されます。このようにして、SOMはデータクラスターを自然に見つけます。多少関連するアルゴリズムは、神経ガスを成長させています(定義済みのニューロン数に限定されません)。
もう1つのアプローチは、「比較フィールド」と「認識フィールド」の2つの層がある適応共鳴理論です。また、認識フィールドは、比較フィールドから転送されたベクトルに最適な一致(ニューロン)を決定し、横方向の抑制接続も行います。実装の詳細と正確な方程式は、これらのモデルの名前をグーグルで調べることで簡単に見つけることができるため、ここでは説明しません。