タグ付けされた質問 「self-organizing-maps」

2
教師なしクラスタリングに人工ニューラルネットワークANNを使用するにはどうすればよいですか?
artificial neural network (ANN)予測の誤差を減らすことでフィッティングを改善するために、逆伝播を使用して教師付き方法でをトレーニングする方法を理解しています。ANNは教師なし学習に使用できると聞いたことがありますが、最適化段階を導くための何らかのコスト関数なしでこれを行うにはどうすればよいですか?k-meansまたはEMアルゴリズムでは、各反復が増加するように検索する関数があります。 ANNを使用してクラスタリングを実行するにはどうすればよいですか?また、同じ場所でデータポイントをグループ化するためにどのメカニズムを使用しますか? (さらにレイヤーを追加するとどのような追加機能がもたらされますか?)

3
(なぜ)コホーネンスタイルのSOMは支持されなくなったのですか?
私の知る限り、コホーネンスタイルのSOMは2005年頃にピークを迎えましたが、最近はあまり好まれていません。私は、SOMが別の方法に包まれている、または他の方法と同等であると証明されている(とにかく高次元で)ことを示す論文を見つけませんでした。しかし、たとえばWikipediaやSciKit Learnなどでは、tSNEや他のメソッドがより多くのインクを獲得しているように思われ、SOMは歴史的なメソッドとしてより多く言及されています。 (実際、Wikipediaの記事は、SOMが競合他社に対して一定の利点を持ち続けていることを示しているように見えますが、リストの中で最も短いエントリでもあります。編集:gungのリクエストにより、私が考えている記事の1つは、非線形次元削減です。SOMは他の方法よりも記述されていないことに注意してください。SOMが他のほとんどの方法よりも優れているという利点を述べた記事を見つけることができません。) 洞察はありますか?他の誰かがなぜSOMが使用されていないのかを尋ね、しばらく前から参考文献を入手し、SOM会議の議事録を見つけましたが、SVMやtSNEなどの台頭がポップ機械学習でSOMを覆い隠しただけではないかと思っていました。 編集2:純粋な偶然の一致により、私は今晩、非線形次元削減に関する2008年の調査を読んでいたが、例としてのみ言及している:Isomap(2000)、locally linear embedding(LLE)(2000)、Hessian LLE(2003)、Laplacian eigenmaps(2003)、および半正定値埋め込み(SDE)(2004)。

4
ユークリッドベースのクラスタリングアルゴリズムで混合データが問題になるのはなぜですか?
ほとんどの古典的なクラスタリングおよび次元削減アルゴリズム(階層的クラスタリング、主成分分析、k-means、自己組織化マップ...)は数値データ専用に設計されており、それらの入力データはユークリッド空間の点と見なされます。 これはもちろん問題です。多くの現実世界の質問には混合データが含まれているためです。たとえば、バスを勉強する場合、高さと長さ、モーターサイズは数字になりますが、色(カテゴリ変数:青/ red / green ...)および容量クラス(順序変数:小/中/大容量)。具体的には、これらのさまざまなタイプの変数を同時に調べたい場合があります。 たとえば、階層型クラスタリングまたは多次元スケーリングにプラグインするGowerの非類似性、または距離行列を入力として使用する他の方法を使用して、従来のクラスタリングアルゴリズムを混合データに拡張する方法がいくつかあります。または、たとえばこのメソッド、混合データへのSOMの拡張。 私の質問は、なぜ混合変数にユークリッド距離を使用できないのですか?またはなぜそうするのが悪いのですか?カテゴリ変数をダミーエンコードし、すべての変数を観測間の距離で同様の重みを持つように正規化し、これらの行列で通常のアルゴリズムを実行できないのはなぜですか? それは本当に簡単であり、一度も行われたことがないので、それは非常に間違っていると思いますが、誰がその理由を教えてもらえますか?および/またはいくつかのrefを教えてください?ありがとう

4
テキストマイニング:人工知能でテキスト(ニュース記事など)をクラスター化する方法は?
Pongのプレイ、手書きの数字の分類など、さまざまなタスクのために、いくつかのニューラルネットワーク(MLP(完全接続)、Elman(繰り返し))を構築しました... さらに、複数桁の手書きノートを分類するなど、いくつかの最初の畳み込みニューラルネットワークを構築しようとしましたが、25x25サイズの画像などの標準化された入力に依存できる画像認識/クラスタリングタスクなど、テキストを分析およびクラスター化することはまったく新しいです。 RGBまたはグレースケールなど...前提条件の機能がたくさんあります。 テキストマイニング、たとえばニュース記事の場合、入力のサイズは常に変化しています(異なる単語、異なる文、異なるテキスト長など)。 人工知能、できればニューラルネットワーク/ SOMを利用した最新のテキストマイニングツールをどのように実装できますか? 残念ながら、簡単なチュートリアルを最初から見つけることができませんでした。複雑な科学論文は読みにくく、トピックを学ぶための最良の選択肢ではありません(私の意見では)。MLP、ドロップアウトテクニック、畳み込みニューラルネットワークなどに関するかなりの論文をすでに読んでいますが、テキストマイニングに関する基本的なものを見つけることができませんでした-私が見つけたのは、非常に限られたテキストマイニングスキルにはあま​​りにも高レベルでした。

5
名目変数/循環変数のSOMクラスタリング
名目上の入力のクラスタリングに精通している人がいるかどうか疑問に思っています。私はソリューションとしてSOMを検討してきましたが、どうやらそれは数値機能でのみ機能します。カテゴリ機能の拡張機能はありますか?具体的には、「Days of the Week」が可能な機能として考えていました。もちろん、数値特徴に変換することも可能です(つまり、月-日が1〜7に対応)。ただし、太陽と月(1&7)の間のユークリッド距離は、月から火(1&2)までの距離と同じではありません。 )。どんな提案やアイデアも大歓迎です。

1
U-Matrixを自動的にクラスター化する方法は?
自己組織化マップをトレーニングした後、U-Matrixを計算できます。手動で視覚化してクラスターを特定するツールはいくつかありますが、このプロセスを自動で実行するアルゴリズムがあるかどうか(つまり、人間が図を見てクラスターを特定できないか)は疑問です。 これを行う方法はありますか?私はRでコードを書いています。インターネット上ではそのようなものは何も見つかりません。そのため、誰かがここで手助けしてくれるかもしれません。

2
次元削減のための自己組織化マップの使用
過去数日間、私は学校でのプロジェクトの自己組織化マップについていくつかの研究を行ってきました。自己組織化マップを使用してデータの次元を削減できることを理解しました。しかし、私はこれがどのように機能するのか理解していません。たとえば、SOMにニューロンの10x10ネットワークがあり、入力が25次元であるとします。したがって、私の理解では、25Dである各ニューロンの特徴ベクトルを作成します。トレーニングが完了するまでに、100個の25Dベクトルが作成されます。これはどのようにしてデータの次元を正確に削減するのですか?ニューロンの位置に関心があるはずですか? 編集:私はすでに自己組織化マップを使用した次元削減の質問を読みましたが、それが私が持っている質問に答えるとは感じません。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.