エクストリームラーニングマシン(ELM)パラダイムについて1年以上考え、実装し、使用してきましたが、長くすればするほど、それが本当に良いことだとは思わなくなります。しかし、私の意見は、引用や新しい出版物を尺度として使用する場合、ホットなトピックのように見える科学コミュニティとは対照的であるようです。
ELMはHuang et。等 基本的な考え方はかなり単純です。2層の人工ニューラルネットワークから始めて、最初の層の係数をランダムに割り当てます。これは、通常、バックプロパゲーションによって処理される非線形最適化問題を単純な線形回帰問題に変換します。詳細は、場合、モデルは
現在、はすべてランダムに選択されていますが、のみが調整されます(二乗誤差損失を最小化するため)。自由度の損失に対する補償として、通常は、かなり多くの隠れノード(つまり、自由パラメーター)を使用することをお勧めします。
別の観点(ニューラルネットワーク側から来た文献で通常宣伝されているものではありません)から見ると、手順全体は単なる線形回帰ですが、基底関数ランダムに選択する場合などは、
(シグモイド以外の多くの選択肢がランダム関数に使用できます。たとえば、動径基底関数を使用しても同じ原理が適用されます。)
この観点からすると、方法全体がほとんど単純化しすぎており、これは、この方法が本当に良い方法であると疑い始める点でもあります(...科学的マーケティングは確かですが)。だから、ここに私の質問があります:
私の意見では、ランダム基底関数を使用して入力空間をラスタ化するという考え方は、低次元に適しています。高次元では、合理的な数の基底関数を持つランダム選択を使用して適切な選択を見つけることは不可能だと思います。したがって、ELMは高次元で低下しますか(次元の呪いのため)?
この意見を支持/矛盾する実験結果をご存知ですか?リンクされた論文には、メソッドがSVMと同様に実行される27次元回帰データセット(PYRIM)が1つしかありません(一方、逆伝播ANNとの比較を確認したいのですが)
より一般的には、ここでELMメソッドに関するコメントをしたいと思います。