回答:
遺伝的アルゴリズム(GA)を使用したニューラルネットワーク(NN)のトレーニングは実行可能であるだけでなく、頻繁に使用するのに十分なパフォーマンスが得られるニッチ領域もあります。これの良い例は、トポロジーの増強またはNEATです。これは、ゲームなどの単純な環境でコントローラーを生成するための成功したアプローチです。
しかし、より一般的なケースでは、このアプローチは、調整する多くのパラメーターを持つ大規模で深いネットワークにうまく拡張できません。
遺伝的アルゴリズムおよびその他の最適なパラメーターのグローバル検索は、勾配ベースのアルゴリズムでは不可能な方法で堅牢です。たとえば、ステップ関数のアクティベーション、または他の微分不可能なアクティベーション関数でNNをトレーニングできます。他にも弱点があります。NNに使用されるGAの場合に関連することの1つは、重みパラメーターは一部の組み合わせで互換性がありますが、他の組み合わせでは大きく依存していることです。2つの同等に優れたニューラルネットワークを異なるパラメーターにマージすると(GAのクロスオーバーで実行します)、通常、パフォーマンスの低い3番目のネットワークが作成されます。NEATの成功は、NNの接続を「成長」させ、類似のニューラルネットワーク間でそれらを一致させることにより、その問題に対処する方法を見つけることに部分的にあります。
勾配ベースのアプローチは、はるかに効率的です。一般に、NNのドメインだけでなく、パラメーターに関する関数の勾配を計算できる場合、他のほとんどの最適化手法よりも速く最適なパラメーターを見つけることができます。正確な勾配は、単一の評価から少なくともわずかな改善を保証し、他のほとんどのオプティマイザーは、そのような保証を行うことができない生成と再試行のパラダイムに入ります。局所的な最適値を見つける傾向の弱さは、NNの損失関数の大きな障害ではないことが判明しており、運動量、RPROP、アダムなどの基本的な勾配降下の拡張を使用してある程度の成功を収めています。
実際には、大規模な多層ネットワークでの勾配法は、ネットワークパラメータを見つけるためのNEATなどのGA検索よりも桁違いに高速です。ImageNetを解決するGAトレーニングを受けたCNNや、GAがネットワークの重みを必要としないMNISTを見つけることはできません。ただし、GA、またはそれらの少なくともいくつかのバリアントは、100%除外されていません。たとえば、この2017年のブログでは、GAを使用して機械学習で重要なタスクであり、勾配ベースの方法では扱いにくいNN ハイパーパラメーターを発見することを検討しているImage ClassifiersのLarge-Scale Evolutionを含む最近の論文をレビューしています。