最適化は私の分野ではありませんが、私の知る限り、最近の効率的で効果的なハイパーパラメーター最適化は、代理モデルの構築に大きく関係しています。モデルの複雑さが増すにつれて、モデルはより不透明なブラックボックスになります。これは、ディープニューラルネットおよびおそらく複雑なツリーの場合にも当てはまります。サロゲートモデルは、ブラックボックス内の基礎となる空間を後退させようとします。さまざまなサンプリング手法に基づいて、ハイパーパラメータ空間を調査し、真の基礎となるハイパーパラメータ空間を表す関数を構築しようとします。
ベイジアン最適化は代理モデルに焦点を当てており、このモデルの構築方法はBOにとって重要です。また、BOにとって重要なのは、優れた損失関数を選択することです。
ランダム検索とベイジアン検索のパフォーマンスは、データセットごと、モデルごとに異なると思います。Bergstra&Bengio(2012)は、グリッド検索よりもランダム検索を強く主張しました。Shahriari et al。(2016)BOを強く主張する。モデルベースのハイパーバンド戦略は、特に高次元の場合、BOよりもパフォーマンスが向上する可能性がありますが、これは純粋に探索であり、悪用ではありません。これにより、停止が早すぎる可能性があります。ただし、ハイパーバンドとBOを組み合わせる取り組みが行われています。
実装されていないものがかなりあるにもかかわらず、scikit-optimizeは成功しました。プロトタイプを簡単に作成でき、scikit-learnと簡単にインターフェースできます。
Bergstra、J.&Bengio、Y.(2012)。ハイパーパラメータ最適化のためのランダム検索。Journal of Machine Learning Research、13(2月)、281-305。
Shahriari、B.、Swersky、K.、Wang、Z.、Adams、RP、およびDe Freitas、N。(2016)。ループから人間を取り除く:ベイジアン最適化のレビュー。IEEEの議事録、104(1)、148-175。