ほとんどの問題にニューラルネットワークを使用しています。ポイントは、ほとんどの場合、モデルよりもユーザーのエクスペリエンスに関することです。ここに私がNNが好きな理由がいくつかあります。
- 彼らは柔軟です。ヒンジ損失、二乗、クロスエントロピーなど、私は彼らに望むあらゆる損失を投げることができます。微分可能である限り、私は自分のニーズにぴったり合う損失を設計することさえできます。
- それらは確率的に扱うことができます:ベイジアンニューラルネットワーク、変分ベイズ、MLE / MAP、すべてがそこにあります。(ただし、場合によってはより困難です。)
- 彼らは速いです。ほとんどのMLPは2つの行列乗算であり、その間に1つの非線形性が適用されるコンポーネントです。SVMでそれを打ち負かします。
他のポイントをステップごとに説明します。
強力な創立理論を持っている
その場合、NNも同様に強力です。確率的なフレームワークでトレーニングするためです。これにより、事前分布とベイジアン処理(たとえば、変分法または近似)の使用が可能になります。
二次計画法によるグローバル最適化に到達
ハイパーパラメーターの1つのセット。ただし、優れたhpの検索は非凸であり、グローバルな最適値を見つけたかどうかもわかりません。
適切な数のパラメーターを選択しても問題ありません
SVMでは、ハイパーパラメータも選択する必要があります。
予測モデルを保存するために必要なメモリが少ない
サポートベクターを保存する必要があります。SVMは一般にMLPを保存するのに安くはありません。それは場合によって異なります。
より読みやすい結果と幾何学的解釈をもたらす
MLPの最上層は、分類の場合のロジスティック回帰です。したがって、幾何学的解釈(ハイパープレーンの分離)と確率的解釈もあります。