回答:
勾配降下法は、仮説の最適なパラメーターを見つけるか、コスト関数を最小化する方法です。
学習率が高い場合、最小値をオーバーシュートし、コスト関数を最小化できない可能性があります。
したがって、損失が大きくなります。
勾配降下法では局所最小値しか検出できないため、学習率が低いとパフォーマンスが低下する可能性があります。これを行うには、ハイパーパラメータのランダムな値から開始してモデルのトレーニング時間を増やすことができますが、適応勾配降下法などの高度な方法でトレーニング時間を管理できます。
同じタスクに最適化プログラムはたくさんありますが、最適化プログラムは完璧ではありません。それはいくつかの要因に依存します
PS。勾配降下法の異なるラウンドに行くのが常に良いです