深層学習における局所最小点とvs点


18

Andrew Ng(残念ながらもう見つけられないビデオで)が、深層学習問題における局所的最小値の理解が、高次元の空間(ディープラーニング)クリティカルポイントは、ローカルミニマムではなくサドルポイントまたはプラトーになりやすい。

「すべてのローカルミニマムがグローバルミニマムである」という仮定を議論する論文(たとえば、これ)を見てきました。これらの仮定はすべてかなり技術的ですが、私が理解していることから、それらはニューラルネットワークに構造を課し、それをある程度線形にする傾向があります。

ディープラーニング(非線形アーキテクチャを含む)では、プラトーはローカルミニマムよりも可能性が高いという有効な主張ですか?もしそうなら、その背後に(おそらく数学的な)直感がありますか?

ディープラーニングとサドルポイントに特別なことはありますか?


12
サドルポイントがローカルミニマムよりも高い理由の数学的直観については、機能の観点から考えます。極小になるためには、あらゆる方向で極小でなければなりません。対照的に、サドルポイントの場合、1つの方向のみが他と異なる必要があります。すべての方向の同じ動作と比較して、1つ以上が他とは異なる動作をする可能性がはるかに高くなります。
ポール

3
おかげで、今あなたがそれを言うこと、それは一種明白なのだ... ここでは、トピックのいくつかの興味深い議論がある
oW_

4
Andrew NgのCourseraコースの2週目の「ローカルミニマムの問題」に関するビデオ「ディープニューラルネットワークの改善:ハイパーパラメーターチューニング、正則化、最適化」があります。たぶんそれはあなたが探しているものです。
mjul

見てみましょうここで
メディア

回答:


7

これは単に私の直感、つまり厳密さを伝えようとするものではありません。addle点があることは、それらが最小値と最大値の組み合わせを組み合わせた最適なタイプであるということです。深層学習では次元数が非常に多いため、最適値が最小値の組み合わせのみで構成される可能性は非常に低くなります。つまり、ローカルミニマムで「行き詰まる」ことはまれです。過度に単純化するリスクはありますが、「ディメンションの1つを下にスライド」できるため、サドルポイントで「スタック」するのが難しくなります。あなたが言及するAndrew Ngのビデオは、彼によるDeep LearningのCourseraコースから来ていると思います。


13

多変量計算に基づいて説明しましょう。多変量コースを受講している場合、臨界点(勾配がゼロである点)が与えられると、この臨界点が最小になる条件は、ヘッセ行列が正定値であるということです。ヘッセ行列は対称行列であるため、対角化できます。ヘッセ行列に対応する対角行列を次のように書くと: ヘッセ行列が正定であることは、d1>0dn>と同等です。

D=[d1dn]
です。d1>0,,dn>0

d1,,dndi1/2didj、ヘッセ行列の非線形性が高いため、独立したイベントとして正である確率を採用します。

P(d1>0,,dn>0)=P(d1>0)P(dn>0)=12n

1081/2n

しかし、maximaはどうでしょうか?

1/2n

P(saddle)=1P(maximum)P(minimum)=112n12n=112n1

n

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.