量子ニューラルネットワークのトレーニング風景における不毛の高原


9

ここで著者らは、パラメータ化されたゲートのセットを使用してスケーラブルな量子ニューラルネットワークを作成する取り組みは、多数のキュービットでは失敗すると見なされると主張します。これは、Levyの補題により、高次元空間での関数の勾配がどこでもほぼゼロであるという事実によるものです。

この議論がVQE(可変量子固有値ソルバー)やQAOA(量子近似最適化アルゴリズム)などの他のハイブリッド量子古典最適化手法にも適用できるかどうか疑問に思っていました。

どう思いますか?


「パラメータ化されたゲートのセットを使用する」どのようなセットですか?たまたまランダムですか?
rrtucci 2018年

この記事は、VQEのパイオニアでもあるJarrod McCleanによって書かれました。ジャロッドは、VQEがより多くのキュービットで失敗すると見なされているとは信じていないと思います。Levyの補題についてのあなたの説明は、論文が示唆するものとは少し異なると思います。あなたは「高次元空間における関数の勾配はどこでもほぼゼロである」と言いますが、この論文は、これが論文で説明されているQNNの特定のコンテキストの場合に当てはまると述べています。
user1271772

私の最後のコメントを少し詳しく述べると、どこでも非常に急速に変化する高次元関数を構築するだけで、どこでも「ほぼゼロ」の勾配がなくなります。この論文のLevyの補題に基づく結論は、高次元空間での「任意の」関数ではなく、最適化されている特定の関数に関するものです。
user1271772

1
@asdf:1日のほとんどを紙を前後に見て過ごした後、私はようやくあなたのための答えを思いつきました。見てください。
user1271772

回答:


4

最初:論文はLevy's Lemma について[ 37 ]を参照していますが、[37]には「Levy's Lemma」についての記述はありません。これは「Levy's Inequality」と呼ばれ、この記事ではLevy's Lemmaと呼ばれています。これは、あなたが言及している論文で引用されていません

|Ψ(p)

Ep=Ψ(p)|H|Ψ(p)Ψ(p)|Ψ(p).

p

p1010p1012ここで、パラメーターはSlater行列式の係数です。一般に、1兆以上のパラメーターがある場合でも、エネルギーランドスケープはそれほど平坦ではない(勾配がほぼどこでも0である場合のように)ことが知られています。

H|Ψ(p)H|Ψ

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.