タグ付けされた質問 「neural-network」

4
深層学習ニューラルネットワークは量子コンピューターで実行されますか?
ディープラーニング(教師ありおよび教師なしの機械学習タスクで使用される人工ニューラルネットワークの複数層)は、画像認識、ビデオ認識、音声認識など、最も難しい機械学習タスクの多くにとって非常に強力なツールです。最も強力な機械学習アルゴリズムの1つであり、クアンタムコンピューティングは一般に特定の非常に難しい計算タスクのゲームチェンジャーと見なされています。 深層学習アルゴリズムを量子コンピューターで実行できますか? 試すのは理にかなっていますか? 深層学習を無関係にする他の量子アルゴリズムはありますか?

1
量子アルゴリズムを使用して重み行列の生成を高速化することは可能ですか?
で、この[1]紙、2ページ、それらは次のようにそれらは重み行列を生成していることを言及します。 W= 1Md[ ∑メートル= 1m = Mバツ(m )( x(m))T] −私ddW=1Md[∑m=1m=Mx(m)(x(m))T]−IddW = \frac{1}{Md}[\sum_{m=1}^{m=M} \mathbf{x}^{(m)}\left(\mathbf{x}^{(m)}\right)^{T}] - \frac{\Bbb I_d}{d} ここで、は次元のトレーニングサンプルです(つまり、 where)にあり、合計トレーニングサンプルがあります。行列の乗算とそれに続く項の合計を使用したこの重み付け行列の生成は、時間の複雑さの点でコストのかかる操作のようです。つまり、(?)を推測します。 D X:={ X 1は、 xは2、。。。、 X D } T xはIを ∈{1、-1}∀I∈{1、2、。。。、d}MMO(Md)バツ(m )x(m)\mathbf{x}^{(m)}dddバツ:= { x1、x2、。。。、xd}Tx:={x1,x2,...,xd}T\mathbf{x} := \{x_1,x_2,...,x_d\}^{T}バツ私∈ { 1 、- 1 } ∀ I ∈ { 1 、2 、。。。、d }xi∈{1,−1} ∀ i∈{1,2,...,d}x_i \in …

1
量子ニューラルネットワークのトレーニング風景における不毛の高原
ここで著者らは、パラメータ化されたゲートのセットを使用してスケーラブルな量子ニューラルネットワークを作成する取り組みは、多数のキュービットでは失敗すると見なされると主張します。これは、Levyの補題により、高次元空間での関数の勾配がどこでもほぼゼロであるという事実によるものです。 この議論がVQE(可変量子固有値ソルバー)やQAOA(量子近似最適化アルゴリズム)などの他のハイブリッド量子古典最適化手法にも適用できるかどうか疑問に思っていました。 どう思いますか?

1
線形連立方程式(HHL09)の量子アルゴリズム:ステップ1-必要なキュビットの数
これは、方程式の線形システム(HHL09)の量子アルゴリズムの続きです:ステップ1-位相推定アルゴリズムの使用に関する混乱 質問(続き): パート2:HHL09のステップ1に必要なキュービットの数が正確にわかりません。 ニールセンとチュアン(セクション5.2.1、10周年記念版)では、次のように述べています。 したがって、少なくとも成功確率でビットに正確なを正常に取得するには、φφ\varphi1 − ϵnnn1−ϵ1−ϵ1-\epsilon t=n+⌈log(2+12ϵ)⌉t=n+⌈log⁡(2+12ϵ)⌉t=n+\lceil { \log(2+\frac{1}{2\epsilon})\rceil} したがって、精度、つまりおよびまたはのビットの精度が必要だとしましょう。必要1 − ϵ = 0.990%90%90\%3 λ jは T1−ϵ=0.9⟹ϵ=0.11−ϵ=0.9⟹ϵ=0.11-\epsilon = 0.9 \implies \epsilon = 0.1333 λjをλjt2πλjt2π\frac{\lambda_j t}{2\pi}λjλj\lambda_j t=3+⌈log2(2+12(0.1))⌉=3+3=6t=3+⌈log2⁡(2+12(0.1))⌉=3+3=6t = 3 + \lceil { \log_2(2+\frac{1}{2 (0.1)})\rceil} = 3 + 3 = 6 それとは別に、は、次元行列の線形独立した固有ベクトルの合計として表すことができるため、最小のキュービットが少なくとも次元のベクトル空間。したがって、2番目のレジスタには必要です。|b⟩|b⟩|b\rangleNNNN×NN×NN\times NAAA⌈log2(N)⌉⌈log2⁡(N)⌉\lceil{\log_2(N)\rceil}NNN⌈log2(N)⌉⌈log2⁡(N)⌉\lceil{\log_2(N)\rceil} さて、最初だけでなく、私たちの登録のための量子ビットが十分ではない表現するには固有値を私たちはそれぞれを表すために多くのビットを必要とするだろうからです、正確にビットまでです。⌈log2(N)⌉⌈log2⁡(N)⌉\lceil{\log_2(N)\rceil}NNN|λj⟩|λj⟩|\lambda_j\rangle|λj⟩|λj⟩|\lambda_j\ranglennn この場合も、式を再度使用する必要があると思い。各固有値をビットの精度とで表す場合n+⌈log(2+12ϵ)⌉n+⌈log⁡(2+12ϵ)⌉n+\lceil { \log(2+\frac{1}{2\epsilon})\rceil}|λi⟩|λi⟩|\lambda_i\rangle33390%90%90\%精度、我々は必要と思い最初のレジスタのために。さらに、補助装置に必要なもう1つのキュービット。6×⌈log2(N)⌉6×⌈log2⁡(N)⌉6\times \lceil{\log_2(N)\rceil} そこで、我々は全体の必要があるののための量子ビットステップ1のHHL09アルゴリズム。結構多い!(6+1)⌈log2(N)⌉+1(6+1)⌈log2⁡(N)⌉+1(6+1)\lceil{\log_2(N)\rceil}+1 私たちが解決したいと言うというように、線形方程式システムAは、自身が必要になることエルミートである7を⌈ ログ2(2 …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.