量子コンピューティング

量子コンピューティングに関心のあるエンジニア、科学者、プログラマー、およびコンピューティングプロフェッショナル向けのQ&A

3
量子機械学習のための入門資料
過去数日間、私は夏のプロジェクトのために、量子機械学習とその応用に関連する資料(主に研究論文)を収集しようとしてきました。(表面的な読書から)私が面白いと思ったいくつかをここに示します: ハイブリッド量子コンピューターでの教師なし機械学習(JS Otterbach et al。、2017) 教師ありおよび教師なし機械学習のための量子アルゴリズム(Lloyd、Mohseni&Rebentrost、2013) 波の状態を予測する機械学習フレームワーク(James、Zhang&O'Donncha 2017) 量子ニューロン:量子コンピューターでの機械学習のための基本的な構成要素(Cao、Guerreschi、Aspuru-Guzik、2017) 量子異常検出のための量子機械学習(Liu&Rebentrost、2017) しかし、物理学のより広いスペクトルの端から来て、私はこの分野の背景知識があまりなく、ほとんどの特殊な材料が突き通せないことを発見しています。チリベルト等 の論文:量子機械学習:古典的な視点は、基本的な概念のいくつかを理解するのにいくらか役立ちました。私は似ているが、より精巧な入門資料を探しています。量子機械学習の分野への入門書として役立つ教科書やビデオ講義などをお勧めできれば非常に役立ちます。 たとえば、ニールセンとチュアンの教科書は、一般的な量子コンピューティングと量子アルゴリズムの優れた入門書であり、入門資料の観点からかなり進んでいます(ただし、非常に基本的なレベルから始まり、量子力学と線形代数のすべての必要な部分をカバーしています)計算の複雑さの基礎さえ!)。量子機械学習に似たものはありますか? PS:量子機械学習は広大な分野であることを実感しています。混乱がある場合は、古典的な機械学習アルゴリズムの量子アナログの詳細をカバーする教科書/入門書/講義を主に探していることを指摘したいと思います。

1
量子アニーリングとは正確には何ですか?
多くの人々は、量子技術の応用としての量子アニーリングの主題に興味を持っています。これは、特に主題に関するD-WAVEの仕事のためです。量子アニーリング上のWikipediaの記事があれば1を実行する「アニーリング」ゆっくりと十分に、1を実現(の具体的なフォーム)断熱量子計算することを意味します。量子アニーリングは、断熱レジームで進化を行うことを前提としないように見えるという点で、主に異なるようです。それは、非断熱遷移の可能性を考慮しています。 それでも、量子アニーリングでは、単に「断熱計算を急いで行う」というよりも、直感的なものがあるようです。横磁場からなる初期ハミルトニアンを特に選択し、これは特にエネルギー景観におけるトンネリング効果を可能にすることを意図しているように思われます(標準的な基準で説明されているように、人は推測します)。これは、古典的なシミュレーテッドアニーリングの温度に類似している(おそらく正式に一般化されているのでしょうか?)と言われています。これは、量子アニーリングが、特に初期横磁場、ハミルトニアン間の線形補間などの特徴を前提とするかどうかという問題を提起します。また、これらの条件を修正して、従来のアニーリングと正確に比較できるかどうか。 量子アニーリングの構成について多かれ少なかれ正式な概念があり、何かを指し示して「これは量子アニーリングです」または「これは正確に量子アニーリングではありません。いくつかの重要な機能] "? あるいは、量子アニーリングは、いくつかの標準的なフレームワークを参照して説明できますか?Physなどの元の論文の1つを参照してください。Rev. E 58(5355)、1998 [ ここから無料で入手できるPDF ] —量子アニーリングの例としても受け入れられているいくつかの典型的なバリエーションと一緒に? 量子アニーリングが古典的なシミュレーテッドアニーリングを適切に一般化すると言うことができるほど十分に正確な説明は少なくともありますか?古典的なシミュレーテッドアニーリング手順を効率的にシミュレートできるか、ノイズのない量子アニーリング手順で証明できることを証明できます(ユニタリ回路がランダム化アルゴリズムをシミュレートできるように)?

2
量子アニーリングをゲートモデルで説明できないのはなぜですか?
これは、量子アニーリングが計算のための通常の回路モデルとはまったく異なるモデルであることに注意するこの質問に基づいて私が質問するように促された質問です。私は以前にこれを聞いたことがあり、ゲートモデルが量子アニールに適用されないことは私の理解ですが、それがなぜであるか、またはアニーラーが行うことができる計算を解析する方法をまったく理解していません。いくつかの講演から理解しているように(D-wave自体によるものもあります!)、アニーラーが特定のハミルトニアンに限定されているという事実がそれに含まれています。

3
1つのキュービットの測定は他のキュービットにどのように影響しますか?
量子コンピューターの状態を表すために、すべてのキュービットが1つの状態ベクトルに寄与します(これは、量子コンピューティングと古典コンピューティングの大きな違いの1つです)。私の理解では、複数のキュービットのシステムから1つのキュービットのみを測定することが可能であるということです。1つのキュービットを測定すると、システム全体にどのように影響しますか(具体的には、状態ベクトルにどのように影響しますか)?

2
「表面コード」とは何ですか?(量子誤差補正)
量子コンピューティングと情報を勉強しています。「Surface Code」というフレーズに触れましたが、それが何であり、どのように機能するかについての簡単な説明が見つかりません。うまくいけば、皆さんがこれで私を助けることができます。 注:複雑な数学を使用できる場合は、ある程度量子力学に精通しています。

6
量子の高速化が量子力学の波のような性質によるものである場合、なぜ通常の波を使用しないのですか?
量子コンピューティングが従来のコンピューティングよりも優れている理由について私が持っている直感は、波動関数の波のような性質により、単一の操作で情報の複数の状態に干渉することができ、理論的には指数関数的な高速化が可能になるということです。 しかし、本当に複雑な状態の建設的な干渉である場合、古典的な波でこの干渉を実行しないのはなぜですか? そしてその点で、性能指数が単純に計算できるステップ数である場合、目的の計算が組み込まれた複雑な動的システムから始めてみませんか。(つまり、特定の問題に対して「アナログシミュレータ」を作成しないのはなぜですか?)

3
エンタングルメントは推移的ですか?
エンタングルメントは、数学的な意味で推移的ですか? より具体的には、私の質問はこれです: 3つのキュービットq1,q2q1,q2q_1, q_2、考えq3q3q_3ます。と仮定する と q 2が絡まっていて、q1q1q_1q2q2q_2 と q 3が絡み合っているq2q2q_2q3q3q_3 その後、あるとQ 3がもつれq1q1q_1q3q3q_3?もしそうなら、なぜですか?そうでない場合、具体的な反例はありますか? 私のもつれの概念について: 量子ビット及びQ 2は、アウトトレースした後ならば、絡み合っQ 3、qbitsのQ 1及びQ 2は、(アウトトレース絡み合っているQ 3つの測定に相当するQ 3と結果を廃棄します)。q1q1q_1q2q2q_2q3q3q_3q1q1q_1q2q2q_2q3q3q_3q3q3q_3 量子ビット及びQ 3は、アウトトレースした後ならば、交絡され、Q 1、qbitsのQ 2及びQ 3が絡み合っています。q2q2q_2q3q3q_3q1q1q_1q2q2q_2q3q3q_3 量子ビットとQ 3はアウトトレースした後ならば、交絡され、Q 2、qbitsのQ 1及びQ 3が絡み合っています。q1q1q_1q3q3q_3q2q2q_2q1q1q_1q3q3q_3 あなたがその概念を明確に述べている限り、絡み合いの他の合理的な概念(必ずしも上記のものではない)を自由に使用してください。

5
エラー修正は必要ですか?
なぜエラー修正が必要なのですか?私の理解では、エラー修正はノイズからエラーを除去しますが、ノイズは平均化されるはずです。私が尋ねていることを明確にするために、なぜエラー修正を伴うのではなく、単に操作を100回実行し、平均/最も一般的な答えを選ぶことができないのですか?

4
現在、量子コンピューティングでオンラインで利用できる最高の構造化コースは何ですか?
機械学習に進出するにつれて、このトピックに関するCourseraやedXなどを介してオンラインで利用できる立派なコースがたくさんあるようです。言うまでもなく、量子コンピューティングはまだ初期段階にあるため、信じられないほど手ごわいので、理解しやすい入門コースを用意することが重要です。 私はこれらのコースを見つけることができました: 量子情報科学I、パート1 量子光学1:単一光子 ただし、2番目のコースがどの程度関連しているかはわかりません。 明らかに、トピックが着実に主流になっているので、この質問は近い将来に回答を受け取ることから恩恵を受けるかもしれません。

1
連続的な値で「確率的、普遍的、フォールトトレラントな量子計算」は可能ですか?
「いわゆる、以下によって光学的手段を用いて「ユニバーサル、フォールトトレラント」量子計算を行うことが可能であることを科学界内で広く支持されているという信念であるように思わ計算光量子(LOQC)リニア KLM(Knill、によって開拓します」 Laflamme、ミルバーン)。ただし、LOQCは、0個または1個の光子を含む光モードのみを使用し、それ以上は使用しません。 光の連続モードには、定義上、1つ以上の光子が含まれます。連続変数における確率的フォールトトレラントな普遍的な量子計算とサンプリングの問題に関する論文Douce et al。(2018)[quant-ph arXiv:1806.06618v1]は、スクイーズド光の連続モードを使用して「確率的普遍的フォールトトレラント」量子計算も実行できると主張しています。この論文はさらに進んでおり、連続モードを使用して量子優位性を実証することが可能であると主張しています。実際、この論文の要約には次のように書かれています。 さらに、このモデルは、多項式階層が崩壊しない限り、従来のコンピューターでは効率的にシミュレートできないサンプリング問題をもたらすように適応できることを示します。 Xanaduと呼ばれる量子コンピューティングのスタートアップは、セス・ロイドといくつかの論文を書いているため、ある程度信頼性があり、最終的に彼らも光の連続モードで量子計算を行い、古典的なコンピューターよりも優れたタスクを実行できると主張しているようです。 それでも、彼らがしていることは、アナログコンピューティングのようです(アナログコンピューティングではフォールトトレラントなエラー修正が可能ですか?)。また、それらは、スクイーズおよび変位操作を使用します。そのような操作はエネルギーを節約しません(モードを圧迫または変位するとそのエネルギーが変化する可能性があります)ので、そのような操作は外部環境との巨視的な量(量子化された量ではない)の交換を必要とするようです。 qc。さらに、限られた小さな値については、実験室でしかスクイージングが達成されておらず、普遍性を主張するには、リソースとして任意の大きなスクイージングが必要になる場合があります。 だから、私の質問は、これらの人々は楽観的すぎるのか、そうでないのか?連続モードの光を使用して、ラボでどのようなコンピューティングを現実的に行うことができますか?



3
どの量子エラー訂正コードが最も高いしきい値を持っていますか(これを書いている時点で証明されています)?
現在、フォールトトレランスの最高しきい値に関してレコードを保持している量子エラー訂正コードはどれですか?サーフェスコードはかなり良い(?)ことは知っていますが、正確な数値を見つけるのは困難です。また、表面コードの3Dクラスターへの一般化についても読みました(トポロジー量子エラー訂正)。この研究の主な動機は、任意の長さの計算のしきい値を上げることだったと思います。≈10−2≈10−2\approx10^{-2} 私の質問は、どの量子エラー訂正コードが最も高いしきい値を持っているかです(これを書いている時点で証明されています)。 この値を判断するためには、どのしきい値が理論的に達成可能かを知っておくといいでしょう。そのため、任意の量子エラー訂正コードのしきい値の(非自明ではない)上限を知っていると便利です。

3
ショーのアルゴリズムでどの整数が因数分解されましたか?
Shorのアルゴリズムにより、現代の古典的なコンピューターで実行可能な整数よりもはるかに大きい整数を因数分解できるようになると期待されています。 現在、より小さい整数のみが因数分解されています。たとえば、このペーパーでは因数分解について説明します。15 = 5 × 315=5×315=5{\times}3 この意味で、最先端の研究とは何ですか?いくつかの大きな数字が因数分解されたと言っている最近の論文はありますか?

3
超伝導量子コンピューターがそうであるのに、なぜ光量子コンピューターは絶対零度近くに保たれる必要がないのですか?
これは、@ heatherの質問に対する回答のフォローアップの質問です。なぜ量子コンピューターを絶対ゼロに近づけなければならないのですか? 私が知っていること: 超伝導量子コンピューティング:超伝導電子回路における量子コンピューターの実装です。 光量子コンピューティング:情報キャリアとして光子を使用し、量子情報を処理するために線形光学素子を使用し、量子情報を検出および保存するために光子検出器と量子メモリを使用します。 次に、これがウィキペディアが超伝導量子コンピューティングについて続けていることです。 古典的な計算モデルは、古典的な力学の法則と一致する物理的な実装に依存しています。しかし、古典的な記述は特定の場合にのみ正確であり、自然のより一般的な記述は量子力学によって与えられることが知られています。量子計算では、古典的な近似の範囲を超える量子現象の情報処理および通信への応用を研究しています。量子計算のさまざまなモデルが存在しますが、最も一般的なモデルにはキュービットと量子ゲートの概念が組み込まれています。量子ビットはビットの一般化であり、2つの可能な状態を持つシステムであり、両方の状態の量子重ね合わせになります。量子ゲートは、論理ゲートの一般化です:それは、初期状態が与えられると、ゲートが適用された後に1つ以上のキュービットが経験する変換を記述します。量子現象が日常生活で観察するのが難しいのと同じ理由で、量子ビットとゲートの物理的な実装は困難です。1つのアプローチは、超伝導体に量子コンピューターを実装することです。超伝導体では、動作温度が非常に低くなりますが、量子効果が巨視的になります。 これは理にかなっています!しかし、超伝導量子コンピューターとは異なり、なぜ光量子コンピューターが「極低温」を必要としないのかを探していました。彼らは同じ問題に苦しんでいませんか?すなわち、光量子コンピューターの量子現象は、超伝導量子コンピューターのように観察するのが難しいのではないでしょうか?そのようなコンピューターでは、室温で量子効果はすでに巨視的ですか?なぜそうなのか? Wikipediaで線形光量子コンピューティングの説明を行っていましたが、「温度」への言及は見つかりませんでした。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.