量子工学の複雑さがサイズに応じてどのように拡大するかについての見積もりはありますか?


12

量子コンピューティングの展望に非常に関連する質問は、量子システムの工学的複雑性がサイズに応じてどのように拡大するかということだと思います。つまり、1台のn -qubitコンピューターよりも1 -qubitコンピューターを構築する方が簡単です。私の考えでは、これは1よりもn 1体の問題を分析的に解決する方が簡単であるという事実にほぼ類似しています。n 1nn 1量子もつれが第一に量子コンピューティングの背後にある主要な動機付け要因であるため、 n体問題ます。n

私の質問は以下の通りである:私たちが本当に構築し、制御の「難しさ」かを気にすべきであると思われる -body量子システムが成長すると、N。ゲートアーキテクチャ、さらにはアルゴリズムを修正します。nキュービットコンピューター量子多体問題であるという事実から、原則的に困難が生じますか?数学的に言えば、量子現象がどのように古典現象に拡大するかについての私たちの理解は非常に貧弱ですか?ここで、難易度はさまざまな方法で定義できますが、おおよそ気になる質問は、1000キュービットのマシンを制御することです(つまり、その波動関数のコヒーレンスを維持する)10キュービットのマシン、またはnnn1000のx難しくAを制御するよりも10010または 100 または 100 100?それは多かれ少なかれ前者であり後者ではないと信じる理由はありますか?1002100!100100


ハは、私とは、につながることになっていたかわからない...
キース・ラッシュ

こんにちは、@ KeithRushは、最初の文にも何か欠落していませんか?ところで大きな質問。
MEE-モニカの復帰

まったく重複していませんが、2つの質問に対する答えは深く結びついていると感じています。quantumcomputing.stackexchange.com/ questions / 1803 /
agaitaarino

回答:


8

これは私が10年以上考えてきた質問です。2008年、私は学生でしたが、量子計算の恩恵を受けることが知られている「計算の複雑さ」が知られている量子アルゴリズムを実行する「物理的な複雑さ」を研究したいと量子コンピューティングの教授に話しました。

たとえば、グローバー検索にはOn古典的なゲートとは対照的な量子ゲートですが、量子ゲートを制御するコストがn4である一方で、古典的なゲートの場合はnだけである場合はどうでしょうか?O(n)O(n)n4n

彼は即座に答えた:

「確かに、物理的な複雑さのアイデアは実装に依存します」

それは真実であることが判明しました。nを操作する「物理的複雑さ」nNMRでキュービットをは、超伝導キュービットの場合よりもはるかに悪いですが、いずれの場合もに関する物理的難易度の公式はありません。n

これらはあなたが取る必要があるステップです:

1.量子コンピューターの正確なデコヒーレンスモデルを考え出します。これは、たとえば、GaAs量子ドットのスピンキュービットと、ダイヤモンドNV中心のスピンキュービットでは異なります。
2.デコヒーレンスが存在する場合のキュービットのダイナミクスを正確に計算します。
3. vs nをプロットします。ここで、Fは、デコヒーレンスなしで得られる結果と比較したn個のデコヒーリングされたキュービットの忠実度です。4.これにより、エラー率を示すことができます(ただし、アルゴリズムごとに忠実度の要件が異なります)。5。FnFn

エラー修正コードを選択します。これにより、エラー率に対して、各論理キュービットに必要な物理キュービット数がわかります。6.これで、量子コンピューターを「設計」するコストを(必要な補助キュービットの数で)プロットできます。E

これで、質問をするためにここに来なければならなかった理由がわかります。答えはどの教科書にもありませんでした。

ステップ1は実装のタイプ(NMR、フォトニクス、SQUIDSなど)に依存します。
ステップ2は非常に困難です。デコヒーレンスのないダイナミクスは、64キュビットの物理近似なしでシミュレートされていますが、デコヒーレンスを伴う非マルコフ、非摂動ダイナミクスは現在16キュビットに制限されています。
ステップ4はアルゴリズムに依存します。そのため、特定のタイプの実装(NMR、フォトニクス、SQUIDなど)を使用して作業を行っても、物理的な複雑さの「ユニバーサルスケーリング」はありません。
ステップ5はエラー修正コードの選択に依存します

したがって、2つの質問に具体的に答えるには:

1000キュービットマシンの制御(つまり、その波動関数の一貫性の保持)は、10キュービットマシンの制御よりも倍、つまり100 2、または100 または 100 100100101002100!100100

それはステップ1での選択に依存し、誰も最後まで進むことができませんでした、特定のアルゴリズムであっても、量子ビット数に関する物理的な複雑さの正確な公式を得るために、まだステップ1からステップ3を実行することはできませんでした。したがって、これは未解決の問題であり、オープンな量子システムダイナミクスのシミュレーションの難しさによって制限されています。

それは多かれ少なかれ前者であり後者ではないと信じる理由はありますか?

最良の理由は、これがIBMの5キュービット、16キュービット、および50キュービットの量子コンピューターで遊んだときの経験だということです。エラー率は増加していませんまたはnは100。どのようにそれをするのにかかるエネルギー作る 5量子ビット、16量子ビットと50量子ビットの量子コンピュータを、そしてどのようにそれでスケールをn個?この「エンジニアリングの複雑さ」は、興味深い質問ではありますが、未解決の質問の実装にさらに依存しています(NMRとSQUIDを考えてください)。n!n100n


1
無限ダイナミクスに関する簡単な質問はどうですか?それぞれのためのものであることをと起動状態ρ上のC 2 Nは、その時点で評価力学によって決定ベクトル場を有します。フィッシャーメトリックテンソルフィールドでノルムを計算します。これは、ダイナミクスを有限時間流すことなく、非常に簡単な質問ですが、それでも限界があります。必要に応じて、nごとに、すべての開始状態ρの上限を取り、結果をnに対してプロットします。nρ(C2)nnρn
アフセイン

1
「無限ダイナミクス」とはどういう意味ですか?ベクトル場は、どの時点で評価されたダイナミクスによって決定されますか?何の基準を計算しますか(フィッシャーメトリックテンソルフィールドを使用)?ベクトル場のノルムを計算するつもりですか?それはおそらく良いアイデアのように見えますが、それがあなたが意味するものである場合、つまりt = 0で無限時間のデコヒーレンスを見るということである場合、それがメトリックとしてどれほど価値があるかわかりませんデコヒーレンス強度は、tに対する積分であるバス応答関数によって特徴付けられるため、デコヒーレンスが最大強度に達するまでの時間。
user1271772

1
ましょうのすべての状態によって定義されたリーマン多様体であるN個のフィッシャー計量テンソルを備えキュビット。常微分方程式は、M n上のベクトル場を定義します。どのような状態の場合はρあなたは内の要素を参照することができますT ρ Mをn個。関数r ρ を得るために、そこからデコヒーレンスの割合を計算します(Mn,g)nMnρTρMnr(ρ)。可能性のあるすべての状態で最高値が必要な場合は、勾配を上げてください。これにより、ダイナミクスを定義するベクトル場が与えられると、デコヒーレンス率の非常に粗い境界が得られます。これは、レート制限のため、より長い時間でもデコヒーレンスを制限するために使用できます。
アフサイン

4

回路の複雑さ

最初の問題は、量子システムを「制御する」ことの意味を本当に理解することだと思います。このため、古典的なケースについて考え始めるのに役立つかもしれません。

どのように多くの異なるビット入力、1ビット出力の古典的な計算がありますか?2 nの可能な入力のそれぞれに対して、2つの異なる可能な出力があります。したがって、制御可能性の観点から言っているのが「可能な機能のいずれかをビルドする」場合、ビルドするように求められる可能性のある2 2 nの異なる機能があります。次に、「2 n / n以下の 2ビットゲートを使用して、これらの関数のどの部分を作成できるか」と尋ねることができます。(おそらくこれをkに一般化できますn2n222n2n/nk-2つの回路サイズ間の相対的な複雑さの引数を取得するためのビットゲート)。この数値に適切な範囲を得るために実行できる詳細な計算があり、それが小さいことを示しています。これはシャノンの定理と呼ばれるものですが(そうではないのですか?)、少なくとも直感的な説明があります。実行する可能性のある計算を指定するには、ビットのビット文字列が必要です。保存する「スペース」がないため、この情報は非圧縮でなければなりません。しかし、より短い回路を使用してこれらの機能をすべて作成できる場合、その回路を記述することがデータを圧縮する方法になります。2n

nϵO(n2)、その後、1000キュービットマシンを適切に制御することは、10キュービットマシンを制御するよりも10000倍難しくなります。つまり、デコヒーレンスから保護する必要があるという意味で、はるかに長く、より多くのゲートを実装するなどです。

デコヒーレンス

コメントのフォローアップ、

特定のアルゴリズムまたは特定の種類の回路を考えてみましょう。私の質問は言い換えることができます-理論的または実用的な兆候はありますか?、これらの回路の数をスケーリングする際に、デコヒーレンス防止スケーリングか?

これは2つの体制に分かれています。小規模な量子デバイスの場合、エラー修正の前に、私たちは NISQ体制この答えは、おそらくその体制に最も関連しています。ただし、デバイスが大きくなると、収益は減少します。量子ビットをさらに追加するだけでエンジニアリングタスクを達成することはますます難しくなります。

pp、あなたがそのようないずれかの結果は、(複数の物理的な量子ビットで構成)、いくつかの論理的な量子ビットを定義することができます計算または任意の長さを任意の精度で実現できます。物理的なハードウェアが何であれ、NISQレジームを終了するまでに、デコヒーレンスを可能な限り排除するために多くの作業を行い、をはるかに下回っていることを確認しました。pp1%O(logϵ)ϵOログϵスケール係数。特定の数値については、Andrew Steaneが実行した計算の種類に興味があるかもしれません。ここを参照してください(ただし、数値はおそらく少し改善される可能性があります)。

本当に魅力的なのは、ゲートエラーがエラー修正しきい値に近づくにつれて、これらの関係の係数がどのように変化するかを確認することです。適切な計算に手を置くことはできないようです(Andrew Steaneはある時点でそれを行ったと思います。おそらく、私が行った話だったかもしれません)。しきい値以下のまともなマージンで。

そうは言っても、これらの考慮事項が関連する前に、アーキテクチャについて行わなければならないいくつかの仮定があります。たとえば、十分な並列処理が必要です。コンピューターのさまざまな部分を同時に操作できる必要があります。一度に1つのことだけを行うと、エラーは常に急速に増加します。また、物事が悪化することなく、製造プロセスを拡大できるようにしたいと考えています。たとえば、これには超伝導キュビットが非常に適しているようです。その性能は主に、回路のさまざまな部分をどれだけ正確に作成できるかにかかっています。あなたはそれを正しいものにし、何度も「ただ」繰り返して多くのキュービットを作ることができます。


1
これは本質的に私が意図したものですが、アルゴリズムの複雑さを取り除き、エンジニアリングの複雑さに焦点を当てています-特にデコヒーレンスを防ぎます。特定のアルゴリズムまたは特定の種類の回路を考えてみましょう。私の質問を言い換えると、これらの回路の数をスケーリングする際に、デコヒーレンス防止する(エンジニアリング)問題がどのようにスケーリングするかについての理論的または実用的な兆候はありますか?
キー

@KeithRush OK!今、私はあなたが何を求めているのかを理解し始めます:本質的に、これはフォールトトレランスの計算の複雑さです-特定の数の高品質の論理キュービットを取得するための時間とスペースのオーバーヘッドは何ですか-そして人々が解決したものですかなり慎重に。明日、他の誰かが私に打ち負かさない限り、関連する情報を掘り下げてみます。
-DaftWullie

2

量子システムについて考える1つの方法は、エラー訂正を備えたキュービットと、エンコードされたアルゴリズムが組み込まれている、またはアルゴリズムをプログラムする一般的な場合でも、キュービットの忠実度を保証することです。だから、のシステムのためにm 量子ビット、適切なエラー修正を使用できます-量子トラップの特定のシステムに対して、それらがイオントラップ、超伝導、または他のスキームであるかどうか、そしてこれらすべてのパラメータが与えられたシステムの「忠実度」は n 量子ビット。

そのため、ある意味で、「忠実度」は、プロセッサがエラーを起こしやすい推定値を与えることができます。量子コンピューターを使用して、たとえば化学反応のダイナミクスなどの問題を計算すると、重ね合わせを使用して量子高速化(または最終的には「量子優位性」)を達成できます。 、エラーのない操作で役割を果たす可能性があります。「忠実度」は、1キュビットまたは200キュビットを使用するかどうかに関係なく、エラーの推定値を与える可能性があります。漏れエラーが発生する断熱的なケースでは、ハミルトニアンを「エンジニアリング」して、高忠実度のキュービットを与えることもできます。

実際には、効率的なエラー修正を容易にするために、99.5%+のエラー率が非常に望ましいことに注意してください。エラー率は、精度を高めるためにキュービット間の電子スピンを読み取るタイプのものである可能性があります。そのような場合、99.5%または99.8%(5または6シグマタイプの信頼度)のエラー率は、システムをスケーリングするときに、より少ないオーバーヘッド(エラー修正)を必要とします。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.