オースティンフラワーズにコメントを追加したかったのですが、50ポイントの評判が必要だと言っています。
したがって、本質的には、超伝導回路に十分に低い周波数が必要です(確立されたマイクロ波分光ツールを利用するには、4〜8 GHzがGoogleの選択です)。低周波数を得るには、高容量が必要です。高い静電容量を得るには、次のいずれかが必要です。
- 大型コンデンサ(Googleの中心から中心まで1 mm)、または
- メッシュの櫛のペアなどのエキゾチックなテクノロジーですが、これによりデコヒーレンスが増幅されます。
したがって、より小さなキュビットの作成は(いくつかの階層的な方法で)制限されます。
- より高い周波数領域(8 GHz以上)で動作する安価なツールの欠如
- 大きな静電容量を使用しないと十分に低い周波数に到達できない(これはインダクターの特性を調整することで軽減できるでしょうか?わかりません)
- コンデンサを大きくせずに大きな静電容量を得ることができない[または]ノイズを増加させずに小さなコンデンサで大きな静電容量を得ることができない。
簡単に言うと、デコヒーレンス/ノイズによって制限されるということですが、ノイズをあまり大きくせずにキュービットを小さくできるようにする設計を改善する方法は他にもあります。
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ ~~~~~~~~~~
オースティンファウラーの回答について最後に1つコメントがあります。これは、数百万のキュービットが数平方メートルに収まると元のクエシトンの有効性に疑問を投げかけるものです。それは興味深い点です。古典的なコンピューティングでは、RAMのギグとストレージスペースのギグがポケットに収まるように、またはテーブルのスペースを取らないように、それらをより小さくしたいと考え続けていますが、現在の量子コンピュータは、「スーパーコンピュータ」にすぎません。オースティン・ファウラーは正しく指摘しました。数平方メートルはスーパーコンピューターには悪くありません。
ただし、オースティンの一連のShorアルゴリズムペーパーが示唆しているように、実用的で価値のある現実世界の計算を実行するのに数百万キュービットで十分かどうかは明確ではありません数十億のキュビットが必要になります)。確かに、古典的なコンピューターでは、一般に100キュビットを簡単にシミュレートすることはできません(25キュビット、30キュビットと言った後、Haner&Steigerは500 TBのRAMで45キュビットを実行しましたが、Sergio Boixoは47キュビットを7x7アレイ、その後IBMと中国のグループは、古典的なスーパーコンピューターで60、70をシミュレートしたので、今のところ100キュービットとしましょう。完全に制御可能な100キュービットシステムのシミュレーションは、システム自体の物理学を研究するのに興味深いでしょう。
ほとんどの実際のHPC問題:気象モデリング、株式市場の予測、衛星データの画像処理、天体物理学などは、数千の論理キュービットを修正する数百万のキュービットの物理キュービットエラーでは解決されません。現実世界の問題で古典的なコンピューターよりも10億ビットを超えるパフォーマンスが必要な場合(さらに必要になる可能性があると思います)、平方メートルは1000平方メートル(0.1ヘクタール)になります。100億キュビットは400mのランニングトラック内のすべての芝生を占有します。これは、マイクロ波で制御し、まともな状態を維持し、電力を供給するには、あまりにも多くの労力になるでしょう。ORNLのタイタンは400平方メートルです。量子コンピューターが1000平方メートル(10億キュビットの場合)であることが許可されている場合、古典的なコンピューターをこれほど大きくすることができます。
ある時点でクロスオーバーポイントが存在することを期待しますが、私はオースティン(キュービットのサイズだけでなく、もっと多くの重要な点について検討するようになりました)と、この質問をした日本との両方に同意します、キュービットにいくつかのサイズ縮小を使用できるように見えるためです。