従来のコンピュータとの違い
コンピュータの情報処理能力の源泉とは、情報の「保持」と「演算」にある。従来のノイマン型コンピュータは、データを「0」か「1」のどちらかの情報として保持した上で、Not演算とOr演算と呼ばれる二つの演算方式の組み合わせで演算を行う。初期の歯車を組み合わせた機械式のコンピュータから、現在のほとんどデバイスに採用されている、シリコンチップに書き込まれた超高密度のトランジスタに至るまで、この原則は変わらない。すなわち、「0」と「1」のどちらかの状態しか表現できず、2つ以上の状態を同時に表現することはできない。
一方、量子コンピュータは、特定の条件で物質が量子的な振る舞いをするという特性を活かし、1単位あたり(これを量子ビットと呼ぶ)「0」、「1」、そして「0でも1でもある状態(これが量子的重なりと呼ばれるものである)」の3通りで表現する事ができる。そしてこれらを、重なり合った状態を維持したまま処理することで、複数の入力変数に対する計算を同時に進めることができる。仮に、50量子ビットの性能を持つ量子コンピュータにおいて、全ての量子が重なりあった状態であれば、約1,125兆(2の50乗)通りの計算が一瞬で完了することになる。そして、量子ビットを増やすことで、計算能力を指数関数的に増強していくことが可能なのだ。
一方、量子コンピュータは、特定の条件で物質が量子的な振る舞いをするという特性を活かし、1単位あたり(これを量子ビットと呼ぶ)「0」、「1」、そして「0でも1でもある状態(これが量子的重なりと呼ばれるものである)」の3通りで表現する事ができる。そしてこれらを、重なり合った状態を維持したまま処理することで、複数の入力変数に対する計算を同時に進めることができる。仮に、50量子ビットの性能を持つ量子コンピュータにおいて、全ての量子が重なりあった状態であれば、約1,125兆(2の50乗)通りの計算が一瞬で完了することになる。そして、量子ビットを増やすことで、計算能力を指数関数的に増強していくことが可能なのだ。