IBM、シカゴ大学と東京大学に10万量子ビットの量子スーパーコンピュータ構築の協力を要請

Table of Contents

IBM、シカゴ大学と東京大学に10万量子ビットの量子スーパーコンピュータ構築の協力を要請

IBMは、2033年までに世界で最も解決困難な問題を解決できると言われる10万量子ビットの「量子中心スーパーコンピュータ」の構築に1億ドルを費やす計画で、東京大学とシカゴ大学に協力を要請した。

今日の量子コンピューティングは、ある種ジレンマを抱えている。この技術が単なる好奇心以上のものになるかどうかはまだ結論が出ていないが、もしそうなったとしても、誰もそれを解明する最後の人になりたくないだろう。そして、量子コンピューターの開発を加速させるために、ニューヨーク州ポキプシーのキャンパスに既に200億ドルを投資する計画を立てているIBMは、明らかに後れを取りたくないのだ。

IBMの主張を信じるならば、同社の量子スーパーコンピュータは、今日のスーパーコンピュータでは解けない複雑な問題を解くための基盤となるだろう。日曜日に公開されたプロモーションビデオの中で、IBMは、このマシンが新素材の開発、より効果的な肥料の開発、あるいは大気中の炭素を隔離するより効果的な方法の発見につながる可能性があると主張した。Watsonについて、この話は以前にも耳にしたことがあるかもしれない。

しかし、IBMがこれらを実現するには、まず10万量子ビットを扱えるマシンを構築し、さらにそのシステムを有用な動作に導く方法を見つけなければなりません。これは決して容易なことではありません。たとえ実現できたとしても、最新の研究では10万量子ビットでは不十分かもしれないことが示唆されています。この点については後ほど詳しく説明します。

IBMが量子探索への協力を要請

全体像を把握するために、IBMのこれまでで最も強力な量子システムはOspreyと呼ばれています。昨年末に稼働を開始し、433量子ビットという驚異的な性能を誇りました。少なくとも現時点で想定されている通り、IBMの量子スーパーコンピュータの量子部分は、2万5000量子ビットのクラスター4つで構成される予定です。

IBMの量子スーパーコンピュータのコンセプト

IBMの量子スーパーコンピュータの構想では、従来のコンピュータを4つの25,000量子ビットのクラスターに統合する。クリックして拡大

つまり、2033 年という予定を達成するには、IBM の量子システムでは、今後 10 年間、使用可能な量子ビットの数を毎年約 50% 増やし、量子ネットワークと従来のネットワークの両方を使用して量子ビットを構築し、接続する必要があることになります。

状況は実際にはさらに悪いかもしれません。このシステムは、IBMが今後開発する133量子ビットのHeronシステムをベースとしているようです。このシステムは小型ながら、2量子ビットのゲートアーキテクチャを採用しており、IBMによればより優れた性能を発揮するとのことです。

IBMは10万量子ビットの目標達成を支援するため、東京大学とシカゴ大学に協力を要請した。東京大学は「量子アルゴリズムの特定、拡張、そしてエンドツーエンドの実証」を主導する。また、極低温工学や制御電子機器といった大規模量子システムのサプライチェーンと材料開発にも取り組む。

一方、シカゴ大学の研究者たちは、量子-古典ネットワークの開発と、それをハイブリッド量子計算環境に適用する取り組みを主導します。私たちの理解では、これには、古典計算リソースと量子計算リソースの両方にワークロードを分散できるようにする量子ミドルウェアの開発も含まれることになります。

  • マイクロソフトは、アップダウン両方のクラウドであるAzureで量子アプリを構築したいと考えています。
  • 量子コンピューティング:誇大広告か現実か?OVHは、企業は備えておくべきだと述べている
  • オスプレイが着陸:IBMの433量子ビット量子プロセッサ
  • 30年間の実存的恐怖リストから「量子コンピューターが暗号通貨を破壊する」という恐怖を消し去ることができる

誤解のないように言うと、IBM の 10 万量子ビットの目標は、同社のロードマップと、同社研究者が克服できない障害を回避しながらシステムを拡張できると考えている速度に完全に基づいています。

「シカゴ大学および東京大学と協力すれば、2033年までに10万個の量子ビットを接続するという目標は達成可能だと考えている」と、巨大コンピューター業界ののろのろした巨人は日曜日のブログ投稿で宣言した。

100,000 量子ビットの量子コンピュータは何の役に立つのでしょうか?

IBMとその仲間たちが「量子中心」のスーパーコンピュータを成功させたとしても、それが必ずしも超高性能になるとは限りません。量子システムを構築することと、それを活用するために必要なアルゴリズムを開発することは全く別の話です。実際、MicrosoftやOVH Cloudをはじめとする多くのクラウドプロバイダーは、実用規模のシステムが利用可能になった時に備えて、量子アルゴリズムやハイブリッド量子アプリケーションの開発を支援するための措置を講じています。

また、マイクロソフトとスケーラブル並列コンピューティング研究所の研究者が執筆した論文によると、ビッグブルーの10万量子ビットの量子コンピュータはそれほど有用ではないかもしれないと考える理由がある。

研究者たちは、1万個の誤り訂正量子ビット(物理的には約100万量子ビット)を備えた理論上の量子システムと、単一のNvidia A100 GPUを搭載した古典コンピュータを比較しました。この比較により、量子システムが意味を成すためには、関連するアルゴリズムが2乗以上の速度向上を達成する必要があることが明らかになりました。

IBMが10万個の物理量子ビットについて言及していると仮定すると(具体的な数は不明)、同社のマシンは研究論文で説明されている理論上のシステムの約10分の1のサイズになります。IBMに問い合わせて詳細を確認しており、回答が得られ次第お知らせします。

とはいえ、I/Oボトルネックを克服できれば、有望なワークロードもいくつか存在します。研究者たちは、医薬品設計、タンパク質の折り畳み、気象予測はおそらく不可能だと結論付けましたが、化学および材料科学は、十分に大規模な量子システムの恩恵を受ける可能性があります。

したがって、量子スーパーコンピュータを使用して低コストの肥料を開発するという IBM の提案は、これまでで最も突飛なアイデアではないかもしれません。®

Discover More