IBMのクォンタムディレクターが語るAI、暗号解読、量子コンピューティングの基礎

13,505 文字

IBM's Quantum Director Talks AI, Breaking Crypto, Basics of Quantum
Join My Newsletter for Regular AI Updates 👇🏼 Links 🔗👉🏻 Subscribe: 👉🏻 Twitter: https:/...

これは、IBMのジェリー・チャウとのインタビューです。彼はIBMフェローで、IBM量子コンピューティングの量子システムディレクターです。量子コンピューティングについて豊富な知識を持っており、私も最近より深く学んでいる分野です。このインタビューでは、量子コンピューティングの基礎から、その難しさ、現在の進捗状況、人工知能への影響、そして量子コンピューティングが実用化された際の暗号解読への影響まで、多くの興味深いトピックについて話し合いました。
ジェリー、今日は参加していただきありがとうございます。量子コンピューティングについては全くの初心者なのですが、昨年後半のIBMのアナリストイベントでのあなたの講演を拝見し、量子について非常に分かりやすく説明していただいたのが印象的でした。今日はお話できることを嬉しく思います。
ありがとうございます。前回のプレゼンについてそのようなお言葉をいただき、感謝します。
量子コンピューティングは、控えめに言っても非常に高度な分野です。一般的な理解としては何となく分かっているつもりですが、最も基本的な観点から、量子コンピューティングとは何か、そして現在どのような状況にあるのか、説明していただけますか?
そうですね。これは非常にエキサイティングな分野であり、働く場としても刺激的です。ただ、量子コンピューティングとは何か、どのように機能するのかという本質を理解したいという思いが強すぎて、私たちは時として通常のコンピューターがどのように機能するのかという質問をしないことがあります。普段使っているコンピューターの仕組みは当たり前のように受け止めていますよね。
結局のところ、量子コンピューティングで構築しようとしているのは、全く異なる形態の計算です。長い間、私たちはビット、つまり0と1の二進法で表現されるデータに基づいて計算を行ってきました。これが情報処理の方法として定着し、現代のコンピューティングを発展させてきた計算ツールのエコシステム全体を構築してきました。
モアの法則や、従来のビットを使用した計算能力を何十年もかけて向上させてきた技術の進歩がありますが、量子コンピューティングは情報処理の根本的な性質を完全に変えるものです。なぜなら、基本的な情報単位がもはやビットではなく量子ビットとなり、量子力学の法則に従うからです。
ここで詳細に入ることもできますが、要するに情報が異なる規則に従い、情報処理のための数学も異なるということです。そのため、特定の種類の問題やインスタンスに対して、はるかに効率的に、場合によっては従来のビットベースのコンピューターと比べて指数関数的に優れた方法で対処することができます。
これが差別化された能力の本質です。情報処理とデータ表現の根底にある数学的構造が大きく異なるため、量子コンピューティングを使用して特定のタスクに対するアドバンテージを得る機会があるのです。
それは素晴らしい説明ですね。あなたは量子コンピューティングが従来のコンピューティングと比べて指数関数的に優れている使用例があると言及されましたが、従来のコンピューターでは数十億年かかる計算が量子コンピューターでは数分で済むというケースもあると聞いています。それが正しいのかどうか、そして量子コンピューティングが特に優れている使用例をいくつか挙げていただけますか?
はい、その通りです。それが私たちが話している格差の種類です。従来の古典的なコンピューターでは決して解くことができない問題が、量子コンピューターを使えば解ける可能性が開かれるということです。
世界最大のスーパーコンピューターを使っても、未知の時間がかかるような問題を、量子コンピューターを使えばはるかに短時間で解決できる可能性があります。このような問題の中で最も有名なのは、1990年代半ばにアルゴリズムの探索の中で提案された、大きな数の因数分解です。
これは現代の暗号化の基礎となっています。数の掛け算は簡単にできますが、逆方向の計算は古典的なコンピューターにとって指数関数的にコストがかかります。1990年代半ばに開発されたショアのアルゴリズムは、量子コンピューターを使用することで指数関数的に短時間でこれを実行できることが理論的に示されました。
他の応用としては、分子構造の研究や、電子が互いにどのように相互作用するかという自然物質の核心を理解することがあります。これは材料探索や、創薬などの分野にとって非常に基本的なものです。
ここでも、複雑な分子や分子構造を扱う場合、様々な電子間の相互作用の数が指数関数的に増加し、それをモデル化することが非常に困難になります。古典的なコンピューターを使用してそれを近似する方法はありますが、古典的な計算リソースを使用する点で非常にコストがかかります。
興味深いことに、それらの電子の相互作用は、その性質上量子力学的なものです。私たちはそれを模倣し、制御可能な相互作用を持つ量子ビットにマッピングすることができます。これが力の源であり、量子コンピューター上でこの問題の異なる表現を使用して解決するチャンスがあるのです。
暗号化について言及されましたが、その点についてもう少し掘り下げてみたいと思います。暗号化は従来のコンピューティングの基本的なセキュリティレイヤーであり、ビットコインやイーサリアムなどの暗号資産の基本原理でもあります。突然、量子コンピューターがこれらの暗号化を解読できるようになった場合、それは実際にどういう意味を持つのでしょうか?多くの人々が、それは暗号の終わりであり、暗号化の終わりだと言っていますが、それは本当でしょうか、それとも誇張された表現でしょうか?
それを考える際に重要なのは、突然起こることではないということです。今それについて話し合っている理由は、それがいつ起こるかを予測でき、そこに向けて技術を構築しているからです。
重要なのは、量子セキュアで量子耐性のある暗号方式が存在するということです。格子ベースの構造など、暗号の背後に構築できる異なる種類の数学的構造があります。昨年、米国国立標準技術研究所(NIST)によって量子安全プロトコルとして支持された多くのプロトコルが存在します。
最大の問題は、それらを使用することではなく、慣性です。業界全体やさまざまな業界が、すべてのデータと暗号化の露出を新しい標準や新しいプロトコルに移行することを望んでいません。それは明らかにオーバーヘッドがかかるからです。
しかし、通信業界から銀行業界まで、産業界がこのことについて話し始めているのを目にします。彼らは、通常使用している暗号化を破ることができる量子コンピューターがいずれ登場することを知っており、データを移行し始め、量子耐性のある量子安全なプロトコルを採用するための適切なタイミングを見極めることが重要になっています。
あなたは、それが突然起こることではないと言われましたが、それは興味深い点です。ガレージで突然、大規模な量子コンピューティングを実現する方法を発見する単独のアクターが現れることはないでしょう。それはあまりにも洗練されており、複雑で、コストがかかりすぎます。将来的にそれが起こり得るとお考えですか?それとも現在、IBMを含めてごく少数の企業しか量子コンピューティングに取り組んでいないのでしょうか?
その通りです。これをデータセンターやスーパーコンピューターレベルのインフラストラクチャの観点から考える必要があります。それに加えて、完全に使用可能なコンピューティングサービスにするために必要なネットワークやインフラストラクチャも必要です。
ガレージでできるようなものではありません。それは面白いかもしれませんが、むしろこれはかなりの資本集約的な投資が必要なものです。また、どこからともなく突然現れるような単発的なものでもありません。
私たちはロードマップを示しており、IBMでは年々何ができるかということと、将来の年々の目標について、歴史的な実績と将来の予測の両方を示してきました。
子供の頃、初めてマザーボードを見たとき、私は完全に魅了されました。それは私の人生の軌道を変えるものでした。テクノロジーの世界に入りたいと思いました。緑色のマザーボードに小さなトランジスタが見えることに何か特別なものを感じました。量子コンピューターの写真を見ると、同じような感覚を覚えます。それは驚くべき機械であり、非常に複雑です。今、画面にその写真の一つを表示していますが、量子コンピューターを作る主要な要素について、冷却が重要な側面であることは知っていますが、高レベルの構成要素について説明していただけますか?
はい、もちろんです。人々が量子コンピューターについて持っているアイコン的なイメージが、実際にIBMで構築してきた技術に基づいているということを嬉しく思います。
具体的に言うと、私たちは超伝導量子ビットに基づく技術を使用しています。半導体については皆さんご存知で、今日のプロセッサーやCPU、GPUに使用される材料ですが、私たちは異なる材料セットを活用しています。
アルミニウム、ニオブ、窒化チタンなどの超伝導体は、冷却すると面白い振る舞いをする異なる種類の超伝導材料です。冷却すると超伝導状態になり、事実上抵抗がなくなります。これらの材料で構造や回路を作り始めると、興味深い方法で動作させることができます。
適切な回路要素を用いて、これらの材料を使用することで、量子力学的に振る舞う量子ビットを構築し、それらを連結して、基本的にQPUの中核として機能する量子ビットのチップを作ることができます。
しかし、これらの超伝導量子ビットが適切に機能するためには冷却が必要です。具体的には、約10から15ミリケルビンまで冷却する必要があります。
温度スケールで考えると、水が凍る0度は約273ケルビンです。77ケルビンで液体窒素になります。液体窒素はカクテルやアイスクリーム作りに使用されることがありますが、それでもかなり冷たいですね。
宇宙空間は約4ケルビンですが、私たちはそれよりもさらに数桁低い温度にまでこれらのデバイスを冷却する必要があります。
面白いことに、その温度まで冷やすのは難しい技術ではありません。ボタンを押すだけで、その温度まで冷却できる冷凍機が存在します。これは希釈冷凍機技術として知られるもので、ポンプやヘリウムおよびヘリウム同位体の流れサイクルのさまざまな組み合わせを使用して、これらのデバイスを15ミリケルビンまで冷却できる冷凍機を構築することができます。
量子コンピューターの写真を見ると、様々な要素を持つ金色のシャンデリアのように見えますが、実際にはこれらの極低温希釈冷凍機の内部を見ているのです。この冷凍機自体が、最底部に位置するチップを冷却し、その温度まで下げます。
もちろん、冷却以外にも多くのものが必要です。実際、極低温インフラストラクチャ自体には複数の冷却段階があります。見える各プレートは、段階的により冷たくなっていきます。
通常は完全にオープンな状態で機能するわけではなく、オープンになっているのは私たちが内部を確認するためです。通常は様々な熱シールドで完全に閉じられており、各層は異なる温度になっています。室温から50ケルビン、4ケルビン、800ミリケルビン、100ミリケルビン、そして最終的に15-50ミリケルビンまで下がっていき、そこにプロセッサーが設置されています。
残りのアーキテクチャでは、量子ビットに対応する配線ケーブルを冷却し、量子ビットを制御するために必要な信号を調整する他の受動部品を冷却し、さらに超伝導量子プロセッサーからの信号を増幅する他の部品も冷却します。これにより、従来の古典的なコンピューターで使用できる0と1のデジタルデータに変換することができます。
待ってください、正しく理解できているか確認したいのですが。量子コンピューターを使用し、最後にバイナリに変換しているということですか?
はい、その通りです。量子コンピューター自体について考える必要があります。結局のところ、私たちは古典的な世界でしか物事を制御できません。古典的なコンピューターを使用してインターフェースを取る必要があるのです。
つまり、多くの点で入力は依然として古典的であり、出力も古典的です。ただし、量子コンピューター内部の機構では、情報処理のために全く異なる数学的形式を通過し、量子力学を活用して計算できる可能性を大きく広げるのです。
しかし、最終的には完全な量子コンピューターは冷凍ユニット自体だけでなく、古典的な制御エレクトロニクスや、コントローラーとして機能する古典的なコンピューター、あるいは量子コンピューターからの結果を前処理および後処理する従来のコンピュートクラスターも含まれます。
一度実行して終わりではなく、古典的なコンピューターと量子コンピューターの間で何度もやり取りを行う必要があるサイクルになります。
入力と出力がバイナリまたは古典的なコンピューティングであるというお話がありましたが、量子コンピューティングのソフトウェア層はどのようになっているのでしょうか?非常に複雑そうに思えますが、標準化されたライブラリーはあるのでしょうか?
はい、それは良い質問です。ハードウェアだけではほとんど、というかほとんどの場合、役に立ちません。
2016年に初めてこれらのシステムをクラウドに配置したとき、5量子ビットのシンプルなマシンをユーザーがアクセスできるようにクラウドに置きました。その時点で、人々がこれをどのようにプログラムするかを定義する必要がありました。
それまでは、私たちが行っていた多くの実験は、物理学者、量子物理学者、実験家として行っていたもので、つまみを回し、ダイヤルを見て結果を得るというものでした。これは実際の計算モデルではありませんでした。
その時点で、量子回路と呼ばれる要素に基づくシンプルなグラフィカルインターフェースを定義しました。量子回路は、量子ビットが情報の単位であるならば、計算の単位と考えることができます。
これには異なる量子ビットに対する様々なゲート操作と、古典的な結果を返すためのそれらの量子ビットの測定が含まれます。これを量子コンピューターの低レベルアセンブリ言語と考えてください。
古典的なコンピューターでNANDゲートやその他のゲートのレベルで話すように、量子コンピューターにもこの量子回路レベルのアナロジーがあります。しかし、それを実際に意味のあるものにするために、古典的なコンピューターと同様に、その上に抽象化レベルを構築する必要があります。
最終的には、あなたが言ったように、様々なアプリケーション用に呼び出し可能なライブラリーにする必要があります。その次のレイヤーとして、2017年にQiskit(Quantum Information Software Development Kit)を導入しました。
Qiskitは、ユーザーがアクセスする必要があると考えられる異なるAPIを定義し始めました。問題のマッピング方法や最適化方法、実際の物理ハードウェア上でこれらの量子回路を実行する方法などを扱うレイヤーを構築しました。
これらの異なるレイヤーを構築し、Qiskitでのプログラミングを学ぶコミュニティを成長させ始めました。今日、Qiskitは使用率の面で最も人気のあるソフトウェアツールキットとなっています。
しかし、私たちはまだそれらの抽象化を定義するモードにあります。今では、人々が量子ビットの操作方法やアセンブリレベルでの会話の詳細をすべて知る必要がないことが、よりよく理解されています。コンピューターをプログラムする際に、物理的なゲートアーキテクチャでプログラムすることはありませんよね。
あなたが言ったように、ライブラリーを呼び出し、関数を呼び出します。そして今日、私たちはそれらの抽象化レイヤーを構築しています。特に、量子コンピューティングは計算ツールの完全なフリートの中で最も良く使用されることが分かってきました。
従来のクラウドエンドポイントを使用し、計算の一部としてGPUクラスターを呼び出す必要があるかもしれません。そのため、これらの異なる形態の計算を弾力的な方法で活用できる必要があります。
これらのすべての抽象化レイヤー、これらのすべての要素を構築しています。昨年、より応用志向のQiskit関数という概念を導入しました。最終的な問題が化学にあるなら、そのための関数があり、最適化にあるなら、そのための関数があります。
これらは問題を量子回路やアセンブリにマッピングしますが、その詳細を知る必要は必ずしもありません。
今お話しいただいたことについて、もう少し掘り下げたい点があります。開発者は使用例に応じて適切な種類の計算を活用する必要があるとおっしゃいました。質問しようと思っていたのですが、量子コンピューティングはコンピューティングの完全な未来と考えるべきでしょうか?従来のコンピューティングを完全に置き換えることになるのでしょうか?
いいえ、その点をよく理解されていますね。それは良い質問であり、おそらく一般的な誤解でもあります。すべてを置き換えるわけではありません。実際には、特定のことに適しているのです。
量子ビットや量子回路の言語は、異なるデータ表現として、量子コンピューターに最も効率的にマッピングされる特定の問題をターゲットにするのに最適です。
テンソルネットワークに最も適した問題もあり、そのためGPUクラスターを活用します。もちろん、従来のCPUアーキテクチャを使用する、通常の量子ビットに最も適した問題もまだ存在します。
IBMでは、ビット、ニューロン、量子ビットという3つの異なる計算表現が、コンピューティングの未来として統合されると考えています。なぜなら、最終的にはそれらすべてが必要になるからです。
ある意味で、テンソルと量子回路は、手元にある計算の可能性を拡大したに過ぎません。
ジェリー、量子コンピューティングで解決できる問題の範囲について、私たちはすでに把握しているのでしょうか?それとも現在もまだ探索中なのでしょうか?
もう一つの素晴らしい質問ですね。まだ探索中です。大きなポイントは、先ほど言及したいくつかの使用例、暗号解読や分子構造の理解など、既知のアルゴリズムや問題があるということです。
紙の上で数学的に、量子コンピューターを使用することでスピードアップや利点があることが証明されています。それには特定のサイズの量子コンピューターと、特定の実行回数や回路のサイズが必要かもしれません。
しかし、興味深いのは、古典的にシミュレートできる範囲を超えた、同じ種類の量子回路についても、私たちがまだ知らないことが非常に多いということです。この計算リソースを活用する新しいアルゴリズムの探索と発見のために、まだ手つかずの領域が広がっているのです。
なるほど、それは理にかなっていますね。そのポイントに関連して、私は人工知能に非常に情熱を持っています。ほとんどの動画やニュースレター、制作するコンテンツのほとんどがAIに関するものです。
量子とAIの交点について、私は本当に理解できていません。AI業界の人々が量子をどのように考えるべきか、そして将来何を期待できるのか、あなたの見解をお聞かせください。
はい、それは良いポイントですね。私の考えでは、量子のためのAIと、AIのための量子という2つの側面があります。
最初の量子のためのAIについては、比較的straightforwardです。例えば、昨年導入したQiskitコードアシスタントのように、以前にトレーニングされたコードに基づいて、開発者がより効果的、効率的にQiskitでプログラミングできるようにモデルを使用するという考えです。これはほぼ単純な自己解決といえます。
AIモデルは、特定の種類の最適化タスクにも関係してきます。特定の回路をハードウェア上で実行するための最適な形式にマッピングするという観点から、昨年、QiskitAIトランスパイラーサービスというツールを導入しました。
これは、そのような種類のマッピングを行うもので、基本的には様々な強化学習の原理を使用して、そのような最適化を推進します。実際、既存のトランスパイレーションやコンパイレーションの方式よりも優れたパフォーマンスを発揮することができます。
これは、ワークフローの最適化や問題の最適な分解方法を支援するためにAIを使用する、まだ十分に活用されていない領域の一つです。
一方、AIのための量子の側面は、もう少し複雑で微妙です。人々は長い間、量子機械学習について話してきました。分類や学習など、特定の機械学習タスクのためのアルゴリズムの探索があり、量子回路を活用するものもありました。
ここではまだ、そのような優位性がどのようなものになるかを正確に見つけるための研究が多く行われています。
興味深いことの一つは、先ほど話した暗号化の問題を、分類問題として捉えることができるということです。これは、大きな数の素因数という固有の構造を見つけようとする構造化データの問題です。
これは量子回路に非常に適していますが、従来のサポートベクターマシンの機械学習モデルには非常に不向きです。
量子コンピューターを使用して、これらの機械学習タスクをより効果的に実行するのに適した興味深いデータセットがどこにあるかを探索する余地が大きくあります。
そう、続けてください。
量子回路を活用する新しいアルゴリズムを見つけることは、その種の機械学習AIスペースにおける開発のために完全に重要です。
そして、私たちが本当にエキサイティングだと考えているもう一つのことは、少し先を見据えたものですが、これらの将来のスーパーコンピューター、高性能コンピューティングを構築していく中で、私たちの観点からは量子中心のスーパーコンピューティングと呼んでいるものです。
GPUがあり、CPUがあり、QPUが共存することになります。これは必ずしもAIについての statement ではありませんが、むしろこれらの異なるエンドポイントに適切な種類の問題をマッピングする機会を見つけることについての statement です。
AI型のタスクの中には、これらの異なるエンドポイントに非常に適したものがあるかもしれません。しかし、それを探索するためには、まずそれを構築する必要があるようなものです。
私たちは、このコンピューティングの未来のインフラストラクチャを構築するための重要なパートナーを見つけようとしています。
過去数週間に出てきた、時事的な量子に関するいくつかの話題についてご意見を伺いたいと思います。
先週、GoogleがWillowというプロジェクトに関する論文を発表しました。見出しは読み、ある程度理解しようとしましたが、彼らが達成したことを簡単な言葉で説明していただけますか?また、研究者としてのあなたの見解もお聞かせください。
はい、彼らのWillowデバイスは、基本的に量子エラー訂正の研究を可能にするものです。表面コードとして知られる特定の量子エラー訂正コードを調べ、論理的なメモリとして効果的に機能することを示しました。
一歩下がって考えてみましょう。今日の量子コンピューターを構築する上で最も基本的な問題は、エラーが発生することです。超伝導量子ビットについて話をしましたが、これらは基板に組み込まれた小さな金属構造で、基本的に小さな電磁アンテナです。
原子レベルでこの種の量子力学現象を示すことを期待されていますが、これらは小さなアンテナなので、環境中の他のものと相互作用したがります。デバイスの製造方法、パッケージング方法、制御方法、信号線を引き込む方法など、すべてが量子情報を失うことにつながる可能性があります。
これらの量子ビットがあり、プログラムし、操作し、互いに絡み合わせ、アセンブリレベルでゲート操作を実行する必要がありますが、いくつかの操作を行った後に情報を失ってしまうと、計算は成立しません。
結局のところ、どのような量子ビットプラットフォームでも、このような種類のエラーに対処する必要があります。そのための戦略にはいくつかあります。私たちも活用している近期的な戦略として、エラー抑制やエラー緩和があります。これは、基本的なレベルでノイズを理解し、複数の回路を実行することでノイズを除去しようとするものです。
そして、エラー訂正があります。ここでは基本的に、古典的な情報理論でも一般的なエラー訂正コードの概念を使用します。たとえば、非常にシンプルな古典的な情報コードは反復コードです。1ビットにエラーが発生する心配がある場合、2回コピーして3ビットにし、それら3つの多数決を取って結果を選びます。
量子ビットの面白いところは、単純にそのようなコピーができないことです。量子ビットの情報を失うことなく、特定の情報を見つけ出すことができるより複雑なコードを構築する必要があります。
結局のところ、量子エラー訂正の考え方は、より多くの物理的な量子ビットをネットワークに構築する必要があるということです。これにより、量子ビット情報をその大きな数の量子ビットにエンコードすることができます。
Willowがテストしていたサーフェスコードは、非常に人気のある量子エラー訂正コードです。アイデアとしては、量子ビットの最近接格子を作り、これらの量子ビットの一部がデータを保持する量子ビット、つまり保存したい情報を持つ量子ビットとなります。格子上の他の量子ビットは、エラー症候群量子ビットで、他の量子ビットに発生しているエラーを見つけるために測定します。
私の考え方としては、エラーは大規模な地雷探しゲームのようなものです。特定の量子ビットにタグを付け、これが他の量子ビットのエラーを教えてくれると判断し、それに基づいて情報を保持している量子ビットにどのような訂正を行う必要があるかを把握します。
サーフェスコードは、実際にIBMのエラー訂正チームが何年も前に研究していたアイデアの一つで、2010年代初頭から2018年頃まで活用していました。しかし、現在は異なる種類のエラー訂正コードに移行しています。
サーフェスコードは非常に人気のあるコードで、人々はエラー訂正を研究し探索するために使用してきましたが、その基本的な制限の一つは、論理的な量子ビット情報をエンコードするために必要な量子ビットの数が非常に多いということです。
フルスケールの量子コンピューターの構築に何百万、何千万、あるいは何億もの量子ビットが必要だと言われることがありますが、それはこのようなサーフェスコードアーキテクチャにエラー訂正を組み込む必要があるという観点から考えられているためです。
IBMでは、より拡張可能なエラー訂正コードの構築方法を研究しており、昨年、低密度パリティチェックコードと呼ばれる異なる種類のエラー訂正コードを導入しました。技術的な詳細には立ち入りませんが、論理的な量子ビットに必要な物理的な量子ビットの数を桁違いに減少させます。
そのため、実際に規模のあるシステムを構築するためには、数百万ではなく、1万や10万の量子ビットで済むようになります。
なるほど、あなたが今説明された非常に複雑なトピックについて、ちょっと別の質問をさせてください。量子に完全に魅了された人が、学習を始めるための最良の方法は何でしょうか?
はい、学習については、私たち自身の宣伝になりますが、IBMクォンタムに多くの学習コンテンツがあります。ibm.comのquantumセクションで見つけることができます。
実際の量子ハードウェア上で最初の量子回路を実行することから、エラー訂正の基礎や量子コンピューターのプログラミングが何を意味するのかを学ぶまで、多くの学習リソースがあります。
また、世界的に有名な専門家であるジョン・ワトラスによる一連のビデオもあります。彼は以前ウォータールー大学の教授で、これらのコンセプトについて非常に詳しく説明しています。
あなたが今言及したリンクは、後で説明に追加し、画面にも表示しますので、量子に興味のある人は簡単に見つけることができます。ぜひIBMをチェックして、学習の旅を始めることをお勧めします。
2つ目の時事的な話題として、数週間前にNVIDIAのCEOであるジェンスン・フアンが量子コンピューティングのタイムラインについて言及したことについて、あなたの見解をお聞きしたいと思います。
もちろん、彼は特定の種類のコンピューティングに深く投資しているので、それが遠い将来のことだと考えるのは都合が良いのかもしれません。ジェリー、彼の見解について、それを再確認し、彼は間違っているのか、正しいのか、それとも中間なのか、あなたの考えをお聞かせください。
彼の心の中で何を考えていたのかを正確に理解するのは難しいですね。私の観点からすると、確かにGPUを究極のソリューションとして押し出そうとするときには、そのように話すのは都合が良いでしょう。
しかし、確実にIBMの観点からすると、私たちは言葉だけでなく行動で示したいと考えています。価値を提供するという観点から、ロードマップを示し、年々技術を拡張していくことで、その種のユーザー価値を大規模にもたらすことができると考えています。
量子プロセッサーの非常に基本的なレベルから、ソフトウェアレイヤーの抽象化、Qiskitの使いやすさに至るまで、私たちは複数年のロードマップを持っており、毎年それを達成してきました。
私たちは、この10年以内に、2029年にはStarLユーザーに対して障害耐性のある量子コンピューターを提供し、2033年にはBlueJという、さらに大規模な障害耐性マシンを提供することを目標としています。
これが私たちのロードマップであり、GPUや従来のコンピューターに取って代わるのではなく、それらを補完し、共に働くことで、量子コンピューターの差別化された価値をもたらすと考えています。
そのロードマップやタイムラインをIBMが公開している場所はどこで見ることができますか?
はい、グラフィックとしてお見せできます。画面に表示しながらお話しできますし、説明の下にもリンクを追加できます。
ジェリー、最後の質問です。お忙しいところ時間を取っていただき、ありがとうございます。あと数分ありますので、あなたが量子にどのように関わるようになったのか、とても興味があります。量子に魅了され、この素晴らしい技術の研究に人生を捧げようと決めた最初の瞬間は、どのようなものだったのでしょうか?
はい、それは私の個人的な旅路ですね。歩けるようになって以来、数学と科学に興味を持っていました。その一部は、科学と数学を重視する家庭環境で育ったからです。父は退職した物理学の教授で、長年核物理学の分野で働いていました。そのため、常に数学と科学の学習が植え付けられていました。
量子に関しては、大学に入学してからより深く関わるようになりました。実際に手を動かして実験作業ができるものを探求していました。それは挑戦的で、少し難解なものでしたが、当時、量子ドットに関する様々な記事を読んでいました。
ハーバード大学の教授を訪ね、その研究室で働けないかと相談しました。研究室に入ってからは、カーボンナノチューブを扱う研究を始めました。これが私の量子領域での最初の実験でした。量子ビットの構築からは遠いものでしたが、ナノメートルスケールのものを扱う作業でした。
電気輸送特性などを研究することは、そのスケールでものを扱えるということに関して、私の心に響くものがありました。それが後に、量子の世界についてより多くを学び、量子ビットの構築方法を学ぶきっかけとなり、最終的に博士課程で取り組むことになった超伝導アーキテクチャへと導いてくれました。
素晴らしいですね。ジェリー、今日は時間を取っていただき、ありがとうございました。人々が直接フォローしたい場合、最適な場所はどこでしょうか?Xのアカウントをお持ちですか?
私のXアカウントは@JM_Chowです。LinkedInでもフォローできます。LinkedInでは多くの更新情報を共有しています。
IBMクォンタムについてより詳しく知るための最適な場所は?
IBMについてより詳しく知るための最適な場所は、確実に私たちのウェブサイトibm.com/quantumです。そこで私たちのシステム、ソフトウェアスタック、そのすべてについて学ぶことができます。
ジェリー、改めてありがとうございました。これは素晴らしい内容でした。このチャンネルで量子についてもっと取り上げていきたいと思います。また時間があるときにお話を伺えればと思います。ありがとうございました。
こちらこそありがとうございました。

コメント

タイトルとURLをコピーしました