量子コンピュータの第一の仕事:人工知能の強化

量子コンピュータの第一の仕事:人工知能の強化

量子コンピューティングと機械学習の融合は、急成長を遂げている研究分野です。果たして、高い期待に応えられるのでしょうか?

WIREDに掲載されているすべての製品は、編集者が独自に選定したものです。ただし、小売店やリンクを経由した製品購入から報酬を受け取る場合があります。詳細はこちらをご覧ください。

90年代初頭、ウィチタ州立大学の物理学教授エリザベス・ベアマンは、量子物理学と人工知能、特に当時異端児だったニューラルネットワーク技術を融合させる研究を始めました。多くの人は、彼女が水と油を混ぜていると思ったほどです。「論文を発表するのに、本当に苦労しました」と彼女は振り返ります。「ニューラルネットワークの専門誌は『これは量子力学?』と言い、物理学の専門誌は『このニューラルネットワークのゴミは何?』と言い返しました。」

クアンタマガジン

オリジナルストーリーは、数学、物理科学、生命科学の研究の進展や動向を取り上げることで科学に対する一般の理解を深めることを使命とする、シモンズ財団の編集上独立した出版物であるQuanta Magazineから許可を得て転載されました。

今日、この二つの融合は世界で最も自然なことのように思えます。ニューラルネットワークをはじめとする機械学習システムは、21世紀における最も破壊的なテクノロジーとなりました。これらのシステムは人間を凌駕し、チェスやデータマイニングといった、ほとんどの人が得意としていなかったタスクだけでなく、顔認識、言語翻訳、交差点の通過といった、まさに私たちの脳が進化の過程で目指してきた種類のタスクにおいても人間に勝っています。これらのシステムは膨大な計算能力によって可能になったため、テクノロジー企業が単に大型なだけでなく、全く新しい種類の機械を求めるのは必然でした。

量子コンピュータは、数十年にわたる研究を経て、地球上のどのコンピュータをも凌駕する計算能力をほぼ備えています。そのキラーアプリは、現代の暗号化の鍵となる大きな数の因数分解だと一般的に言われています。しかし、それは少なくともまだ10年先のことです。しかし、今日の初歩的な量子プロセッサでさえ、機械学習のニーズに驚くほど適合しています。膨大な量のデータをワンステップで操作し、従来のコンピュータでは検出できない微妙なパターンを見つけ出し、不完全または不確実なデータでも処理できます。「量子コンピューティングの本質的な統計的性質と機械学習の間には、自然な組み合わせがあります」と、カリフォルニア州バークレーの量子コンピュータ企業、リゲッティ・コンピューティングの物理学者、ヨハネス・オッターバッハ氏は述べています。

むしろ、振り子は今や正反対の極端に振れていると言えるだろう。Google、Microsoft、IBMといった巨大テック企業が量子機械学習に資金を注ぎ込み、トロント大学のスタートアップ・インキュベーターもこの分野に特化している。「『機械学習』は流行語になりつつある」と、モスクワのスコルコボ科学技術研究所の量子物理学者、ジェイコブ・ビアモンテ氏は語る。「『量子』と組み合わせると、巨大な流行語になる」

しかし、「量子」という言葉が付くものは、どれも見た目通りのものではない。量子機械学習システムは強力であるはずだと考えるかもしれないが、一種のロックイン症候群に悩まされている。人間が読めるデータではなく量子状態に基づいて動作し、両者間の変換によって、その明らかな利点が打ち消されてしまうことがある。これは、iPhone Xが、その素晴らしいスペックにもかかわらず、ネットワークが相変わらずひどいために、結局は古いスマホと同じくらい遅くなってしまうようなものだ。物理学者は、ごく限られた特殊なケースにおいて、この入出力ボトルネックを克服できるが、それらのケースが実際の機械学習タスクで発生するかどうかはまだ不明だ。「まだ明確な答えは得られていません」と、量子コンピューティングに関しては常に冷静な意見を述べるテキサス大学オースティン校のコンピューター科学者、スコット・アーロンソンは言う。「これらのアルゴリズムが速度向上をもたらすかどうかについては、人々はしばしば非常に軽率に考えてきたのです。」

量子ニューロン

ニューラルネットワークの主な役割は、古典的であろうと量子的であろうと、パターンを認識することです。人間の脳に着想を得たニューラルネットワークは、基本的な計算ユニットである「ニューロン」のグリッドで構成されています。それぞれのニューロンは、オンオフを切り替えるデバイスのように単純なものです。ニューロンは、あたかも投票を行うかのように、複数のニューロンの出力を監視し、十分な数のニューロンがオンになった時点でスイッチをオンにします。通常、ニューロンは層状に配置されています。最初の層は入力(画像ピクセルなど)を受け取り、中間層は入力の様々な組み合わせ(エッジや幾何学的形状などの構造を表現)を作成し、最後の層は出力(画像コンテンツの高レベルな記述)を生成します。

画像には、プロットパンフレット、広告、紙、チラシ、ポスター、テキストが含まれている場合があります

Lucy Reading-Ikanda/Quanta Magazine

重要なのは、配線が事前に固定されているのではなく、試行錯誤のプロセスで適応していくという点です。ネットワークに「子猫」や「子犬」というラベルの付いた画像を与えるとします。それぞれの画像に対してラベルを割り当て、それが正しいかどうかを確認し、正しくない場合はニューロンの接続を調整します。最初はランダムな推測ですが、徐々に精度が上がり、おそらく1万例ほどの例を学習すれば、ペットの種類を認識できるようになります。本格的なニューラルネットワークは10億もの相互接続を持つこともあり、そのすべてを調整する必要があります。

従来のコンピュータでは、これらの相互接続はすべて膨大な数の行列で表現され、ネットワークを動作させるには行列代数を実行する必要があります。従来、これらの行列演算はグラフィックス・プロセッシング・ユニット(GPU)などの専用チップにアウトソーシングされていました。しかし、量子コンピュータほど行列演算を高速に処理できるものはありません。「量子コンピュータでは、大規模な行列やベクトルの操作が指数関数的に高速になります」と、マサチューセッツ工科大学の物理学者であり、量子コンピューティングのパイオニアであるセス・ロイド氏は述べています。

このタスクのために、量子コンピュータは量子システムの指数関数的な性質を利用することができます。量子システムの情報記憶容量の大部分は、個々のデータユニット(量子ビット、古典コンピュータのビットの量子版)ではなく、それらの量子ビットの集合的な特性にあります。 2 つの量子ビットには、両方ともオン、両方ともオフ、オン/オフ、オフ/オンの 4 つの結合状態があります。それぞれに、ニューロンを表すことができる特定の重み、つまり「振幅」があります。 3 つ目の量子ビットを追加すると 8 つのニューロンを、4 つ目の量子ビットを追加すると 16 個のニューロンを表せます。マシンの容量は指数関数的に増大します。実際には、ニューロンはシステム全体に広がっています。 4 つの量子ビットの状態を操作すると、16 個の数値を一度に処理しますが、古典コンピュータではこれらの数値を 1 つずつ処理する必要があります。

ロイド氏は、60量子ビットあれば人類が1年間に生み出すデータ量に相当するデータをエンコードするのに十分であり、300量子ビットあれば観測可能な宇宙の古典情報量を伝送できると見積もっている。(IBM、Intel、Googleが現在開発している最大の量子コンピューターは、50量子ビット程度である。)これは、各振幅が1つの古典情報ビットであると仮定した場合の数値である。実際には、振幅は連続量(そして実際には複素数)であり、妥当な実験精度を得るには15ビット程度まで格納できる可能性があるとアーロンソン氏は述べた。

しかし、量子コンピュータが情報をコンパクトに保存できるからといって、速度が速くなるわけではない。それらの量子ビットを活用できなければならない。2008年、ロイド氏とMITの物理学者アラム・ハロー氏、イスラエルのバル・イラン大学のコンピュータ科学者アビナタン・ハシディム氏は、逆行列を求めるという極めて重要な代数演算の実行方法を示した。彼らはそれを量子コンピュータで実行できる一連の論理演算に分解した。彼らのアルゴリズムは、非常に多様な機械学習手法に適用できる。そして、例えば大きな数を因数分解するのに比べれば、はるかに多くのアルゴリズムのステップを必要としない。コンピュータは、今日の技術の大きな制限要因であるノイズによって台無しにされる前に、分類タスクをあっという間にこなすことができる。「完全に汎用的でフォールトトレラントな量子コンピュータが完成する前に、量子の利点が得られるかもしれない」とIBMのトーマス・J・ワトソン研究所のクリスタン・テメ氏は述べた。

自然に問題を解決させよう

しかし、これまでのところ、量子行列代数に基づく機械学習は、わずか4量子ビットのマシンでのみ実証されています。これまでの量子機械学習の実験的成功のほとんどは、量子システムが単にネットワークをシミュレートするのではなく、ネットワークそのものをシミュレートするという異なるアプローチを採用しています。各量子ビットは1つのニューロンを表します。このようなデバイスは指数関数の演算能力こそありませんが、量子物理学の他の特徴を利用できます。

画像には電子機器、電子チップ、ハードウェア、コンピュータハードウェア、CPU、コンピュータが含まれている可能性があります

D-Waveシステム

約2,000個の量子ビットを持つ、この種の装置の中で最大のものは、ブリティッシュコロンビア州バンクーバー近郊に拠点を置くD-Wave Systems社製の量子プロセッサです。これは、多くの人がコンピュータと考えるものとは異なります。入力データから一連の演算を実行し、出力を表示するのではなく、内部の整合性を見つけることで動作します。各量子ビットは超伝導の電気ループであり、上下、あるいは上下に向いた小さな電磁石、つまり重ね合わせとして機能します。量子ビットは磁気的に相互作用することで「結線」されます。

システムを実行するには、まず水平磁場をかけて、量子ビットを上下均等に重ね合わせた状態に初期化します。これは白紙の状態と同じです。データの入力方法はいくつかあります。場合によっては、量子ビットの層を目的の入力値に固定しますが、多くの場合、入力を相互作用の強度に組み込みます。次に、量子ビットを相互作用させます。一部は同じ方向に整列しようとし、一部は反対方向に整列しようとします。そして、水平磁場の影響下で、それらは望ましい方向に反転します。そうすることで、他の量子ビットの反転をトリガーする場合があります。最初は、多くの量子ビットがずれているため、このような反転が頻繁に発生します。しかし、時間が経つにつれて量子ビットは落ち着くので、水平磁場をオフにしてそれらを所定の位置に固定できます。その時点で、量子ビットは上下のパターンになり、出力が入力に従うことが保証されます。

量子ビットの最終的な配置がどうなるかは全く明らかではない。それが重要な点だ。このシステムは、ただ自然に起こることをするだけで、普通のコンピューターでは苦労するような問題を解いている。「アルゴリズムは必要ありません」と、D-Waveマシンの動作原理を開発した東京工業大学の物理学者、西森秀稔氏は説明する。「従来のプログラミングとは全く異なります。自然が問題を解いてくれるのです。」

量子ビットの反転は量子トンネル効果によって駆動されます。これは、量子システムが次善策に落ち着くのではなく、最適な構成を模索しなければならないという自然な傾向です。同様の原理で動作する古典的なネットワークを構築し、トンネル効果ではなくランダムな揺らぎによってビットを反転させることも可能であり、場合によっては実際にその方がうまくいくこともあります。しかし興味深いことに、機械学習で生じる種類の問題では、量子ネットワークの方がより速く最適解に到達するようです。

D-Waveマシンには批判的な意見もありました。非常にノイズが多く、現状では限られた処理しか実行できません。しかし、機械学習アルゴリズムは本質的にノイズに強いのです。混沌とした現実を理解し、誤った情報に惑わされずに子猫と子犬を区別できるからこそ、機械学習は有用なのです。「ニューラルネットワークはノイズに対して堅牢であることで知られています」とベアマン氏は言います。

2009年、グーグルのコンピューターサイエンティストで、拡張現実(AR)のパイオニアであり、グーグルグラスプロジェクトの共同創設者でもあるハルトムート・ネヴェン率いるチームが、初期のD-Waveマシンでまともな機械学習タスクを実行できることを示した。彼らはそれを、基本的に単層ニューラルネットワークとして使用し、2万枚の街頭シーンのライブラリから画像を「車あり」と「車なし」の2つのクラスに分類した。マシンの動作量子ビットはわずか52個で、画像全体を取り込むにはあまりにも少なすぎた(D-Waveマシンは、2018年にオンラインになった最先端の50量子ビットシステムとはまったく異なるタイプであることに注意)。そこでネヴェンのチームは、このマシンを従来型コンピューターと組み合わせ、画像のさまざまな統計量を分析し、これらの量が車の存在にどれだけ敏感かを計算した。通常、それほど敏感ではないが、少なくともコイン投げよりは敏感だった。これらの数値のいくつかの組み合わせで確実に車を特定できる可能性はあったが、どれがそうなのかは明らかではなかった。それを見つけるのがネットワークの役割だった。

研究チームは各量に量子ビットを割り当てた。その量子ビットの値が1に落ち着くと、対応する量は有用であるとフラグ付けされ、0は無視することを意味する。量子ビットの磁気相互作用は、最終的な選択を可能な限りコンパクトにするために、最も識別力の高い量のみを含めるといった問題の要求を符号化した。その結果、車を発見することができた。

昨年、カリフォルニア工科大学の素粒子物理学者マリア・スピロプルと南カリフォルニア大学の物理学者ダニエル・ライダーが率いる研究グループは、このアルゴリズムを実際の物理学の問題、すなわち陽子衝突を「ヒッグス粒子あり」と「ヒッグス粒子なし」に分類する問題に適用した。研究チームは光子を放出する衝突に焦点を絞り、基礎的な素粒子理論を用いて、運動量が閾値を超えるなど、ヒッグス粒子の束の間の存在を裏切る可能性のある光子の特性を予測した。研究チームはそのような特性を8つとそれらの組み合わせを28通り、合計36の候補信号として検討し、南カリフォルニア大学の最新型D-Waveを使って最適な選択を見つけさせた。その結果、16の変数が有用であり、3つが絶対的に最適であると特定された。量子マシンは、正確な識別を行うのに標準的な手順よりも少ないデータしか必要としなかった。「トレーニングセットが小さければ、量子アプローチは高エネルギー物理学コミュニティで使用されている従来の方法よりも精度面で有利でした」とライダーは述べた。

この画像には家具、スクリーン、電子機器、モニター、ディスプレイ、テーブル、人間、机、コンピューター、椅子が含まれている可能性があります。

カリフォルニア工科大学の物理学者マリア・スピロプル氏は、量子機械学習を用いてヒッグス粒子を発見した。マリア・スピロプル氏

12月、リゲッティは19量子ビットの汎用量子コンピュータを用いて、物体を自動的にグループ化する方法を実証しました。研究者たちは、都市のリストとそれらの間の距離をコンピュータに入力し、各都市を2つの地理的地域に分類させるのと同等のことを行いました。この問題を難しくしているのは、ある都市の指定が他のすべての都市の指定に依存しているため、システム全体を一度に解かなければならないことです。

リゲッティチームは各都市に量子ビットを効果的に割り当て、どのグループに割り当てられたかを示しました。量子ビット(リゲッティのシステムでは磁気的ではなく電気的)の相互作用を通じて、各量子ビットのペアは反対の値を取ろうとします。つまり、その際にエネルギーが最小化されるのです。明らかに、2つ以上の量子ビットを持つシステムでは、いくつかの量子ビットのペアが同じグループに割り当てられることに同意する必要がありました。近隣の都市は、同じグループに所属するためのエネルギーコストが遠方の都市よりも低かったため、より容易に同意しました。

システムを最低エネルギー状態にするために、RigettiチームはD-Waveアニーラーに似たアプローチを採用した。彼らは量子ビットを、あらゆるクラスター割り当ての重ね合わせ状態に初期化した。量子ビットが短時間相互作用できるようにすることで、同じ値または反対の値を取るようにバイアスをかけた。次に、水平磁場に相当するものを適用し、量子ビットが必要に応じて反転できるようにすることで、システムを最低エネルギー状態へと少しずつ押し進めた。相互作用と反転というこの2段階のプロセスを、システムのエネルギーが最小になるまで繰り返し、都市を2つの異なる地域に分類した。

これらの分類タスクは有用だが、単純明快だ。機械学習の真のフロンティアは生成モデルにある。生成モデルは単に子犬や子猫を認識するだけでなく、これまでに存在しなかった動物の原型、つまりかつて存在した動物と同じくらい愛らしい動物を生成できる。「子猫」と「子犬」のカテゴリーを自ら判断したり、尻尾や足が欠けている画像を再構成したりすることも可能かもしれない。「これらの技術は機械学習において非常に強力で有用だが、非常に難しい」と、D-Waveの主任科学者であるモハマド・アミン氏は述べた。量子コンピュータによる支援があれば大いに歓迎されるだろう。

D-Waveをはじめとする研究チームがこの課題に取り組んでいます。このようなモデルを訓練するには、量子ビット間の磁気的または電気的相互作用を調整し、ネットワークがサンプルデータを再現できるようにする必要があります。そのためには、ネットワークを通常のコンピューターと組み合わせます。ネットワークが重労働、つまり特定の相互作用の選択が最終的なネットワーク構成にどのような意味を持つかを計算する作業を行い、パートナーコンピューターはこの情報を用いて相互作用を調整します。昨年のデモンストレーションでは、NASA量子人工知能研究所の研究者であるアレハンドロ・ペルドモ=オルティス氏と彼のチームが、D-Waveシステムに手書きの数字の画像を提示しました。システムは0から9までの数字に対応する10のカテゴリーを認識し、独自の走り書きの数字を生成しました。

トンネルへのボトルネック

まあ、それは良いニュースだ。悪いのは、どんなに優れたプロセッサでも、データを取り込めなければ意味がないということだ。行列代数アルゴリズムでは、1回の演算で16個の数値からなる行列を操作できるかもしれないが、その行列を読み込むには16回の演算が必要となる。「状態準備、つまり古典データを量子状態に置く作業は完全に無視されているが、これは最も重要な部分の一つだと思う」と、量子コンピューティングのスタートアップ企業Xanaduの研究者であり、量子機械学習の博士号を最初に取得した一人であるマリア・シュルド氏は述べている。物理的な形で展開される機械学習システムは、問題を量子ビットのネットワークに埋め込み、量子ビットが適切に相互作用するようにする方法という、同時に難題に直面している。

ようやくデータを入力し終えたら、量子システムが進行中の計算を中断することなくデータと相互作用できるような方法で保存する必要があります。ロイド氏らは光子を用いた量子RAMを提案していますが、最先端の量子コンピュータに搭載されている超伝導量子ビットやトラップイオンといった技術に類似した装置を持つ研究者はいません。「これは量子コンピュータ自体の構築という問題に加え、さらに大きな技術的課題です」とアーロンソン氏は言います。「私が話を聞いた実験者たちから受けた印象は、彼らが恐怖を感じているというものでした。彼らは、どうやって構築を始めればいいのか全く分かっていないのです。」

そして最後に、データをどのように取り出すのでしょうか?それは、機械の量子状態を測定することを意味します。測定では一度にランダムに抽出された単一の数値しか返されないだけでなく、状態全体が崩壊し、残りのデータは取り出す前に消去されてしまいます。すべての情報を抽出するには、アルゴリズムを何度も実行する必要があります。

しかし、すべてが失われたわけではありません。ある種の問題では、量子干渉を利用できます。つまり、間違った答えが互いに打ち消し合い、正しい答えが互いに強化されるように演算を振り付けることができるのです。そうすれば、量子状態を測定する際に、単なるランダムな値ではなく、望ましい答えが得られます。しかし、干渉をうまく利用できるアルゴリズムは、総当たり探索などごくわずかであり、速度向上は通常、それほど大きくありません。

研究者たちは、データの入出力における近道を発見したケースもある。2015年、ロイド氏、カナダのウォータールー大学のシルヴァーノ・ガルネローネ氏、南カリフォルニア大学のパオロ・ザナルディ氏は、ある種の統計分析ではデータセット全体を入力したり保存したりする必要がないことを示しました。同様に、いくつかの主要な値で十分な場合は、すべてのデータを読み出す必要もありません。例えば、テクノロジー企業は機械学習を用いて、膨大な消費者習慣のマトリックスに基づいて、視聴すべき番組や購入すべき商品を提案しています。「NetflixやAmazonなどのサービスであれば、実際にはマトリックスをどこかに書き出す必要はありません」とアーロンソン氏は言います。「本当に必要なのは、ユーザーへの推奨事項を生成することだけです。」

これらすべてから、次のような疑問が浮かび上がってくる。量子マシンが特殊なケースでのみ強力であるならば、古典マシンも同様に強力なのだろうか?これはこの分野における未解決の大きな問題である。結局のところ、普通のコンピュータは非常に高性能だ。大規模データセットを扱う際に通常選択される手法であるランダムサンプリングは、実は量子コンピュータと非常によく似ている。量子コンピュータは、内部で何が起ころうとも、最終的にはランダムな結果を返す。シュルド氏は次のように述べている。「私はこれまで多くのアルゴリズムを試し、『これはすごい。こんなに高速化できた』と感じてきました。そして実際に、ただの楽しみのために古典コンピュータ用のサンプリング手法を書いてみたところ、サンプリングでも同じことができることに気づいたのです。」

量子機械学習がこれまでに達成してきた成功を振り返ると、どれもアスタリスク付きだ。D-Waveマシンを例に挙げてみよう。車の画像とヒッグス粒子を分類する際、このマシンは従来のマシンと比べて速度が遅くなかった。「この論文で触れていないことの一つは、量子加速についてです」と、ヒッグス研究チームのメンバーでGoogle DeepMindのコンピューターサイエンティスト、アレックス・モット氏は述べた。ハロー・ハシディム・ロイド法などの行列代数アプローチは、行列が疎行列、つまりほとんどがゼロで埋められている場合にのみ高速化を示す。「疎データセットは機械学習において本当に興味深いのか、と問う人はいません」とシュルド氏は指摘した。

量子知能

一方で、既存技術をわずかに上回る改善が時折見られるだけでも、テクノロジー企業は満足するだろう。「最終的に得られるメリットは控えめで、指数関数的ではないものの、2乗的な効果があります」と、マイクロソフト・リサーチの量子コンピューティング研究者、ネイサン・ウィーベ氏は述べた。「十分に大きく、十分に高速な量子コンピュータがあれば、機械学習の多くの分野に革命を起こすことができます。」そして、これらのシステムを使い続ける中で、コンピューター科学者たちは、それらが本質的に高速なのか、そして何のために高速なのかという理論的な謎を解くことになるかもしれない。

シュルド氏はソフトウェア面でもイノベーションの余地があると考えている。機械学習は単なる計算の羅列ではない。独自の構造を持つ複雑な問題群なのだ。「人間が構築するアルゴリズムは、機械学習の面白さや美しさを生み出す要素からは切り離されています」とシュルド氏は語る。「だからこそ私は逆の視点で考え始めました。もし既に量子コンピュータ(小規模なもの)が存在するとしたら、どのような機械学習モデルを一般的に実装できるだろうか?もしかしたら、まだ発明されていないモデルかもしれないのです」。物理学者が機械学習の専門家を感心させたいのであれば、既存モデルの量子バージョンを作るだけでは不十分だろう。

多くの神経科学者が人間の思考構造が身体を持つことの要件を反映していると考えているように、機械学習システムもまた具体化されています。画像、言語、そしてそれらを流れる他のほとんどのデータは物理世界から来ており、その性質を反映しています。量子機械学習も同様に具体化されていますが、その世界は私たちの世界よりも豊かな世界です。量子機械学習が間違いなく真価を発揮する分野は、既に量子化されたデータの処理です。データが画像ではなく、物理学や化学の実験の産物である場合、量子マシンは真価を発揮します。入力の問題はなくなり、従来のコンピューターは過去のものとなるでしょう。

最初の量子機械学習システムは、自己参照的なループを巧みに構築することで、後継システムの設計に役立つ可能性がある。「これらのシステムを実際に使用したい方法の1つは、量子コンピュータ自体を構築することです」とウィーベ氏は述べた。「一部のデバッグタスクでは、それが唯一のアプローチです。」 もしかしたら、それらは私たちをデバッグすることさえできるかもしれない。人間の脳が量子コンピュータであるかどうか(非常に議論の多い問題)はさておき、人間の脳は量子コンピュータであるかのように動作することがある。人間の行動は文脈に依存することで有名であり、私たちの好みは与えられた選択肢によって、論理に反する方法で形成される。この点で、私たちは量子粒子のようなものである。「質問の仕方と順序が重要であり、それは量子データセットでは非常に典型的なことです」とペルドモ=オルティス氏は述べた。そのため、量子機械学習システムは、人間の認知バイアスを研究する自然な方法かもしれない。

ニューラルネットワークと量子プロセッサには共通点が一つあります。それは、そもそもそれらが機能するという驚くべき事実です。ネットワークを学習できるということは、これまで明白ではありませんでした。そして何十年もの間、ほとんどの人がそれが可能になる日が来るとは思っていませんでした。同様に、量子物理学の独特な効果は私たちから非常に隠されているため、量子物理学を計算に利用できるかどうかも明白ではありません。しかし、どちらもうまく機能します。常に機能するとは限りませんが、私たちが期待するよりもはるかに頻繁に機能します。この前例を踏まえると、両者の融合もまた、将来的にその地位を確立する可能性が高いでしょう。

オリジナルストーリーは、数学、物理科学、生命科学の研究の進展や動向を取り上げることで科学に対する一般の理解を深めることを使命とする、シモンズ財団の編集上独立した出版物であるQuanta Magazineから許可を得て転載されました。