1990年代初頭、ウィチタ州立大学の物理学教授エリザベス・バーマンが量子物理学と人工知能(主に当時物議を醸していたニューラルネットワーク技術)を組み合わせ始めたとき、ほとんどの人はこの2つの分野は水と油のように相性が良いと考えていた。 「当時は論文を発表することさえ困難でした。ニューラルネットワークの学術誌では『量子力学とは何か』と尋ねられ、物理学の雑誌では『ニューラルネットワークとは何か』と尋ねられました」と彼女は振り返る。 今日では、これら 2 つの分野を組み合わせるのはごく自然なことのように思えます。ニューラル ネットワークやその他の機械学習システムは、21 世紀で最も影響力のあるテクノロジーになりました。これらのシステムは、ほとんどの人が苦手とするタスク(囲碁やデータマイニングなど)で人間に勝るだけでなく、脳本来のいくつかのタスク(顔認識や言語翻訳など)でも人間を上回っています。これらのシステムは膨大な計算能力を必要とするため、テクノロジー企業はより大型であるだけでなく、より高度なコンピューターを求めています。 数十年にわたる研究の結果、量子コンピュータは現在、他のすべてのコンピュータを上回る計算能力を備えています。量子コンピューターのキラーアプリは、現代の暗号化にとって極めて重要な、大きな数を因数分解する能力であると考えられている。しかし、これには少なくともあと10年はかかるだろう。しかし、現在の基本的な量子プロセッサはすでに機械学習の計算ニーズを満たすことができます。量子コンピューターは、従来のコンピューターでは識別できない微妙なパターンを見つけ出し、膨大な量のデータを 1 ステップで処理することができ、不完全または不確実なデータに直面しても行き詰まることはありません。 「量子コンピューティングの固有の統計的性質と機械学習の間には自然な適合性がある」と、リゲッティ・コンピューティングの物理学者ヨハネス・オッターバッハ氏は言う。 (Rigetti Computing は、カリフォルニア州バークレーに本拠を置く量子コンピュータ企業です。) むしろ、現在の傾向は反対の極端に傾いています。 Google、Microsoft、IBMなどのテクノロジー大手は量子機械学習に多額の投資を行っており、トロント大学も量子機械学習のスタートアップインキュベーターを設立しています。 「『機械学習』は今や流行語になりつつある。『機械学習』に『量子』を加えると、超流行語になる」とモスクワのスコルコボ科学技術研究所の量子物理学者、ジェイコブ・ビアモンテ氏は語った。 しかし、ここでは「量子」という言葉は意味を持ちません。量子機械学習システムは強力だと思われるかもしれないが、実際には一種のロックイン症候群に悩まされているようだ。量子機械学習システムは、人間が理解できるデータではなく、量子状態を処理します。量子状態とデータの相互変換により、システム本来の利点が失われます。同様に、iPhone X の元々のパラメータとパフォーマンスは非常に強力ですが、ネットワーク信号が弱すぎると、古い携帯電話と同じくらい遅くなります。いくつかの特殊なケースでは、物理学者は入力と出力の障壁を克服することができますが、実際の機械学習タスクではこのような状況が存在するのでしょうか?答えは不明のままです。 「まだ明確な答えは出ていません。歴史的に、人々はこうしたアルゴリズムが計算を高速化するかどうかを気にしない傾向がありました」とテキサス大学オースティン校のコンピューター科学者スコット・アーロンソン氏は言う。 ▌量子ニューロン 従来のニューラル ネットワークであれ、量子ニューラル ネットワークであれ、その主なタスクはパターンを認識することです。ニューラル ネットワークは人間の脳にヒントを得て、「ニューロン」と呼ばれる基本的な計算ユニットで構成されています。各ニューロンはスイッチングデバイスと考えることができます。ニューロンは、投票と同じように、他の複数のニューロンの出力を監視でき、十分な数のニューロンがアクティブ状態にある場合、ニューロンはアクティブになります。通常、ニューロンは層状に配置されます。最初のレイヤーは入力(画像ピクセルなど)を受け取り、中間レイヤーは入力のさまざまな組み合わせ(エッジ、幾何学的形状などの構造を表す)を生成し、最後のレイヤーは出力(画像コンテンツの高レベルの説明)を生成します。 ニューロン間の接続は事前に決定されているわけではなく、試行錯誤を通じて調整する必要があることに注意することが重要です。たとえば、ニューラル ネットワークに「猫」または「子犬」というラベルの付いた画像を入力するとします。ネットワークは各画像にラベルを割り当て、それが正しく一致するかどうかを確認し、一致しない場合はニューロン接続を調整します。最初はネットワークの予測はランダムですが、だんだん精度が上がり、10,000 個の例でトレーニングすると、ネットワークは画像内のペットを認識できるようになります。通常のニューラル ネットワークには 10 億個のニューロン接続があり、そのすべてを調整する必要があります。 従来のコンピューターの計算ユニットのすべての接続は巨大なデジタル行列で表現され、ニューラル ネットワークを実行することは単に行列代数を計算することです。従来の方法では、専用のチップ(画像プロセッサなど)を使用してこれらのマトリックス演算を実行します。行列演算の実行に関しては、量子コンピュータに匹敵するものはありません。 「量子コンピューターは、大規模な行列やベクトルをはるかに高速に処理できる」と、MITの物理学者で量子コンピューティングの先駆者であるセス・ロイド氏は語った。 計算を実行する際、量子コンピュータは量子システムの指数関数的特性を利用できます。量子システムの情報記憶容量の大部分は、個々のデータ単位である量子ビット(従来のコンピュータのビットに相当)ではなく、これらの量子ビットの共通特性によって実現されます。 2 つの量子ビットには、オン/オン、オフ/オフ、オン/オフ、オフ/オンの 4 つの接続状態があります。各接続状態には特定の重みまたは「振幅」が割り当てられ、ニューロンを表します。 3 つの量子ビットは 8 つのニューロンを表すことができます。 4 つの量子ビットは 16 個のニューロンを表すことができます。機械の計算能力は飛躍的に向上しています。実際、ニューロンはシステム全体に分散しています。 4 つの量子ビットの状態を処理する場合、コンピューターは一度に 16 個の数値を処理できますが、従来のコンピューターは一度に 1 つの数値しか処理できません。 ロイドは、60 量子ビットのコンピューターは人類が 1 年間に生成するすべてのデータと同量のデータをエンコードでき、300 量子ビットのコンピューターは観測可能な宇宙の従来の情報コンテンツをエンコードできると見積もっています。 (IBM、Intel、Googleが共同開発した量子コンピュータは、約50量子ビットを備えた、現在最も先進的な量子コンピュータです)。ただし、前提として、各振幅は従来のビットに対応します。アーロンソン氏はこう述べています。「実際、振幅は連続した値(複素数)です。」信頼性の高いテスト精度を得るために、15 ビットの情報を保存できます。 しかし、量子コンピュータの情報記憶容量は計算速度を速めるものではありません。重要なのは量子ビットをどのように使うかです。 2008年、ロイド氏、MITの物理学者アラム・ハロー氏、イスラエルのバル・イラン大学のコンピューター科学者アビナタン・ハシディム氏は、量子コンピューターが行列の逆行列という極めて重要な代数演算を実行する方法を示した。彼らは、全体の操作を量子コンピュータで実行できる一連の論理操作に分解しました。彼らのアルゴリズムは、多くの種類の機械学習アルゴリズムに適用できます。さらに、必要な計算回数は、大きな数を因数分解する場合よりも少なくなります。量子コンピュータは、ノイズの影響を受ける前に分類タスクを迅速に完了できます。 「完全に汎用的でフォールトトレラントな量子コンピュータが登場するまで、量子コンピューティングは量子的優位性を提供できる」とIBMのトーマス・J・ワトソン研究センターのクリスタン・テメ氏は語った。 ▌システムに問題を解決させる これまでのところ、私たちは 4 量子ビット コンピューター上で量子行列代数に基づく機械学習を実装しただけです。量子機械学習における実験的成功のほとんどは、異なるアプローチを採用しています。量子システムはネットワークを模倣するだけでなく、ネットワークそのものなのです。各量子ビットはニューロンを表します。このアプローチでは、コンピューターが指数関数的な特性を利用することはできませんが、量子物理学の他の特徴を利用することはできます。 バンクーバー近郊に拠点を置くD-Wave Systems社が製造した量子プロセッサは2,000量子ビットを備えており、現在入手可能な量子プロセッサとしては最大規模となる。これは、ほとんどの人がコンピューターとして考えているものとは異なります。その主なタスクは、入力データに対して一連の操作を実行して出力を生成することではなく、データの内部の一貫性を見つけることです。各量子ビットは、上、下、または上下両方(重ね合わせ)を向いた小さな電磁石のように動作する超伝導ループです。量子ビットを磁気的に相互作用させることで、量子ビットを「配線」することができます。 D-Wave Systems 社が機械学習アプリケーション向けに開発したプロセッサ。 システムを実行するには、まず水平磁場を適用する必要があります。これにより、量子ビットが上下の均等な重ね合わせ、つまり空白状態に事前設定されます。データを入力する方法はいくつかあります。場合によっては、量子ビットの層を予想される入力値に固定できますが、ほとんどの場合、量子ビットの相互作用の範囲内で入力を導入する必要があります。次に、量子ビットが相互に相互作用するようにします。いくつかの量子ビットは同じ方向に整列し、いくつかは反対方向に整列し、水平磁場の影響下で、選択された方向に反転します。こうすることで、これらの量子ビットは他の量子ビットの反転をトリガーすることができます。多くの量子ビットがずれているため、最初は多くの反転が発生します。反転が止まったら、水平磁場をオフにして、量子ビットを固定位置にロックできます。この時点で、量子ビットは上下の重ね合わせ状態となり、出力が入力に対応することが保証されます。 重要なのは、Qubit の最終的な配置を予測するのが難しいことです。自然に発生するタスクを完了することで、システムは通常のコンピュータでは解決が難しい問題を解決できます。 「アルゴリズムを使う必要はありません。このシステムは従来のプログラミングとはまったく異なります。システム自体が問題を解決します」と東京工業大学の物理学者、西森秀稔氏は説明する。 D-Wave コンピュータの動作原理は西森秀稔氏によって提案されました。 量子ビットの反転は量子トンネル効果によって行われます。この効果は自然な傾向であり、量子システムは最適な構成を選択する必要があり、次善の策に落ち着くことはできません。ビットを反転するためにトンネリングする代わりにランダムな揺れを使用して、同様に動作する従来のネットワークを構築できます。いくつかのタスクでは、このようなネットワークの方がパフォーマンスが優れています。しかし興味深いことに、機械学習で生じる問題に関しては、量子ネットワークは最先端の結果をより早く達成するようです。 D-Wave コンピュータにも欠陥があります。現在の構成では、D-Wave コンピューターはノイズが多く、限られた数の操作しか実行できません。機械学習アルゴリズムは本質的にノイズに耐性があり、雑然とした現実世界を理解し、気が散る背景の中で子猫と子犬を区別することができます。 「ニューラルネットワークはノイズに対して非常に堅牢です」とベアマン氏は言う。 ハートムート・ネヴェン氏は、Google のコンピューター科学者であり、拡張現実技術の先駆者であり、Google Glass プロジェクトの共同創設者です。その後、彼は量子情報処理を研究するチームを率いた。 2009年、チームは初期のD-Waveコンピューターが機械学習タスクを適切に実行できることを実証しました。彼らは、このコンピューターを単層ニューラル ネットワークとして使用し、20,000 枚のストリート ビュー画像のデータベース内の画像を「車」と「車以外」の 2 つのカテゴリに分類しました。(覚えておいてください: この D-Wave コンピューターは、2018 年にオンラインになった 50 量子ビット システムとはまったく異なるモデルです。)ネヴェンのチームは、D-Wave コンピューターと従来のコンピューターを組み合わせて、画像のさまざまな統計パラメーター (量) を分析し、それらのパラメーターが画像内の車の存在に対してどの程度敏感であるかを計算します。通常、それほど敏感ではありませんが、少なくともコインを投げるよりは優れています。これらのパラメータの特定の組み合わせにより、車を正確に識別できますが、特定のモデルを識別することはできません。これはニューラル ネットワークの役割です。 チームは各パラメータに 1 つの量子ビットを割り当てました。量子ビットの値が 1 で安定している場合、対応するパラメータは有用としてマークされます。量子ビットの値が 0 で安定している場合、マークされません。 Qubit の磁気相互作用は、問題の要件をエンコードできます。たとえば、最良の効果を区別するパラメータのみを含めることで、最終的なパラメータの選択が可能な限り単純かつ明確になることが保証されます。テストの結果、D-Wave コンピューターは車を認識できるという結論が出ました。 昨年、カリフォルニア工科大学の素粒子物理学者マリア・スピロプル氏と南カリフォルニア大学の物理学者ダニエル・ライダー氏が率いるチームは、陽子の衝突を「ヒッグス粒子」と「非ヒッグス粒子」に分類するという素粒子物理学の問題にこのアルゴリズムを適用した。研究チームは陽子を生成する衝突を選択し、基礎的な粒子理論を用いて、運動量の特定の閾値を超えるなど、ヒッグス粒子の短命な存在を特徴付ける粒子特性を予測した。研究者たちは、8つの粒子特性とそれらの特性の28の組み合わせ、合計36の候補信号を考慮し、USCの新しい量子コンピューターに最良の選択をするよう依頼した。コンピューターは 16 個の有用な変数と 3 個の *** 変数を識別しました。量子コンピュータは、標準的なプロセスよりも少ないデータで正確な分類タスクを実行できます。 「トレーニングセットが小さいという条件下では、量子コンピューティング手法は高エネルギー物理学における従来の手法よりも正確である」とライダー氏は述べた。
カリフォルニア工科大学の物理学者マリア・スピロプルは、量子機械学習を使ってヒッグス粒子を探索している。 昨年12月、Rigettiは汎用19量子ビット量子コンピュータを使用してオブジェクトを自動的に分類する方法を実証しました。基本的に、研究者たちはコンピューターに都市名のリストと都市間の距離を入力し、コンピューターに都市を 2 つの地理的地域に分類させました。この問題の難しさは、都市がどの地理的地域に属するかはシステムが他の都市をどのように分類するかによって決まるため、システム全体を一度に解決する必要があることです。 リゲッティ氏のチームは各都市に量子ビットを割り当て、どのカテゴリーに属するかを示した。量子ビット間の相互作用(Rigetti のシステムでは、この相互作用は磁気的ではなく電気的です)を通じて、量子ビットの各ペアは反対の値をとろうとします。そうすることで、量子ビットのエネルギーが最小化されます。明らかに、2 つ以上の量子ビットを持つシステムでは、一部の量子ビットのペアは同じクラスにのみ割り当てることができます。近くの都市が同じカテゴリに割り当てられる可能性が高くなります。これは、同じカテゴリに割り当てられる近隣の都市のエネルギー損失が、遠くにある都市のエネルギー損失よりも少ないためです。 システムのエネルギーを最小限に抑えるために、Rigetti のチームは、ある意味で D-Wave 量子アニーリングに似たアプローチを使用しました。まず、量子ビットをすべての可能なクラスター割り当ての重ね合わせに事前設定します。次に、量子ビットは短時間相互に相互作用し、同じ値または反対の値をとるように量子ビットをバイアスします。次に、水平磁場をシミュレートするメカニズムを適用し、量子ビットが傾いたときに反転できるようにして、システムを最適なエネルギー状態に近づけました。 ***、彼らは相互作用と反転という 2 段階のプロセスを繰り返し、システムのエネルギーが *** に減少し、都市が 2 つの異なるエリアに分類されるまで続けました。 これらの分類タスクは便利ですが、単純です。機械学習の最も優れた点は生成モデルです。これは子猫や子犬を認識できるだけでなく、今まで存在しなかった動物でありながら本物の動物と同じくらいかわいい、新しいオリジナルモデルを生成することもできます。このモデルは、「子猫」と「子犬」を独自に区別したり、尻尾や足が欠けている画像を修復したりすることもできます。 「これらの手法は機械学習において非常に強力かつ有用だが、適用が難しい」とD-Waveの上級科学者モハメド・アミン氏は語った。量子コンピューティングは、生成モデルに適用できれば非常に普及するでしょう。 D-Wave や他の研究チームはこの問題に取り組み始めました。生成モデルのトレーニングには、ネットワークがいくつかのサンプル データを複製できるように、量子ビット間の (磁気的または電気的) 相互作用を微調整することが含まれます。これを実現するには、ニューラル ネットワークと通常のコンピューターを組み合わせて使用できます。ニューラル ネットワークは、選択された相互作用が最終的なネットワーク構成にどのような意味を持つかを理解するという難しいタスクを処理し、コンピューターはこの情報を使用して量子ビット間の相互作用を微調整します。昨年、NASAの量子人工知能研究所の研究者であるアレハンドロ・ペルドモ・オルティス氏と彼のチームは、D-Waveシステムを使用して手書きの数字の画像を処理する論文を報告した。その結果、システムは 10 個のカテゴリを認識し、0 から 9 までの 10 個の数字それぞれに 1 つのカテゴリを割り当て、独自の手書き数字も生成しました。 ▌量子コンピュータのボトルネック 残念なことに、強力なプロセッサを持っていても、そこにデータをロードできなければ意味がありません。行列代数では、1 回の操作で 16 個の数値の行列を処理できますが、行列をロードするには 16 個の操作が必要です。 「人々は量子状態の準備、つまり古典的なデータを量子状態にする作業を完全に無視してきた。これが最も重要なステップだと思う」と量子コンピューティングの新興企業ザナドゥの研究者であるマリア・シュルド氏は語った。彼女は量子機械学習の博士号を取得した最初の人物の一人です。機械学習システムを物理マシンに導入する場合、多くの場合、問題を量子ビット ネットワークに組み込む方法、および量子ビットが適切に相互作用するようにする方法というジレンマに直面します。 データが読み込まれたら、それを保存し、量子システムがデータと対話するときに進行中の計算に影響を与えないようにする必要があります。ロイド氏と彼のチームは光子を使った量子RAMを提案しているが、高度な量子コンピューターで使用されている技術である超伝導量子ビットやトラップイオンを使った同様のデバイスは現在のところ存在しない。 「これは量子コンピュータそのものの構築を超えた、さらなる技術的課題です。何人かの実験者と話してみると、彼らはこれらの課題に気後れするような態度で取り組んでいることがわかりました。彼らはそのような量子コンピュータの構築をどうやって始めればいいのか分からないのです」とアーロンソン氏は語った。 ***もう1つ質問があります: データをエクスポートするにはどうすればよいですか?つまり、コンピューターの量子状態をテストすると、一度に 1 つのランダムに抽出された数字が返されるだけでなく、状態全体が崩壊し、他のすべてのデータが消去されてから、データが復元されることになります。すべての情報を回復するには、アルゴリズムを何度も実行することしかできません。 しかし、まだ希望はあります。いくつかの問題では、量子干渉を利用することができます。つまり、誤った回答が排除され、正しい回答が強化されるように操作プロセスを設計することができます。そうすれば、量子状態が検出されると、コンピューターはランダムな値ではなく、必要な値を返します。しかし、量子干渉をうまく利用できるアルゴリズムは少数(総当たり検索など)しかなく、速度も中程度です。 いくつかのタスクでは、研究者はデータの入力と出力のショートカットを発見しました。 2015 年、ロイド氏、カナダのウォータールー大学のシルバノ・ガルネローネ氏、南カリフォルニア大学のパオロ・ザナルディ氏は、特定の種類の統計分析では、データセット全体を入力または保存する必要がないことを示しました。同様に、いくつかのキー値で十分な場合は、すべてのデータを読み取る必要はありません。たとえば、テクノロジー企業は機械学習を使用して、消費者の習慣に関する膨大なデータを基にプログラムや製品をマトリックス化し、ユーザーに推奨しています。 「Netflix や Amazon は、どこでも生成されているマトリックスを採用する必要はなく、ユーザーへの推奨事項を生成するだけでよい」とアーロンソン氏は語った。 これらすべてから、次のような疑問が浮かび上がります。量子コンピューターが特定の特殊なタスクにのみ優れているのであれば、従来のコンピューターもそれらのタスクを実行できるのでしょうか?これは量子コンピューティングの分野における大きな未解決問題です。結局のところ、普通のコンピューターも非常に強力です。大規模なデータセットを処理するための一般的なアプローチであるランダム化は、本質的に量子コンピュータに似ています。システム内でどのような計算が実行されても、返される結果はランダムです。 「私が取り組んだアルゴリズムの多くは、『これはすごい、もっと速くできる』というものでした」とシュルド氏は言う。「しかし、楽しみのために、古典的なコンピューターで動作するサンプリング アルゴリズムを書いて、同じことをサンプリング アルゴリズムで実行できることに気付きました。」 これまでの量子機械学習の成果を振り返ってみると、すべてにアスタリスクが付いていることがわかります。たとえば、D-Wave コンピューターを例に挙げてみましょう。車やヒッグス粒子の画像を分類する場合、D-Wave コンピューターは従来のコンピューターよりも高速ではありません。 「この論文で触れなかったことの一つは、量子の高速化です」と、グーグルのディープマインドチームのコンピューター科学者、アレックス・モット氏は言う。彼はかつてヒッグス研究チームの一員だった。行列代数法 (Harrow-Hassidim-Lloyd アルゴリズムなど) は、行列がスパース (ほとんどの要素がゼロ) の場合にのみ量子的な高速化を実現します。 「スパースデータセットは実際に機械学習にとって興味深いものなのでしょうか?これまで誰もその質問をしたことがない」とシュルド氏は言う。 量子知能 そうは言っても、既存の手法が時折進歩すると、テクノロジー企業は喜ぶ。 「私たちが見ているこれらの利点は控えめなものです。指数関数的ではありませんが、少なくとも2乗的です」と、マイクロソフトリサーチの量子コンピューティング研究者、ネイサン・ウィーベ氏は語った。 「量子コンピューターが十分に大きくて高速であれば、機械学習の多くの分野に革命を起こすことができるでしょう。」これらのシステムを適用することで、コンピューター科学者は、それらが本質的に高速であるかどうか、そしてその理由は何かという理論的な謎に取り組むことができます。 シュルド氏は、量子コンピューティングにはソフトウェア面でも革新の余地があると考えている。機械学習は単なる計算上の問題ではなく、それぞれが独自の構造を持つ複雑な問題のネットワークでもあります。 「人間が書いたアルゴリズムは、機械学習の面白さや美しさから切り離されています。だからこそ私は他のアプローチを模索し、量子コンピューター(小型のもの)があれば、どんな機械学習モデルを実行できるだろうかと考え始めました。おそらく、そのようなモデルはまだ発明されていないのでしょう」とシュルド氏は語った。物理学者が機械学習の専門家を感心させたいのであれば、既存のモデルの量子バージョンを構築する以上のことを考えなければならないだろう。 現在、多くの神経科学者は、人間の心の構造は身体の要件を反映していると信じており、実際、機械学習システムには他の多くのものも含まれています。これらのシステムが処理する画像、言語、その他ほとんどのデータは現実世界から取得され、その世界のさまざまな特徴を反映しています。同様に、量子機械学習システムは包括的であり、私たちの世界よりもはるかに大きな世界を反映しています。量子機械学習システムが量子データの処理において優れた成果を上げることは間違いありません。量子コンピュータは、データが画像ではなく物理学や化学の実験の成果である場合に真価を発揮します。データ入力の問題が解決されれば、従来のコンピューターは完全に時代遅れになるでしょう。 ***バッチサブマシン学習システムは、後続のシステムの設計に役立ち、優れた自己参照ループを形成します。 「このようなシステムを使って量子コンピュータを構築することができます。そして、特定のデバッグ作業では、これが唯一の方法です」とウィーベ氏は語った。おそらくこれらのシステムは私たちの間違いを修正することさえできるでしょう。人間の脳が量子コンピュータであるかどうかという、激しく議論されている問題はさておき、脳は時々量子コンピュータであるかのような振る舞いをすることがあります。周知のとおり、人間の行動は状況に依存します。つまり、既存の選択によって私たちの好みが決まりますが、これは実際には私たちの論理に反します。この観点から見ると、私たちは量子粒子のように見えます。 「人間が質問する方法と秩序を重視することは、量子データセットの非常に典型的な特性です」とペルドモ・オルティス氏は言う。量子機械学習システムは、人間の認知バイアスの研究に役立つ可能性があるようです。 ニューラル ネットワークと量子プロセッサには共通点が 1 つあります。それは、どちらも機能するということです。ニューラル ネットワークのトレーニングは決して当然のことではなく、何十年もの間、ほとんどの人はそれが実行可能であるかどうか疑問視してきました。同様に、量子物理学がコンピューティングに使用できるかどうかも不明です。なぜなら、その独自の機能についてはまだほとんどわかっていないからです。しかし、ニューラル ネットワークと量子プロセッサは両方とも実現されており、必ずしも可能というわけではありませんが、それでも私たちの期待を超えています。これを考慮すると、量子物理学とニューラルネットワークの組み合わせも将来的に注目を集めるようになると思われます。 オリジナルリンク: https://www.quantamagazine.org/job-one-for-quantum-computers-boost-artificial-intelligence-20180129/ |
<<: 2017 年最もホットなテクノロジーである人工知能について、あなたはどれくらい知っていますか?
>>: 6 つの大きな障害に直面していますが、AI イノベーションはそれらをうまく克服できるでしょうか?
自動化の需要が継続的に高まっているため、ロボット産業の発展は加速段階に入り、わが国のロボット市場は最...
世界で最も注目されている人工知能研究機関のひとつである Google DeepMind は、常に私た...
近年、デジタル経済の継続的な発展を背景に、人工知能は急速に発展し、さまざまな応用シナリオと深く統合さ...
人工知能 (AI) と機械学習 (ML) のテクノロジーは、世界中のほぼすべての業界に革命をもたらし...
[51CTO.comより引用] 2017年7月21日から22日まで、51CTO主催の人工知能をテーマ...
好きなように置き換えてください。保持する必要がある領域をフレームするだけで、AI がすべてを置き換え...
[[442725]]この記事はWeChatの公開アカウント「Python Technology」から...
ビデオセグメンテーションは、自動運転、ロボット工学、ビデオ編集などのアプリケーションシナリオの基本的...
[[222276]]...
[[163852]]どれほど恐ろしいモンスターにも弱点はあります。なぜAlphaGoは皆を驚かせる...
[[350122]]一部のデバイスは、正しく動作するために適切な方向に設置する必要があります。たとえ...
[[185313]]原作者 | ライムンド・マンテローラ編集チーム | Aileen、Huang W...
大規模言語モデルのパラメータサイズは拡大しているものの、モデル内のパラメータがどのように機能するかを...