量子コンピュータの公開:まだ多くのボトルネックがあり、最初の課題は機械学習の加速です

量子コンピュータの公開:まだ多くのボトルネックがあり、最初の課題は機械学習の加速です

編集者注: 量子コンピューティングと機械学習の融合は、急成長している研究分野となっています。人々の期待に応えられるでしょうか? Quantum 誌は、量子コンピュータの開発と機械学習におけるその利用について詳しく説明した記事を掲載しました。

[[220541]]

1990年代初頭、ウィチタ州立大学の物理学教授エリザベス・バーマン氏が量子物理学と人工知能(特に当時物議を醸していたニューラルネットワーク技術)を組み合わせる研究を始めたとき、ほとんどの人は彼女が水と油を混ぜているのだと思った。 「論文を出版するまでに長い時間がかかりました」と彼女は振り返る。 「ニューラル ネットワークのジャーナルは『量子力学とは何ですか?』と尋ねます。物理学のジャーナルは『ニューラル ネットワークとは何ですか?』と尋ねます。」

今日では、この 2 つの組み合わせは世界で最も自然なことのように思えます。 ニューラル ネットワークやその他の機械学習システムは、21 世紀の最も破壊的なテクノロジーになりました。ロボットは、チェスやデータマイニングなど、ほとんどの人間が苦手とするタスクで人間に勝るだけでなく、顔認識や言語翻訳など、人間の脳が行うタスクでも人間を上回っています。 これらのシステムは膨大な計算能力によって可能となるため、テクノロジー企業がより大きなコンピューターに目を向けるだけでなく、まったく新しいマシンの開発に取り組むのは必然です。

数十年にわたる研究の結果、量子コンピュータは地球上のすべてのコンピュータを上回る計算能力を開発しました。彼らのキラーアプリケーションは、現代の暗号化技術の鍵となる大量のデータを処理するものとしてよく挙げられます。しかし、これは少なくとも10年先の話です。 しかし、今日の最も初歩的な量子プロセッサでさえ、機械学習のニーズに驚くほどよく適合しています。 これらは、不完全または不確実なデータで行き詰まることなく、従来のコンピュータが見逃す微妙なパターンを見つけ出し、膨大な量のデータを 1 つのステップで処理します。 「量子コンピューティングの固有の統計的性質と機械学習の間には自然な融合がある」と、カリフォルニア州バークレーの量子コンピューター企業、リゲッティ・コンピューティングの物理学者、ヨハネス・オッターバッハ氏は言う。

むしろ、振り子は反対の極端に振れてしまった。 Google、Microsoft、IBMなどのテクノロジー大手は、トロント大学のスタートアップ・インキュベーターと同様に、量子機械学習に多額の投資を行っている。 「『機械学習』は流行語になりつつある」とモスクワのスコルコボ科学技術研究所の量子物理学者、ヤコブ・ビアモンテ氏は言う。「これを量子と組み合わせると、スーパーな流行語になる」 ”

しかし、ここでの「量子」という言葉は、私たちが考えている意味とは異なります。 量子機械学習システムは強力であると思われるかもしれませんが、一種のロックイン症候群に悩まされています。 これは人間が読めるデータではなく量子状態に基づいて動作し、その明らかな利点は両者間の変換によって打ち消されます。 これは iPhone X と似ています。iPhone X は、その優れた仕様にもかかわらず、非常に悪い携帯電話会社を利用している場合は、古い電話と同じくらい遅くなります。 いくつかの特殊なケースでは、物理学者はこの「入出力」のボトルネックを克服できますが、実際の機械学習タスクでこれが実現できるかどうかは不明です。 「まだ決定的な答えは出ていません」とテキサス大学オースティン校のコンピューター科学者スコット・アーロンソン氏は言う。「こうしたアルゴリズムが実際に計算を高速化するのかどうかについては、人々はあまり真剣に考えていません。」

量子ニューロン

従来のニューラル ネットワークであれ、量子ニューラル ネットワークであれ、その主な役割はパターンを認識することです。 ニューラル ネットワークは人間の脳にヒントを得て、「ニューロン」と呼ばれる基本的な計算ユニットで構成されています。 それぞれはスイッチデバイスと同じくらい単純なものになります。ニューロンは投票のように他の複数のニューロンの出力を監視し、十分な数のニューロンがアクティブになると、ニューラル ネットワークが起動します。 通常、ニューロンは層状に配置されます。 最初のレイヤーは入力 (画像ピクセルなど) を受け取り、中間レイヤーはさまざまな種類の入力 (エッジや幾何学的形状などの構造を表す) を作成し、最後のレイヤーは出力 (画像コンテンツの高レベルの説明) を生成します。

重要なのは、ルートは事前に固定されているのではなく、試行錯誤のプロセスを通じて開発されるということです。 ネットワークには、「子猫」または「子犬」というラベルの付いた画像が与えられる場合があります。ニューラル ネットワークは、画像ごとにラベルを割り当て、正しく一致するかどうかを確認し、一致しない場合はニューロンの接続を調整します。 最初は推測がランダムでしたが、その後精度が上がり、約 10,000 の例を扱った後、精度が劇的に向上しました。 本格的なニューラル ネットワークには 10 億の相互接続が存在する可能性があり、そのすべてを調整する必要があります。

従来のコンピュータでは、これらすべての相互接続は巨大な数値行列で表現され、ネットワークを実行するには行列代数を実行する必要があります。 従来、これらの行列演算は GPU などの専用チップにアウトソーシングされていました。 しかし、量子コンピュータよりも優れたものはありません。 「量子コンピューターを使えば、大きな行列やベクトルの処理をはるかに高速に、しかも指数関数的に高速に実行できる」と、MITの物理学者で量子コンピューティングの先駆者であるセス・ロイド氏は言う。

このタスクでは、量子コンピュータは量子システムの指数関数的な特性を利用することができます。 量子システムの膨大な情報記憶容量は、個々のデータ単位(量子ビット、つまり従来のコンピュータビットの量子版)にあるのではなく、これらの量子ビットの集合的な特性にあります。 2 つの量子ビットには、オン/オン、オフ/オフ、オン/オフ、オフ/オンの 4 つの結合状態があります。 それぞれには、ニューロンを表す特定の重み、つまり「振幅」があります。 3 番目の量子ビットを追加すると、8 つのニューロンを表すことができ、4 番目の量子ビットを追加すると、16 個のニューロンを表すことができます。 機械の能力は飛躍的に増加しました。 実際には、ニューロンはシステム全体に広がっています。 4 量子ビットの状態で動作する場合、一度に 16 個の数字を処理しますが、従来のコンピューターではそれらの数字を 1 つずつチェックする必要があります。

ロイドは、60 量子ビットがあれば人類が 1 年間に生み出すデータ量に相当するデータをエンコードするのに十分であり、300 量子ビットがあれば観測可能な宇宙の古典的な情報内容を伝達できると見積もっています。 (IBM、Intel、Google が現在構築している最高の量子コンピュータには 50 量子ビットがあります。) これは、各大きさが 1 ビットであると仮定しています。 実際、振幅は連続的(実際には複素数)であり、信頼できる実験精度のために 15 ビットの情報を保存できるとアロンソン氏は述べた。

しかし、量子コンピューターの情報保存能力によって、コンピューターの動作速度が速くなるわけではありません。 鍵となるのは、これらの量子ビットをどのように使用するかです。 2008年、MITの物理学者アラム・ハロー氏とイスラエルのバル・イラン大学のコンピューター科学者アビナタン・ハシディム氏は、行列の逆行列を求めるという極めて重要な代数演算を実行する方法を示した。彼らはそれを量子コンピュータで実行できる一連の論理演算に分解しました。 彼らのアルゴリズムは、さまざまな機械学習技術に適用できます。 また、ほとんどのアルゴリズムのように多数のアルゴリズム手順を必要としません。 コンピューターは、今日のテクノロジーの最大の制限要因である「ノイズ」が現れて計算を妨害する恐れが出る前に、分類タスクを完了することができます。 「完全に汎用的でフォールトトレラントな量子コンピュータが完成する前に、量子優位性を獲得できる可能性がある」とIBMのトーマス・J・ワトソン研究所のクリスタン・テメ氏は語った。

機械に問題を解決させましょう

しかし、これまでのところ、量子行列代数に基づく機械学習は、わずか 4 個の量子ビットを持つマシンでのみ実証されています。これまでの量子コンピューターの実験的成功のほとんどは、量子システムがネットワークをシミュレートするだけでなく、ネットワークそのものをシミュレートするという異なるアプローチを採用しています。 各量子ビットはニューロンを表します。 指数計算を実行する能力がないにもかかわらず、このようなデバイスは量子物理学の他の特性を活用できます。

約2,000量子ビットを備えた最大のデバイスは、ブリティッシュコロンビア州バンクーバー近郊に拠点を置くD-Wave Systems社製の量子プロセッサである。 ほとんどの人が考えるコンピューターとは異なり、何らかの入力データから始まり、一連の操作を実行して出力を表示するのではなく、内部の一貫性を見つけることで動作します。 各量子ビットは超伝導ループであり、上向き、下向き、または両方を向いた小さな電磁石として機能し、重ね合わせ状態になります。 量子ビットは、磁気的に相互作用できるようにすることで「配線」されます。

[[220542]]

D-Wave システムのプロセッサは機械学習アプリケーションで使用されます。

システムを実行するには、まず水平磁場を適用し、量子ビットを等しい上下状態の重ね合わせ、つまり白紙の状態と同等の状態に初期化します。 データを入力する方法はいくつかあります。 場合によっては、量子ビットの層を目的の入力値に固定しますが、多くの場合、入力を相互作用の強度に組み込みます。 次に、量子ビットが相互に相互作用するようにします。 いくつかの量子ビットは同じ方向に向こうとし、いくつかは反対方向に向こうとし、水平磁場の影響下で選択した方向に反転します。 そうすることで、他の量子ビットの反転を引き起こす可能性があります。 最初は、その多くが非合理的であるため、このようなことが頻繁に起こります。 しかし、時間が経つにつれて安定し、水平磁場をオフにして閉じ込めることができます。 この時点で、量子ビットは上下のパターンになっており、出力が入力に追従することが保証されます。

量子ビットの最終的な配置がどうなるかは明らかではないが、それが問題の核心である。 このシステムは、単に自然な動作をするだけで、通常のコンピュータでは解決が難しい問題を解決します。 「アルゴリズムは必要ありません」と、D-Waveマシンの動作原理を発明した東京工業大学の物理学者、西森秀稔氏は説明する。 「これは従来のプログラミングとはまったく異なります。自然が問題を解決します。」

量子シフトは量子トンネル効果によって駆動されます。量子トンネル効果は、最適ではない結果に落ち着くのではなく、最適な構成を求める量子システムの自然な傾向です。 同様の原理で動作する従来のネットワークを構築し、トンネルの代わりにランダム ジッターを使用してビットを反転させることもできます。場合によっては、実際にその方が優れていることもあります。 しかし興味深いことに、機械学習で発生する種類の問題の場合、量子ネットワークははるかに速く最大状態に到達できるようです。

D-Wave マシンにも批判者はいる。 非常に「ノイズが多い」ため、現在のバージョンでは限られた操作しか実行できません。しかし、機械学習アルゴリズムの性質上、「ノイズ」を許容することになります。 これらは、混沌とした現実を理解したり、気が散る背景の中で子猫と子犬を区別したりすることを可能にするため、まさに役立ちます。 「ニューラルネットワークはノイズに対して非常に強いことでよく知られている」とベルマン氏は言う。

2009年、Google Glassプロジェクトの共同創設者であるGoogleのコンピューター科学者、ハルトムート・ネヴェン氏が率いるチームが量子情報処理の実験を開始し、初期のD-Waveマシンがいかにして優れた機械学習タスクを実行できるかを実証した。 彼らは、2万の街頭シーンのデータベース上で画像を「車」と「車以外」の2つのカテゴリーに分類する単層ニューラルネットワークとしてこれを実行した。 このマシンには 52 個の動作する量子ビットしかなく、完全な画像をキャプチャするには少なすぎます。 (覚えておいてください: D-Wave マシンは、2018 年にオンラインになった最先端の 50 ビット システムとはまったく異なるタイプです。) そこで、ネヴェンのチームはこのマシンを従来のコンピューターと組み合わせて、これらの画像のさまざまな統計を分析し、それらの量が車の存在に対してどの程度敏感であるかを計算しました。通常、それほど正確ではありませんが、少なくともコインを投げるよりは正確です。 これらの量の組み合わせによって確実に車を識別できますが、どれがそうであるかは明らかではありません。それがニューラル ネットワークの役割です。

チームはそれぞれの量に量子ビットを割り当てました。 この数量が 1 に固定されている場合、対応する数量は有用であるとマークされます。0 は、重要ではないことを意味します。 量子ビットの磁気相互作用は、最終的な選択を可能な限り単純にするために、最も高い識別度を持つ量のみを含めるなどの問題の要件をエンコードします。 その結果、車を発見することができます。

昨年、カリフォルニア工科大学の素粒子物理学者マリア・スピロプル氏と南カリフォルニア大学の物理学者ダニエル・ライダー氏が率いるチームは、陽子の衝突を「ヒッグス粒子」か「非ヒッグス粒子」かに分類するという実際の物理学の問題にこのアルゴリズムを適用した。 彼らは素粒子理論を用いて、ある閾値を超える運動量など、光子のどの特性がヒッグス粒子のつかの間の存在を明らかにする可能性があるかを予測した。 彼らは、8 つの特性と 28 の組み合わせ、合計 36 個の候補信号を検討し、南カリフォルニア大学の最新モデルの D-Wave が最適な選択であることを発見しました。 16 個の変数が有用であり、3 個が絶対に不可欠であると特定されました。 量子コンピュータは、正確な識別を行うために、標準的なプログラムよりもはるかに少ないデータしか必要としません。 「訓練セットが小さければ、量子手法は高エネルギー物理学のコミュニティで使用されている従来の手法よりも精度の点で有利になる」とリダ氏は述べた。

[[220543]]

カリフォルニア工科大学の物理学者マリア・スピロプロウ氏は、量子機械学習を使ってヒッグス粒子を探した。

昨年12月、Rigettiは19量子ビットの汎用量子コンピュータを使用してオブジェクトを自動的にグループ化する方法を実証しました。 研究者たちは、コンピューターに都市のリストと都市間の距離を入力し、都市を2つの地理的地域に分類するように指示した。 この問題の難しいところは、都市がどの地理的地域に属するかは、システムが他の都市をどのように分類するかによって決まるため、同時にシステム全体から始める必要があることです。

Rigetti チームは各都市に量子ビットを効果的に割り当て、どのグループに割り当てられているかを示しました。 量子ビットの相互作用(リゲッティのシステムでは、磁気的ではなく電子的)を通じて、量子ビットの各ペアは反対の値を取ろうとします。そして、そうなると、そのエネルギーは最小化されます。 当然のことながら、2 つ以上の量子ビットを持つシステムでは、一部の量子ビットが同じグループに割り当てられることに同意する必要があります。 近隣の都市は、同じグループ内のより遠い都市よりもエネルギー消費量が低いため、より受け入れられます。

システムをピークエネルギーにするために、リゲッティのチームは D-Wave プログラムと同様のアプローチを使用しました。 彼らは、量子ビットをすべての可能なクラスター割り当ての重ね合わせに初期化しました。 彼らは、量子ビットが短時間相互作用できるようにし、同じ値または反対の値を想定するように量子ビットにバイアスをかけました。 次に、水平磁場のシミュレーションを適用し、量子ビットが傾くと反転できるようにして、システムを最高エネルギー状態に少し近づけました。 彼らは、システムがエネルギーを最小化するまで、この2段階のプロセス(交互に切り替えてから反転)を繰り返し、それによって都市を2つの異なる地域に分割しました。

これらの分類タスクは便利ですが単純です。 機械学習の真の最先端は生成モデルにあります。生成モデルは子犬や子猫を認識できるだけでなく、これまで存在したことのない動物でありながら、既存の動物と同じくらいかわいい新しいプロトタイプを生成することもできます。 子どもたちは「子猫」と「子犬」のカテゴリーを自分で理解したり、尻尾や足が欠けている画像を再現したりすることもできます。 「これらの技術は機械学習において非常に強力で非常に有用だが、非常に難しい」とD-Wave社の人工知能科学者モハメド・アミン氏は語った。 量子支援は前例のないものとなるでしょう。

D-Wave と他の研究チームがこの課題に取り組んでいます。 このようなモデルをトレーニングするということは、ネットワークがサンプルデータを再現できるように、量子ビット間の磁気的または電子的な相互作用を微調整することを意味します。 これを実現するには、インターネットと従来のコンピューターを組み合わせる必要があります。 ネットワークは、特定の相互作用の選択が最終的なネットワーク構成にどのような意味を持つかを判断するという大変な作業を実行し、パートナー コンピューターはその情報を使用して相互作用を調整します。 昨年のデモンストレーションでは、NASAの量子AI研究所の研究者であるアレハンドロ・ペルドモ・オルティス氏と彼のチームが、D-Waveシステムに手書きの数字の画像を当てました。 10 個のカテゴリがあることを発見し、0 から 9 までの数字を一致させて、独自の手書きの数字を生成しました。

量子コンピュータのボトルネック

さて、良いニュースがあります。 残念なことに、プロセッサがどれだけ優れていても、そこにデータを取り込めなければ意味がありません。 行列代数アルゴリズムでは、1 回の演算で 16 個の数値の行列を処理できますが、行列をロードするには 16 回の演算が必要です。 「古典的なデータを量子状態にする作業は完全に回避されてきたが、これが最も重要な部分だと思う」と、量子コンピューティングのスタートアップ企業ザナドゥの研究者であり、量子機械学習の博士号を取得した最初の人物の一人であるマリア・シュルド氏は言う。 物理的な形で提案されている機械学習システムの難しさは、問題を量子ビットのネットワークに埋め込み、量子ビットが適切に相互作用するようにする方法です。

データを正常に入力したら、実行中の計算をクラッシュさせることなく量子システムがデータとやり取りできるような方法でデータを保存する必要があります。 ロイド氏とその同僚は光子を使った量子ランダムアクセスメモリを提案しているが、最先端の量子コンピューターに使われている技術である超伝導量子ビットやトラップイオンのような類似のデバイスを開発している人はいない。 「これは量子コンピュータを構築するという問題を超えた大きな技術的問題だ」とアーロンソン氏は語った。 「実験者たちから私が受けた印象は、彼らが怖がっているということです。彼らはそのような量子コンピューターの構築をどうやって始めればいいのか分からないのです。」

***、データを出力するにはどうすればいいですか? つまり、マシンの量子状態を測定すると、ランダムに抽出された数字が一度に 1 つ返されるだけでなく、状態全体が崩壊し、データを取得する前に残りのデータが消去されます。 すべての情報を抽出するには、このアルゴリズムを何度も実行する必要があります。

しかし、すべてが絶望的というわけではありません。特定の種類の問題では、量子干渉を利用できます。 つまり、間違った答えが互いに打ち消し合い、正しい答えが自らを強化するようにこれらの操作を調整することができ、量子状態を測定するときに、ランダムな値ではなく、必要な答えが得られるようになります。 しかし、ノイズをうまく利用できるアルゴリズムは、ブルートフォース検索などのごくわずかであり、その速度も通常は中程度です。

場合によっては、研究者はデータを取得するための近道を見つけました。 2015 年、ロイド氏、カナダのウォータールー大学のシルバノ・ガルネローネ氏、南カリフォルニア大学のパオロ・ザナルディ氏は、一部の統計分析ではデータセット全体を入力したり保存したりする必要がないことを示しました。 同様に、いくつかのキー値で十分な場合は、すべてのデータを読み取る必要はありません。 たとえば、テクノロジー企業は機械学習を使用して、消費者の習慣に関する膨大なマトリックスに基づいて、視聴するものや購入するものを提案します。 「NetflixやAmazonなどの企業であれば、このマトリックスをどこかに書き出す必要はない」とアロンソン氏は言う。 「本当に必要なのは、ユーザーへの推奨事項を生成することだけです。」

これらすべてから、次のような疑問が浮かび上がります。量子コンピュータが特殊な状況でのみ強力であるなら、従来のマシンもそのような状況で強力であるのでしょうか? これはこの分野における未解決の大きな問題です。 結局のところ、従来のコンピューターは非常に優れた能力を持っています。 大規模なデータセットを処理する通常の方法であるランダムサンプリングは、内部で何が起こっても最終的にはランダムな結果を返すという点で、実際には量子コンピュータと非常によく似ています。 「私は多くのアルゴリズムに取り組み、これはすごい、このスピードアップが実現できると思った。そして、古典的なコンピューター用のサンプリング技術を書き、同じようにサンプリングを行えることに気づいた」とカルダー氏は語った。

これまでの量子機械学習の成功を振り返ってみると、すべてにアスタリスクが付いています。 たとえば、D-Wave マシンを例に挙げると、車やヒッグス粒子の画像を分類するとなると、従来のマシンと変わらない速度でした。 「論文で触れなかったことの一つは量子の高速化だ」とグーグル・ディープマインドのコンピューター科学者アレックス・モット氏は言う。彼はヒッグス研究チームのメンバーです。 Harrow-Hassidim-Lloyd アルゴリズムなどの行列代数法では、行列が疎でほとんどがゼロの場合にのみ高速化が見られます。 「スパースデータセットは機械学習において本当に興味深いのかと尋ねる人はいません」とカルダー氏は指摘する。

量子知能

一方、既存の技術がたまに改善されるだけでも、テクノロジー企業は喜びます。 「最終的に目にするこれらの利点は控えめなものであり、指数関数的ではなく、二次関数的です」と、マイクロソフト リサーチの量子コンピューティング研究者、ネイサン ウィーベ氏は述べています。 「十分に大きくて高速な量子コンピュータがあれば、機械学習に革命を起こすことができるだろう」。これらのシステムを使用することで、コンピュータ科学者は、それらが本質的に高速であるかどうか、そしてそれはなぜかという理論的なパズルを解くことができるかもしれない。

カルダー氏はソフトウェアにも革新の余地があると考えている。 機械学習は単なる一連の計算ではありません。 これは独自の構造を持つ複雑な問題です。 「人々は、機械学習の面白さや美しさから離れたアルゴリズムを構築している」と彼女は語った。 「だから私は逆に考え始めました。量子コンピューター、つまり小規模なコンピューターがすでに存在するのなら、機械学習モデルは実際に何を達成できるのでしょうか。まだ発明されていないモデルなのかもしれません」。物理学者が機械学習の専門家を感心させたいのであれば、既存のモデルの量子バージョンを作るだけでは不十分だ。

現在、多くの神経科学者が人間の心の構造が身体の要件を反映していると信じているのと同様に、機械学習システムも同様に考えています。 画像、言語、その他ほとんどのデータは物理的な世界から来ており、その特性を反映しています。 量子機械学習も同様に表現されていますが、私たちの世界よりも豊かな世界です。 すでに量子化されたデータを処理する場合には、間違いなくその威力を発揮します。 量子マシンは、データが画像ではなく物理学や化学の実験の成果である場合にその威力を発揮します。 入力の問題はなくなり、従来のコンピューターは過去のものとなるでしょう。

きちんとした自己参照的なサイクルで、最初の量子機械学習システムは、後継システムの設計に役立つ可能性があります。 「こうしたシステムを利用する一つの方法は、量子コンピューターを自分たちで構築することだ」とウィーバー氏は語った。 「一部のデバッグ作業では、これが唯一の手段です。」もしかしたら、彼らは私たちをデバッグすることもできるかもしれません。 人間の脳が量子コンピュータであるかどうかという最も議論の多い問題はさておき、人間の脳は量子コンピュータであるかのように動作することがある。 人間の行動は極めて状況に依存しており、私たちの好みは私たちが行う選択によって形成されますが、これは論理に反します。 このプロセスにおいて、私たちは量子粒子のようなものです。 「質問の仕方と分類の仕方が重要であり、それは量子データセットでは非常に典型的だ」とオルティス氏は語った。 したがって、量子機械学習システムは、人間の認知バイアスを研究するための自然な方法となる可能性があります。

ニューラル ネットワークと量子プロセッサには共通点が 1 つあります。それは、驚くほどうまく機能することです。 何十年もの間ほとんどの人がそれが可能かどうか疑っていましたが、ネットワークをトレーニングすることは可能です。 同様に、量子物理学は、その独特な効果が私たちから非常に隠されているため、不可能なことを計算するために使用できます。 しかし、どちらの努力も成果を上げており、常に成果が上がるとは限りませんが、多くの場合、期待以上の成果を上げています。 これを考慮すると、量子物理学とニューラルネットワークの組み合わせも将来的には驚くべきものになるかもしれません。

<<:  この AI 商用リストをお見逃しなく: アプリケーションで問題が解決するかもしれません (最終部分)

>>:  この AI 商用リストをお見逃しなく: 生産上の問題はアプリケーションで解決できるかもしれません (続き)

ブログ    

推薦する

Alibaba が MNNKit をオープンソース化: Android と iOS をサポートする MNN ベースのモバイル ディープラーニング SDK

最近、モバイル端末向けのディープラーニングフレームワークの開発がますます増えてきています。最近、アリ...

復旦NLPチームが大規模モデルエージェントの80ページのレビューを公開、AIエージェントの現状と将来を概観

最近、復旦大学の自然言語処理チーム (FudanNLP) が LLM ベースのエージェントに関するレ...

AIに対する人々の偏見が良いことかもしれない理由

人工知能 (AI) や機械学習は人間よりも優れた能力を発揮するとよく言われますが、実際は AI や機...

科学者はAIを使って人気曲を97%の精度で識別する

6月21日のニュースによると、新たな研究により、人工知能(AI)は人気曲を正確に識別できることが示さ...

Google Brain の最新研究: AutoML メソッドが Dropout モードを自動的に学習

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

ディープラーニングとマシンビジョンの重要性を分析!ロボットを自由にさせる?

ディープラーニングは産業用ロボットの中核技術であり、ロボットが制約から解放され、環境の変化に応じて自...

...

...

ディープラーニングを理解する

1. 現在の状況:ディープラーニングは現在非常に注目されており、あらゆる種類のカンファレンスがそれと...

...

...

人工知能は本当に万能なのでしょうか?

多くのセキュリティ業界の専門家は、過去 10 年間に登場した新しいテクノロジーを振り返り、将来のテク...

...

ブラウザで TensorFlow を使用するにはどうすればいいですか?

[[341102]] [51CTO.com クイック翻訳] TensorFlow を使用すると、少...

小売実店舗におけるインテリジェント機器の応用シナリオの分析

顔認識やセルフサービスチェックアウト、スマート端末製品などのテクノロジーが実店舗のシナリオに適用され...