AI を搭載したデバイスやテクノロジーはすでに私たちの生活の大きな部分を占めていますが、機械知能によって大幅な改善が期待できる分野はまだいくつかあります。 これらの比喩的なギャップを埋めるために、AI 以外のテクノロジーが役立ちます。 人工知能(AI)とは、「合成知能を備えた新興のコンピューター技術」です。私たちの日常生活で目にする AI の応用は、その力と能力の氷山の一角に過ぎないと広く信じられています。 AI の分野は、一般的な AI の制限を排除するために進化し、発展し続ける必要があります。 通常、AI は、認知コンピューティングなどの次のサブフィールドで構成されますが、これも含まれることが多いですが、次の領域はほぼすべての AI システムに遍在しています。
非 AI テクノロジは、通常、AI のコンポーネントの 1 つを強化したり、入力、処理、または出力機能にプラスの影響を与えたりすることで、AI をより高度にします (または少なくとも AI の制限を軽減します)。 1. 半導体:AIシステムにおけるデータ移動の改善半導体とAIシステムが同じ分野に共存することは非常に一般的です。 AI アプリケーションで使用するための半導体を製造している企業はいくつかあります。既存の半導体企業では、AIチップを製造したり、生産ラインにAI技術を組み込んだりするための特別プロジェクトが実施されています。人工知能分野に携わる機関の代表的な例としては、NVIDIA が挙げられます。同社の半導体チップを搭載したグラフィックス プロセッシング ユニット (GPU) は、人工知能のトレーニング用データ サーバーで広く使用されています。 半導体構造の変化により、AI 回路はデータをより効率的に使用できるようになる可能性があります。半導体設計の変更により、AI メモリ ストレージ システム内でのデータの転送速度が向上する可能性があります。電力の増加に加えて、ストレージ システムの効率も向上します。 半導体チップを活用することで、AI システムのさまざまなデータ使用面を改善できるアイデアがいくつかあります。 1 つのアイデアは、ネットワークを介して信号を継続的に送信するのではなく、必要な場合にのみニューラル ネットワークにデータを送信することです。もう一つの進歩的なコンセプトは、AI関連の半導体設計における不揮発性メモリの使用です。ご存知のように、不揮発性メモリ チップは電源がなくても保存されたデータを保持できます。不揮発性メモリと処理ロジック チップを組み合わせることで、新しい人工知能アルゴリズムの高まる需要を満たす特殊なプロセッサを作成できます。 人工知能の応用ニーズは半導体の設計を改善することで満たすことができますが、生産上の問題が発生する可能性もあります。 AI チップは、膨大なメモリを必要とするため、通常は標準チップよりも大きくなります。したがって、半導体企業は製造にさらに多くの資金を費やす必要があるでしょう。したがって、AI チップを開発することは経済的にはあまり意味がありません。 この問題を解決するには、汎用人工知能プラットフォームを使用できます。チップベンダーは、入出力センサーとアクセラレータを使用して、これらのタイプの AI プラットフォームを強化できます。これらのリソースを使用することで、メーカーは変化するアプリケーションのニーズに基づいてプラットフォームを形成できます。汎用 AI システムの柔軟性は、半導体企業にコスト上のメリットをもたらし、AI の制限を大幅に削減する可能性があります。共通プラットフォームは、AI ベースのアプリケーションと改良された半導体を接続する未来です。 2. モノのインターネット(IoT):AI入力データの強化IoT に AI を導入すると、両方の機能が向上し、それぞれの欠点がシームレスに解決されます。ご存知のように、モノのインターネットには、複数のデバイスやその他のデジタルエンティティがインターネットを介して相互に通信し、データを交換できるようにするさまざまなセンサー、ソフトウェア、接続テクノロジが含まれます。これらのデバイスは、日常的なオブジェクトから複雑な組織化マシンまで多岐にわたります。基本的に、IoT は、状況やその周囲を観察、判断、理解する複数の相互接続されたデバイスに人的要素を減らします。カメラ、センサー、音検出器などのデバイスは、独自にデータを記録できます。ここで人工知能が登場します。機械学習では、入力データセットが常に可能な限り幅広いソースから取得される必要があります。多数の接続デバイスを備えたモノのインターネットは、AI 研究のためのより広範なデータセットを提供します。 IoT が AI システムに提供する膨大なデータを活用するために、組織はカスタム機械学習モデルを構築できます。複数のデバイスからデータを収集し、洗練されたユーザー インターフェイス上で整理された形式で表示する IoT の機能を活用することで、データの専門家はそれを AI システムの機械学習コンポーネントと効果的に統合できます。 AI と IoT の組み合わせは、両方のシステムでうまく機能します。これは、AI が IoT から大量の生データを取得して処理するためです。その代わりに、AI は情報のパターンを素早く見つけ、大量の未整理データから貴重な洞察を整理して提示することができます。さまざまな情報からパターンや異常を直感的に検出する AI の能力は、IoT センサーとデバイスによって補完されます。 IoT を通じて情報を生成し、簡素化することで、AI は温度、圧力、湿度、空気の質など、さまざまな概念に関連する膨大な量の詳細を処理できます。 近年、いくつかの大企業が、AI と IoT の組み合わせに関するそれぞれの理解をうまく展開し、業界での競争上の優位性を獲得し、AI の限界に対処しています。 Google Cloud IoT、Azure IoT、AWS IoT はこのトレンドの有名な例です。 3. グラフィックス プロセッシング ユニット: AI システムに計算能力を提供するAI が普及するにつれて、GPU は純粋にグラフィックス関連のシステム コンポーネントから、ディープラーニングやコンピューター ビジョンのプロセスに不可欠な部分へと変化しました。実際、GPU は通常のコンピューターの CPU に相当する AI であると広く考えられています。まず、システムにはコンピューティング操作を実行するためのプロセッサ コアが必要です。 GPU には通常、標準の CPU よりも多くのコアが含まれています。これにより、これらのシステムは、複数の並列プロセスにわたって複数のユーザーに優れた計算能力と速度を提供できるようになります。さらに、ディープラーニング操作では大量のデータが処理されます。 GPU の処理能力と高帯域幅により、これらの要件を簡単に満たすことができます。 GPU は膨大な計算能力を備えており、AI とディープラーニング モデルを(多くの場合同時に)トレーニングするように構成できます。前述したように、帯域幅が広いほど、GPU は通常の CPU よりも計算上の利点が得られます。その結果、AI システムには、標準の CPU やその他のプロセッサを上回る可能性のある膨大なデータセットを供給できるようになり、より大きな出力が得られます。最も重要なのは、AI 駆動型システムで GPU を使用すると、大量のメモリが消費されないことです。通常、標準 CPU ではプロセッサがタスクを順番に完了し、コアの数が限られているため、大規模で多様なタスクを計算するには複数のクロック サイクルが必要です。 一方、最も基本的な GPU であっても、専用の VRAM (ビデオ ランダム アクセス メモリ) が搭載されています。したがって、メインプロセッサのメモリは小規模および中規模のプロセスによって占有されません。ディープラーニングには大規模なデータセットが必要です。モノのインターネットなどのテクノロジーはより広範囲の情報を提供でき、半導体チップは AI システムのデータ使用を制御できますが、GPU は計算能力とより大きなメモリ予約という点でリソースを提供します。したがって、GPU を使用すると、処理速度の面で AI の制限が制限されます。 4. 量子コンピューティング:人工知能のあらゆる側面をアップグレード表面的には、量子コンピューティングは従来のコンピューティング システムと似ています。主な違いは、独自の量子ビット (キュービットとも呼ばれる) の使用です。これにより、量子コンピューティング プロセッサ内の情報が複数の形式で同時に存在できるようになります。量子コンピューティング回路は従来の論理回路と同様のタスクを実行しますが、エンタングルメントや干渉などの量子現象を追加することで、計算と処理をスーパーコンピュータのレベルにまで高めます。 量子コンピューティングにより、AI システムは特殊な量子データセットから情報を取得できるようになります。これを実現するために、量子コンピューティング システムでは、量子テンソルと呼ばれる多次元の数値配列を使用します。これらのテンソルは、AI が処理するための膨大なデータセットを作成するために使用されます。これらのデータセット内のパターンと異常を見つけるために、量子ニューラル ネットワーク モデルが導入されました。最も重要なのは、量子コンピューティングによって AI アルゴリズムの品質と精度が向上することです。量子コンピューティングは、次のような方法で一般的な AI の制限に対処します。
AI の発展は、入力情報量の増加 (モノのインターネットを通じて)、データ使用量の改善 (半導体を通じて)、計算能力の向上 (GPU を通じて)、あるいは単に動作のさまざまな側面の改善 (量子コンピューティングを通じて) によって達成できることは明らかです。 これら以外にも、将来 AI 開発の一部となる可能性のある技術や概念がいくつかあります。人工知能は、構想と創造から 60 年以上経ち、今日ではほぼすべての分野でかつてないほど重要になっています。どこから始まるにせよ、AI の進化の次の段階は興味深いものとなるでしょう。 |
<<: ICLR2021 対照学習 NLP 論文進捗レビュー
>>: 人工知能はどれくらい怖いのでしょうか?ホーキング博士はなぜ人々に慎重になってほしいのでしょうか?本当に40%の雇用が失われるのでしょうか?
Syntiantが最近実施したユーザー調査によると、COVID-19パンデミックの影響により、アメリ...
Red Hat Inc. は本日、情報技術自動化のための生成 AI サービスである IBM Wats...
予想外かもしれませんが、消費者のかなりの部分は、サイバーセキュリティを生身のサイバーセキュリティ専門...
[[378826]]本田技術研究所では、エキスパートナレッジシステムを活用して車体設計プロセスに A...
アリババは9月26日、杭州で開催された雲奇大会で、初めて同社の人工知能通話の規模を発表した。1日あた...
背景検索技術が発展するにつれ、検索シナリオにおける教師あり学習アルゴリズムの限界が徐々に認識されるよ...
[[257231]]新年を迎えるにあたり、2019 年を形作る業界のトレンドに注目する時期が来ました...
以下の記事では、主にハッカーがGSMアルゴリズムをクラックし、携帯電話ユーザーが盗聴の危険にさらされ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
先日終了した全国人民代表大会と中国人民政治協商会議では、「科学技術イノベーション」という言葉が頻繁に...