人工知能について知っておくべきことすべて

人工知能について知っておくべきことすべて

人工知能とは何でしょうか? この質問に対する答えは、誰に尋ねるかによって異なります。

1950 年代初頭、AI 業界の先駆者であるミンスキー氏とマッカーシー氏は、AI を、以前は人間の知能を必要としていたタスクを機械が実行するものと定義しました。

これは明らかにかなり広い定義であり、そのため、ある技術が本当に AI であるかどうかについて議論されることがあります。

[[359271]]

今日、「インテリジェンス」の定義はより具体的になっています。 Google の人工知能研究者であり、機械学習ソフトウェア ライブラリ Keras の作成者であるフランソワ・ショレ氏はかつて、知能はシステムが新しい環境に適応して即興で対応し、知識を一般化して未知のシナリオに適用する能力に関係していると述べました。

「知能とは、これまで準備していなかったタスクで新しいスキルを習得する効率のことです」と彼は言う。「知能自体はスキルではなく、何ができるかではなく、新しいことを学ぶ能力と効率のことです。」

これは人工知能の定義の一つです。この定義では、現代の AI 駆動型システム (仮想アシスタントなど) は、「狭義の AI」の特性を持つと説明されます。音声認識やコンピュータービジョンなどの限られた一連のタスクを実行するときに、トレーニングされた内容を一般化する機能。

通常、AI システムは、計画、学習、推論、問題解決、知識表現、知覚、移動、操作、そしてある程度の社会的知能と創造性など、人間の知能に関連する以下の動作の少なくとも一部を示します。

AIは何に使われるのでしょうか?

今日、AI は、オンラインで購入すべき商品を推奨したり、Amazon の Alexa や Apple の Siri などの仮想アシスタントに話されたことを理解したり、写真に写っている人物やコンテンツを識別したり、スパムメールを識別したり、クレジットカード詐欺を検出したりするなど、ほぼあらゆる場所で使用されています。

人工知能にはどのような種類がありますか?

人工知能は、狭義の人工知能と汎用人工知能の 2 つのカテゴリに分けられます。

前述のように、狭義の AI とは現在コンピューターで見られるものすべて、つまり特定のタスクを実行する方法をトレーニングまたは学習したインテリジェント システムです。

この機械知能は、Apple の iPhone の仮想アシスタント Siri の音声および言語認識、自動運転車の視覚認識システム、または過去の購入履歴に基づいてユーザーが好みそうな製品を提案する推奨エンジンに顕著に表れています。人間とは異なり、これらのシステムは定義されたタスクを完了する方法を学習したり教えられたりすることしかできないため、限定的な AI と呼ばれます。

狭義の AI で何ができるでしょうか?

特化型 AI には、ドローンからのビデオ フィード、石油パイプラインなどのインフラストラクチャの目視検査、個人およびビジネスのカレンダーの整理、簡単なカスタマー サービス問い合わせへの対応、他のインテリジェント システムとの連携による適切な時間と場所でのホテル予約、放射線科医が X 線写真で潜在的な腫瘍を見つけるのを支援する、オンラインで不適切なコンテンツにフラグを立てる、IoT デバイスによって収集されたデータからエレベーターの摩耗を検出する、衛星画像から世界の 3D モデルを生成するなどのタスクを実行するなど、数多くの用途があります。

これらの学習システムの新しいアプリケーションが常に登場しています。グラフィックカード設計者のNvidiaは最近、インターネット接続速度に関係なく高品質のビデオ通話を可能にする人工知能ベースのシステム「Maxine」を発売した。このシステムは、インターネット経由で完全なビデオストリームを送信するのではなく、発信者の表情や動きをビデオと区別がつかないほどリアルタイムで再現することで、通話に必要な帯域幅を 10 分の 1 に削減します。

しかし、これらのシステムの潜在能力は未開発であるにもかかわらず、技術に対する期待が現実を上回ることもあります。良い例は自動運転車です。自動運転車自体もコンピュータービジョンなどの AI 駆動型システムを搭載しています。テスラ社のイーロン・マスク最高経営責任者(CEO)が当初示した、同社の自動車の自動運転システムが限定的な運転支援機能から「完全自動運転」に移行するタイムラインは現在やや遅れており、完全自動運転オプションはつい最近になってようやく試験プログラムの一環としてプロの運転プログラムで利用可能になったばかりだ。

汎用人工知能は何ができるのでしょうか?

汎用人工知能は大きく異なります。汎用人工知能は人間に見られる適応型知能であり、髪を切ることからスプレッドシートの作成まで、まったく異なるタスクを実行する方法を学習したり、蓄積された経験に基づいてさまざまな主題について推論したりできる柔軟な知能です。この種の AI は、映画「ターミネーター」のスカイネットのように映画ではよく見られるが、現在は存在せず、それがいつ現実のものになるかについて AI 専門家の間でも意見が大きく分かれている。

AI研究者のヴィンセント・C・ミュラー氏と哲学者のニック・ボストロム氏が2012年に4つの専門家グループを対象に実施した調査では、汎用人工知能(AGI)が開発される可能性は2040~2050年までに50%、2075年までに90%に上昇すると予測されています。研究チームはさらに踏み込んで、汎用人工知能(AGI)が実現されてから約30年後に、いわゆる「超知能」が出現する可能性があると予測した。

しかし、AI専門家による最近の評価はより慎重なものとなっている。この分野のリーダーたちの懐疑的な見方と、現代の狭義のAIシステムと汎用人工知能(AGI)の根本的な違いを考えると、ジェフリー・ヒントン、デミス・ハサビス、ヤン・ルカンといったこの分野の先駆者たちによると、AGIが近い将来に社会に与える影響について心配する必要はほとんどないという。

とはいえ、AI専門家の中には、人間の脳に関する理解が限られていることを考えると、こうした予測は極めて楽観的であり、汎用人工知能(AGI)の出現にはまだ数百年かかると考える者もいる。

人工知能開発における最新のマイルストーンは何ですか?

現代の狭義の AI は特定のタスクの実行に限定される場合がありますが、専門分野内では、これらのシステムは、人間に本来備わっている特性である超人的なパフォーマンスを発揮できる場合があります。

技術的なブレークスルーはそれほど多くはないが、いくつかの注目すべき点がある。グーグルは2009年に、同社が開発した自動運転技術を搭載したトヨタ・プリウスは、1回あたり100キロメートルのテストを10回以上完了できる可能性があり、無人運転車の技術を前進させることができると述べた。

2011年、IBM Watsonはアメリカのクイズ番組「Jeopardy!」で、同番組史上最強の2人の人間出場者を破って優勝し、世界的な話題となった。勝つために、Watson は自然言語処理と分析技術を使用して膨大な量のデータを処理して、通常 1 秒未満で人間が投げかける質問に答えます。

2012 年には、これまではどんな機械にも複雑すぎると考えられていた多くの新しいタスクを人工知能が処理できるという新たなブレークスルーが起こりました。その年、AlexNet システムは ImageNet 大規模視覚認識チャレンジで圧倒的な勝利を収めました。画像認識コンテストでは、AlexNet は競合他社と比較してエラー率を半分に削減しました。

AlexNet のパフォーマンスは、ニューラル ネットワークに基づく学習システムの威力を実証しました。ニューラル ネットワークは、数十年前から存在する機械学習モデルの一種ですが、アーキテクチャの改善とムーアの法則によって可能になった並列処理能力の飛躍的な向上により、ようやくその潜在能力が実現されつつあります。機械学習システムがコンピュータービジョンを実行する能力もその年に話題となり、Google は猫の写真を認識できる機械学習システムをトレーニングしました。

注目を集めた機械学習システムのもう一つの例は、2016年にGoogle DeepMindのAlphaGoが囲碁チャンピオンに勝利したことだ。囲碁は古代中国のボードゲームであり、その複雑さゆえに何十年もコンピュータシステムを困惑させてきた。これは、囲碁の各ターンが約 200 手で構成されているのに対し、チェスの各ターンが約 20 手で構成されているためです。囲碁のゲームでは、各手には多くの可能性があるので、事前にすべての手を検索して最善の手を決定するのは計算コストが高すぎます。その代わりに、AlphaGo は 3,000 万例の囲碁ゲームで人間の専門家が行った動きを模倣し、それをディープラーニング ニューラル ネットワークに入力することでゲームをプレイするようにトレーニングされました。

これらのディープラーニング ネットワークのトレーニングには長い時間がかかり、システムがモデルを徐々に改良して最適な結果を達成するまで、大量のデータの取り込みと反復処理が必要になります。

しかし最近、Google は「完全にランダムな」ゲームをプレイし、その結果から学習するシステムである AlphaGo Zero でトレーニング プロセスを改善しました。グーグル・ディープマインドCEOのデミス・ハサビス氏は、チェスのゲームをマスターしたAlphaGo Zeroの新バージョンもリリースされる予定だと語った。

人工知能技術は新たなマイルストーンを達成し続けている。OpenAI によってトレーニングされた AI システムが、オンライン マルチプレイヤー ゲーム Dota 2 の 1 対 1 の試合で世界のトップ プレイヤーに勝利したのだ。

2020 年、AI システムは、考えられるあらゆるトピックについて、人間のように記述したり会話したりする能力を獲得したようです。

このシステムは、Generative Pre-training Transformer 3(GPT-3)と呼ばれ、オープンウェブ上で利用可能な数十億の英語の記事を使用してトレーニングされたニューラルネットワークです。

OpenAI がテストした直後から、一見すると人間が書いた記事と区別がつきにくい、ほぼあらゆるトピックに関する記事を生成できる GPT-3 の能力に対する関心が高まり始めました。他の分野でも同様の結果が見つかっており、幅広いトピックに関する質問に説得力のある答えを出すことが可能です。

しかし、GPT-3 が生成した記事の多くは現実感があったものの、さらにテストを進めると、生成された文章は期待に応えられず、表面的にはもっともらしいものの混乱を招く記述や、時には意味不明な内容さえあることが判明しました。

このモデルの自然言語理解を将来のサービスの基盤として利用することには依然として大きな関心が寄せられており、開発者には OpenAI のベータ API を通じてソフトウェアを構築するオプションが与えられています。また、Microsoft の Azure クラウド プラットフォームを通じて提供される将来のサービスにも組み込まれる予定です。

おそらく、AI の可能性を示す最も印象的な例は、2020 年後半に Google の注目を集めるテクノロジーをベースにしたニューラル ネットワークである AlphaFold 2 がこの成果を実証したときでしょう。

このシステムはタンパク質の構成要素(アミノ酸)を観察する能力があり、タンパク質の 3D 構造が病気の理解と医薬品開発のスピードに大きな影響を与える可能性があるという結論に至りました。タンパク質構造予測の重要な評価コンペティションにおいて、AlphaFold 2 は、タンパク質を説得力のある形でモデル化するためのゴールドスタンダードである結晶学に匹敵する精度で、タンパク質の 3D 構造を決定することができました。

結果を得るのに数か月かかる結晶学とは異なり、AlphaFold 2 は数時間でタンパク質をモデル化できます。タンパク質の 3D 構造は人間の生物学と病気において非常に重要な役割を果たしているため、この加速は医学における画期的な進歩として歓迎されており、酵素を使用するバイオテクノロジーの他の分野への潜在的な応用は言うまでもありません。

機械学習とは何ですか?

これまでに述べた成果のほぼすべては、近年の進歩の大部分を占める AI のサブセットである機械学習によるものです。最近、人工知能について話すとき、たいていは機械学習について話しています。

簡単に言えば、現在の機械学習技術は、ある種のルネッサンス期を迎えています。簡単に言えば、機械学習とは、タスクの実行方法を知るようにプログラムされるのではなく、コンピュータ システムがタスクの実行方法を学習する方法です。機械学習の説明は、この分野の先駆者であり、世界初の自己学習システムの 1 つであるサミュエル チェッカー プログラムを開発したアーサー サミュエルによって発明された 1959 年にまで遡ります。

これらのシステムは、自ら学習するために大量のデータを入力し、それを使って音声の理解や写真のキャプション付けなどの特定のタスクを実行する方法を学習します。このデータセットの品質とサイズは、指定されたタスクを正確に実行できるシステムを構築する上で非常に重要です。たとえば、住宅価格を予測する機械学習システムを構築する場合、トレーニング データには、物件の平方フィート数だけでなく、寝室の数や庭のサイズなどの他の重要な要素も含める必要があります。

ニューラルネットワークとは何ですか?

機械学習を成功させる鍵はニューラルネットワークです。これらの数学モデルは、内部パラメータを調整して出力を変更することができます。トレーニング中、ニューラル ネットワークには、特定のデータが与えられた場合に何を出力すべきかを教えるデータセットが供給されます。具体的には、ネットワークには、0 から 9 までの数字のグレースケール画像と、各グレースケール画像に表示される数字を示す 2 進数字 (0 と 1) の文字列が供給される可能性があります。次に、ネットワークはトレーニングされ、各画像に表示されている数字を高い精度で分類できるようになるまで内部パラメータが調整されます。このトレーニングされたニューラル ネットワークは、0 から 9 までの数字の他のグレースケール画像を分類するために使用できます。 1989 年、Yann LeCun はニューラル ネットワークの応用を示す論文を発表し、米国郵政公社は手書きの郵便番号を認識するためにニューラル ネットワーク技術を採用しました。

ニューラル ネットワークの構造と機能は、脳内のニューロン間の非常に緩やかな接続に基づいています。ニューラル ネットワークは、相互にデータを供給する相互接続されたアルゴリズムの層で構成されており、これらの層間を通過するデータの重要度を変更することで、特定のタスクを実行するようにトレーニングできます。これらのニューラル ネットワークをトレーニングするプロセスでは、データがレイヤー間で渡されるときに、データに付加された重みが継続的に変更され、ニューラル ネットワークの出力が目的の値に非常に近くなると、ニューラル ネットワークは特定のタスクを実行する方法を「学習」します。望ましい出力は、画像内の果物に正しくラベルを付けることから、センサーデータに基づいてエレベーターが故障する可能性が高い時期を予測することまで、何でもかまいません。

機械学習のサブセットはディープラーニングです。ディープラーニングでは、ニューラル ネットワークが多数のレイヤーに拡張され、大量のデータを使用してこれらのネットワークがトレーニングされます。音声認識やコンピュータービジョンなどのタスクを実行するコンピューターの能力の現在の飛躍的向上を推進しているのは、これらのディープ ニューラル ネットワークです。

ニューラル ネットワークには多くの種類があり、それぞれに長所と短所があります。リカレント ニューラル ネットワーク (RNN) は、テキストの意味の理解や音声認識を行う自然言語処理 (NLP) に特に適したニューラル ネットワークの一種です。一方、畳み込みニューラル ネットワークは画像認識にルーツを持ち、レコメンデーション システムや自然言語処理 (NLP) など、用途は多岐にわたります。ニューラル ネットワークの設計も進化しており、研究者は、自然言語処理 (NLP) や株式市場の予測などのタスクに使用される再帰型ニューラル ネットワーク (RNN) アーキテクチャである長短期記憶 (LSTM) と呼ばれる、より効率的な形式のディープ ニューラル ネットワークを改良し、Google 翻訳などのオンデマンド システムで使用できるほど高速化しています。

他の種類の人工知能にはどのようなものがありますか?

AI研究のもう一つの分野は進化計算です。これはダーウィンの自然選択理論に基づいており、遺伝的アルゴリズムは与えられた問題に対する最善の解決策を進化させるために、世代を超えてランダムな突然変異と組み合わせを起こすことを発見しています。

このアプローチは、AI モデルの設計にも役立ち、AI を効果的に活用して AI の構築を支援します。進化的アルゴリズムを使用してニューラル ネットワークを最適化するこのアプローチは、ニューロエボリューションと呼ばれ、インテリジェント システムの使用がより一般的になり、特にデータ サイエンティストの需要が供給を上回ることが多い中で、効率的な AI の設計を支援する上で重要な役割を果たす可能性があります。この技術はウーバーのAI研究所によって実証され、同研究所は強化学習の問題を解決するために遺伝的アルゴリズムを使用してディープニューラルネットワークをトレーニングする方法に関する論文を発表した。

さらに、エキスパート システムもあります。エキスパート システムでは、コンピューターが多数の入力に基づいて一連の決定を下せるようにルールがプログラムされており、特定の分野における人間の専門家の行動をコンピューターが模倣できます。こうした専門家ベースのシステムの例としては、飛行機を操縦する自動操縦システムがあります。

AIルネッサンスを推進するものは何でしょうか?

前述のように、近年の人工知能研究における最大の進歩は機械学習の分野、特にディープラーニングの分野で起こっています。

これは、データの可用性によって部分的に推進されていますが、より重要なのは、機械学習システムのトレーニングに使用されるグラフィックス処理装置 (GPU) のクラスターの増加による並列コンピューティング能力の爆発的な増加です。

これらのクラスターは、機械学習モデルのトレーニングに非常に強力なシステムを提供するだけでなく、クラウド サービスとしてインターネット経由で広く利用できるようになりました。時間の経過とともに、Google、Microsoft、Tesla などの世界的な大手テクノロジー企業は、機械学習モデルの実行とトレーニングに特化したチップを使い始めました。

Google の Tensor Processing Unit (TPU) はこうしたカスタム チップの一例であり、最新バージョンでは、Google の TensorFlow ソフトウェア ライブラリを使用して構築された有用な機械学習モデルがデータから情報を推測する速度と、それらのモデルをトレーニングする速度が向上します。

このチップは、DeepMindやGoogle Brainのモデルのトレーニングだけでなく、Google翻訳やGoogleフォトの画像認識を強化するモデル、さらにはGoogleのTensorFlow Researchを使用して一般の人が機械学習モデルを構築できるサービスにも使用されています。これらのチップの第 3 世代は、2018 年 5 月の Google I/O カンファレンスで発表され、それ以来、1 秒あたり 10 兆回以上の浮動小数点演算 (100 ペタフロップス) を実行できる Pod と呼ばれる機械学習エンジンにパッケージ化されています。こうした継続的な TPU のアップグレードにより、Google は、Google 翻訳で使用されるモデルのトレーニングに必要な時間を半分に短縮するなど、機械学習モデルに基づくサービスを改善できるようになります。

機械学習の要素は何ですか?

前述のように、機械学習は人工知能のサブセットであり、一般的に教師あり学習と教師なし学習という 2 つの主要なカテゴリに分けられます。

(1)教師あり学習

AI システムをトレーニングするための一般的な手法は、多数のラベル付きサンプルを使用してトレーニングすることです。これらの機械学習システムには、関心のある特徴を強調するために注釈が付けられた大量のデータが供給されます。これらは、文章が含まれているかどうかを示す写真や、「bass」という単語が音楽や魚に関連しているかどうかを示す脚注である可能性があります。一度トレーニングされると、システムはそれらのラベルを、アップロードされたばかりの写真に写っている犬などの新しいデータに適用できるようになります。

例を通して機械に教えるプロセスは教師あり学習と呼ばれ、これらの例にラベルを付ける役割は、Amazon Mechanical Turk などのプラットフォームを通じて雇われたオンラインワーカーによって実行されることがよくあります。

これらのシステムをトレーニングするには通常、膨大な量のデータが必要であり、一部のシステムではタスクを効果的に実行する方法を学ぶために何百万もの例を検索する必要がありますが、ビッグデータと大規模なデータマイニングの時代では、それがますます可能になっています。トレーニング データセットは大規模で、増加傾向にあります。Google の Open Image Dataset には約 900 万枚の画像が含まれており、ラベル付きビデオ リポジトリ YouTube-8M には 700 万枚のラベル付きビデオがリンクされています。 ImageNet は、1,400 万を超える分類された画像を持つ、初期のデータベースの 1 つです。このシステムは、約5万人の人材による2年にわたる編集作業を経て完成したもので、そのほとんどはAmazon Mechanical Turkを通じて採用され、10億枚近い候補画像を審査、分類、ラベル付けした。

近年、生成的敵対的ネットワーク (GAN) は、少量のラベル付きデータと大量のラベルなしデータのみを必要とする機械学習システムに適用されています。

このアプローチにより、半教師あり学習の使用が増加する可能性があります。半教師あり学習では、システムが、現在の教師あり学習を使用してシステムをトレーニングするのに必要な量よりもはるかに少ないラベル付きデータを使用して、タスクの実行方法を学習します。

(2)教師なし学習

対照的に、教師なし学習では異なるアプローチが使用され、アルゴリズムはデータ内のパターンを識別し、データの分類に使用できる類似点を探します。たとえば、同じ重さの果物や同じエンジンサイズの車をグループ化します。

このアルゴリズムは、特定の種類のデータを選択するように事前にプログラムされているわけではなく、Google ニュースが毎日同様のトピックの記事をグループ化する方法など、類似性に基づいてグループ化できるデータを単純に探します。

(3)強化学習

強化学習を大まかに例えると、ペットが芸をすると報酬が与えられるというものです。強化学習では、システムは入力データに基づいて報酬を最大化しようとし、基本的には最良の結果に到達するまで試行錯誤のプロセスを実行します。

強化学習の一例としては、Google DeepMind の Deep Q-Network が挙げられます。これは、さまざまな古典的なビデオ ゲームで最先端の人間のパフォーマンスを実現するために使用されてきました。システムは各ゲームからピクセルを取得し、画面上のオブジェクト間の距離など、さまざまな情報を決定します。

各ゲームで達成されたスコアを調べることで、システムは、ビデオゲーム「ブレイクアウト」の場合、ボールをインターセプトするためにラケットをどこに動かすかなど、さまざまな状況でどのアクションがスコアを最大化するかのモデルを構築します。

この方法はロボット工学の研究でも使用されており、強化学習は自律型ロボットに現実世界の環境での最適な動作方法を教えるのに役立ちます。

人工知能をリードしている企業はどれでしょうか?

現代のソフトウェアやサービスにおいて人工知能がますます重要な役割を果たすようになるにつれ、世界の大手テクノロジー企業は、社内使用とクラウドサービスを通じて一般に販売するための強力な機械学習テクノロジーの開発に取り組んでいます。

AIに対する一般の認識に最も大きな影響を与えたのはGoogleとそのDeepMind AI AlphaFoldおよびAlphaGoシステムかもしれないが、AI研究で新境地を拓くすべての企業が注目を集める可能性を秘めている。

どのような AI サービスが利用可能ですか?

世界の主要なクラウド コンピューティング プロバイダーである AWS、Microsoft Azure、Google Cloud Platform はすべて、機械学習モデルのトレーニングと実行のために GPU アレイへのアクセスを提供しています。 Google はまた、機械学習モデルのトレーニングと実行に最適化されたカスタム設計のチップである Tensor Processing Units をユーザーが使用できるようにする準備も進めています。

これら 3 つのクラウド コンピューティング プロバイダー (クラウドベースのデータ ストレージ) はすべて、機械学習モデルのトレーニングに必要な大量のデータを保存するためのインフラストラクチャとサービス、分析の準備としてデータを変換するサービス、結果を明確に表示できる視覚化ツール、モデル構築を簡素化するソフトウェアなど、必要なすべてのサービスを提供します。

これらのクラウド プラットフォームを使用すると、カスタム機械学習モデルの作成も簡単になり、Google は Cloud AutoML と呼ばれる AI モデルの作成を自動化するサービスを提供しています。このドラッグ アンド ドロップ サービスは、機械学習の専門知識を必要とせずにカスタム画像認識モデルを構築します。

クラウドベースの機械学習サービスが成長しています。 Amazon は現在、機械学習モデルのトレーニング プロセスを簡素化するように設計された多数の製品を提供しており、最近では、トレーニングされたモデルが誤った予測を行う原因となるトレーニング データ内の偏りや不均衡を組織が除去するのに役立つツールである Amazon SageMaker Clarify をリリースしました。

独自の機械学習モデルを構築せず、音声、視覚、言語認識などの AI 駆動型オンデマンド サービスを利用したい企業にとって、Microsoft Azure は提供されるサービスの範囲が際立っており、それに続いて Google Cloud Platform、AWS が続きます。一方、IBMは一般的なオンデマンドサービスの提供に加え、ヘルスケアから小売業まであらゆる業界に特化したAIサービスをIBM Watsonの傘下にまとめ、20億ドルを投じてウェザー・チャンネルを買収し、膨大なデータの宝庫を解放してAIサービスを強化することを目指している。

AI レースで勝利を収めている大手テクノロジー企業はどれでしょうか?

これらのテクノロジー大手各社、そしてFacebookのような他の企業も、検索結果の提供、おすすめの提供、写真に写っている人物や物の識別、オンデマンドの翻訳、スパムの検出など、さまざまな公共サービスにAIを活用しています。

しかし、この AI 戦争の最も目に見える現れの一つは、Apple の Siri、Amazon の Alexa、Google Assistant、Microsoft の Cortana などの仮想アシスタントの台頭だ。

音声認識や自然言語処理は人工知能に依存し、クエリに答えるためには大規模なコーパスが必要となるため、これらのアシスタントの開発には多くの技術が必要です。

しかし、AppleのSiriが最初に注目を集めたかもしれないが、GoogleとAmazonのアシスタントはその後、人工知能の分野でAppleを追い越した。Googleアシスタントは幅広い質問に答える能力があり、AmazonのAlexaには機能性を高めるためにサードパーティの開発者が作成した多数の「スキル」がある。

これらの AI アシスタントの機能は時間の経過とともに向上し続け、日常会話で人々が尋ねる質問に迅速に応答できるようになります。たとえば、Google アシスタントには現在、「継続会話」と呼ばれる機能があり、ユーザーは「今日の天気はどうですか?」に続いて「明日の天気はどうですか?」など、最初の質問に対するフォローアップの質問をすることができ、システムはフォローアップの質問も天気に関するものであると理解します。

これらの仮想アシスタントと関連サービスは、音声を処理するだけでなく、最新バージョンの Google レンズを使用して画像内のテキストを翻訳し、ユーザーが写真を使用して衣服や家具などのアイテムを検索できるようにすることもできます。

Cortana はすでに Windows 10 に組み込まれていますが、最近は困難に直面しています。アマゾンのAlexaは現在、Windows 10 PCで無料となり、一方マイクロソフトはOSにおけるCortanaの役割を刷新し、ユーザーのスケジュール管理など生産性向上タスクに重点を置いた。音楽の再生など、他のアシスタントに見られる、より消費者重視の機能とは異なります。

  • 目標達成: 構造化データ、セマンティクス、ロボティクス、AI の未来。
  • Adobe、オムニチャネルを追跡し異常をより早く発見するAIツールを発表
  • IBM は、読解と FAQ 抽出のための Watson ツールを追加しました。

人工知能でリードしているのはどの国でしょうか?

アメリカのハイテク大手が人工知能の分野を支配していると思っている人がいるなら、それは間違いだ。中国のテクノロジー企業アリババ、百度、レノボは、電子商取引や自動運転などの分野で人工知能に多額の投資を行っている。中国は人工知能を国の基幹産業にするための3段階の計画を進めている。この業界は2020年末までに1500億元(220億ドル)の価値に達すると予想されており、2030年までに世界をリードするAI大国になることを目標としている。

百度は、同社のディープラーニングアルゴリズム「百度オートブレイン」を搭載した技術である無人運転車の開発に投資しており、数年にわたるテストを経て、同社のアポロ自動運転車はテストで300万マイル以上走行し、世界27都市で10万人以上の乗客を運んだ。百度の創設者は、5年以内に中国の都市で自動運転車が普及すると予測している。

一部のアナリストは、将来の人工知能研究において中国が米国よりも優位に立つだろうと考えている。

人工知能を始めるにはどうすればいいですか?

PC 用に適度に強力な Nvidia GPU (Nvidia GeForce RTX 2060 またはそれ以上) を購入して機械学習モデルのトレーニングを開始することもできますが、AI 関連サービスを試す最も簡単な方法はクラウドかもしれません。

大手グローバルテクノロジー企業は通常、独自の機械学習モデルを構築およびトレーニングするためのインフラストラクチャから、音声、言語、視覚、感情認識などの AI ツールへのオンデマンドアクセスを可能にする Web サービスまで、多岐にわたる AI サービスを提供しています。

人工知能は世界をどのように変えるのでしょうか?

(1)ロボットと無人運転車

ロボットが自律的に行​​動し、周囲の世界を理解して移動することを望むということは、ロボット工学と人工知能の間に自然な重なりがあることを意味します。 AI はロボット工学における技術の 1 つにすぎませんが、AI の使用により、ロボットは自動運転車や配達ロボットなどの新しい分野に進出したり、新しいスキルを学習したりできるようになります。 2020年初頭、ゼネラルモーターズとホンダは自動運転電気自動車「クルーズオリジン」を発売し、グーグルの親会社アルファベットの自動運転事業部門であるウェイモは最近、アリゾナ州フェニックスで市内の50平方マイルのエリアをカバーするロボタクシーサービスを一般向けに開始した。

(2)フェイクニュース

私たちは、リアルな画像を作成したり、誰かの声を完璧に再現したりできるニューラル ネットワークを実現しようとしています。これにより、ビデオや音声映像が実際のビデオとして認識できなくなるなど、社会に大きな混乱をもたらす可能性があります。この技術が人々の画像を盗むのに利用される可能性があるという懸念もある。

(3)音声・言語認識

機械学習システムは、コンピューターが人の発言をほぼ 95% の精度で認識するのに役立ちます。マイクロソフトの人工知能研究グループが発表した報告書によると、同グループは人間の翻訳者と同じくらい正確に話し言葉を翻訳できるシステムを開発したという。

研究者が 99 パーセントの精度という目標を追求するにつれて、人間とコンピューターの従来のやり取りだけでなく、人間がコンピューターに話しかけることもますます一般的になってくると予想されます。

一方、OpenAI の言語予測モデル GPT-3 は、人間が書いたとみなせる記事を作成できる能力により、最近業界の注目を集めています。

(4)顔認識と監視

近年、顔認識システムの精度は飛躍的に向上しており、百度は、動画内の顔が十分に鮮明であれば、99パーセントの精度で顔を照合できるとしている。

プライバシー規制は世界各国で異なりますが、感情を認識できるものなど、より侵入的な AI テクノロジーが時間の経過とともに普及していく可能性があります。

(5)ヘルスケア

AIは最終的にヘルスケアに大きな影響を与える可能性があり、放射線科医がX線で腫瘍を見つけ、研究者が疾患に関連する遺伝的配列を発見し、より効果的な薬物につながる可能性のある分子を特定するのに役立ちます。 GoogleのAlphaFold 2機械学習システムでの最近のブレークスルーは、新薬の重要なステップを数か月から数時間にわたって開発するのにかかる時間を短縮することを約束します。

世界中の病院でAI関連の技術の試験があります。これらには、Memorial Sloan Kettering Cancers Centerの腫瘍医によって訓練されたIBMのWatson Clinical Decision Support Tool、および英国の国民保健サービスによるGoogle Deepmindシステムの使用が含まれ、目の異常を見つけ、頸部癌の患者をスクリーニングするプロセスを簡素化します。

(6)差別と偏見の強化

機械学習システムがトレーニングデータに反映されている人間の偏見と社会的不平等を整理する方法について懸念が高まっています。これらの懸念は、そのようなシステムのトレーニングに使用されるデータの多様性の欠如が、実際の結果を否定的にもたらす可能性がある複数の例を通じて実証されています。

2018年、MITとMicrosoftが共同で発行した研究論文では、大規模なテクノロジー企業が販売している顔認識システムは、暗い肌の人を識別する際に大幅に高いエラー率を被ったことがわかりました。これは、トレーニングデータセットが主に白人で構成されているという事実に起因する問題です。

別の研究では、1年後、Amazonの再認知顔認識システムには、肌が暗い人の性別を特定するのに問題があることを強調しました。

この研究が発表されて以来、多くの大規模なテクノロジー企業は、警察署に顔認識システムの提供を一時的に停止しました。

2018年、Amazonは男性の求職者を好む機械学習の採用ツールを廃止しました。これは、トレーニングデータの差別化が結果を歪める方法のもう1つの例です。今日、自己学習システムのバイアスに対抗するために研究が行われています。

(7)人工知能と地球温暖化

機械学習モデルとそれらをトレーニングするために使用されるデータセットは、サイズが大きくなり続けているため、それらのモデルを構築および実行する大規模なコンピューティングクラスターの二酸化炭素排出量も増加します。世界経済フォーラムは、2018年にデータセンターの電力と冷却装置の環境への影響に関する論文を発表しました。 2019年の見積もりの​​1つは、機械学習システムに必要な電力が3.4か月ごとに2倍になるということでした。

強力な機械学習モデルを訓練するために必要な膨大な量のエネルギーの問題は最近、言語予測モデルGPT-3のリリースに焦点を当てています。

これらのモデルをトレーニングするために必要なリソースは大規模であり、大企業が大幅に訓練されると、大規模な企業にのみ利用可能である可能性がありますが、それらを実行するのに必要なエネルギーは大幅に削減されます。ただし、これらのモデルに基づいたサービスの需要が増加するにつれて、電力消費と結果として生じる環境への影響は再び問題になりつつあります。

1つの議論は、トレーニングとより大きなモデルを実行することの環境への影響は、Google DeepmindのAlphafold2ブレークスルーに続くヘルスケアのより迅速な進歩の可能性など、機械学習が大きなプラスの影響を与える可能性と比較検討する必要があるということです。

人工知能は人類に害を及ぼしますか?

繰り返しますが、この質問に対する答えは、あなたが尋ねる人によって異なります。 AIを搭載したシステムがより強力になるにつれて、マイナス面の警告はより悲惨になっています。

テスラCEOのイーロン・マスクは、「AIは人間の文明の生存に対する基本的なリスクである」と宣言しました。 AIの悪影響を軽減するためのより強力な規制監視とより責任ある研究を推進するために、彼は社会全体に利益をもたらす友好的なAIを促進し開発することを目的とした非営利AI研究会社であるOpenaiを設立しました。有名な物理学者のスティーブン・ホーキングは、十分に進歩した人工知能が作成されると、人間の能力、特異性として知られる現象をはるかに超え、人類に実存的な脅威をもたらす可能性があることを急速に進めると警告しています。

しかし、一部のAI研究者は、人間がAI爆発の危機にonしていると考えると考えると、ばかげているように思えます。

英国ケンブリッジのマイクロソフトの研究ディレクターであるクリス・ビショップは、今日の狭い心と汎用AIの違いを強調しています。彼は、「人々はターミネーターとマシンの台頭を心配していますか?これはナンセンスであり、そのような議論は数十年後になるはずです。」

人工知能は人間の仕事に取って代わりますか?

近い将来、ほとんどの肉体労働を置き換える人工知能システムの可能性がより信頼できる可能性があります。多くの手動労働者を置き換える人工知能システムの可能性は、より信頼できる声明である可能性があります。

AIはすべての作業に取って代わるわけではありませんが、AIが仕事の性質を変えることは確かであり、唯一の疑問は自動化が職場を迅速かつ深く変える方法です。

人工知能は、すべての分野に影響を与えます。人工知能の専門家であるアンドリュー・NGは、「多くの人々が定期的な仕事をしているので、テクノロジーは毎日繰り返しの仕事を自動化するのに優れています。

仕事が交換されるという証拠があります。現在、米国には27のAmazon Goスーパーマーケットがあり、顧客は棚から商品を削除して店を出るだけで取引を完了できます。これが、米国の300万人以上のレジ係にとって意味することはまだ見られていません。 Amazonは、ロボットを使用して倉庫の効率を向上させる方法を先導しています。これらのロボットは、棚からピッカーにアイテムを輸送し、ピッカーは送信されるアイテムを選択します。 Amazonには、オペレーションセンターに200,000を超えるロボットがあり、ロボットを追加する予定です。しかし、アマゾンはまた、ロボットの数が増えると、これらの倉庫のスタッフも増加すると強調しました。しかし、アマゾンと小規模のロボット企業は、倉庫の残りの肉体労働を自動化するために取り組んでいるため、肉体労働とロボット労働が引き続き手をつないでいるという仮説ではありません。

完全に自律的な無人車はまだ現実ではありませんが、一部の予測によると、宅配便業者やタクシー運転手への影響を考慮しなくても、自動運転トラック産業だけでも今後10年間で170万人の雇用を置き換えることができます。

ただし、自動化が簡単なジョブでは、ロボット工学さえ必要としません。現在、何百万人もの人々が管理作業に取り組んでおり、システムの間でデータを入力してコピーし、会社の任命を追跡および予約しています。ソフトウェアはシステムを自動的に更新し、重要な情報をマークすることができるため、管理者の需要は減少します。

あらゆる技術の変化と同様に、AIは失われたジョブを置き換えるための新しいジョブを作成します。しかし、不確実なのは、これらの新しい役割が失業者に迅速に仕事を提供するかどうか、およびこれらの失業者がこれらの新たな役割を埋めるために必要なスキルまたは能力を持っているかどうかです。

誰もが悲観主義者ではありません。一部の人にとって、人工知能は、労働者を置き換えるのではなく、作業能力を改善できる技術です。それだけでなく、AIアシスト労働者はAIシステムよりも効率的または効率的であるため、AIを採用する必要はないと考えています。人工知能の専門家は、人工知能システムが人間の能力をどれほど速く上回るかについて幅広い意見を持っています。

オックスフォード大学の人間先物研究所は、今後数十年で人工知能の能力を予測するために何百人もの機械学習の専門家を招待しました。

彼らが将来要約したものは次のとおりです。2026年までに、人工知能によって書かれた記事は人間によって書かれた記事と見なされ、トラック運転手は2027年に解雇され、人工知能は2031年に小売業界で人間の能力を超え、人工知能は2049年にベストセラーを書き込み、2053年までに人工知能は存在の仕事を完了します。

彼らは、人工知能は、すべてのタスクを完了し、120年以内にすべての人間の仕事を自動化するために、45年で人間を倒す可能性が比較的可能であると推定しています。

<<:  ディープラーニング GPU の最も包括的な比較: コスト パフォーマンスの点で最も優れているのはどれですか?

>>:  Google:MLの発展を牽引する転移学習とは何でしょうか?丨NeurIPS 2020

ブログ    
ブログ    
ブログ    

推薦する

OpenAIの最初の投資家コスラ氏:AIスタートアップのほとんどは過大評価されている

2019年10月25日、人工知能の新興企業OpenAIが非営利団体から「営利企業」へと転換した際、シ...

人工知能はこれら12の分野に混乱をもたらし、ホワイトカラー労働者も職を失うことになるだろう

[[192649]]人工知能 (AI) は、今日最もエキサイティングで将来有望な最先端技術の 1 つ...

自動運転車にロボットが殺される、これは今後ますます増えるかもしれない

CES ではさまざまな新技術が注目を集めようと競い合っていたが、同じ場所で悲劇が起きた。自動運転モー...

自動運転に関する毎年恒例の議論:量産化は3つの要因によって推進され、その本質はデータ軍拡競争である

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

...

Java ソートアルゴリズムの概要 (VIII): 基数ソート

基数ソートは「分散ソート」に属します。基数ソートは「バケット ソート」またはビン ソートとも呼ばれま...

...

...

誰かが1週間でPASCALデータセットの17,120枚の画像をクリーンアップし、mAPを13%向上させました。

ある研究では、PASCAL VOC 2012 データセット内の 17,120 枚の画像を 1 週間で...

Google、AIアシスタント「Gemini」の修正を加速、拒否率を半減

2月18日、Googleは人工知能プロジェクトを大幅にアップデートし、BardをGeminiに改名し...

人工知能に特化したAIハッカーが近々登場すると予想

最近、ある問題を発見しました:映画でも現実でも、人工知能AIは人間を圧倒するような形で世間の前に現れ...

...

普通のプログラマーから人工知能の仕事に転職するにはどうすればいいでしょうか?

人工知能は非常にホットな話題になっています。普通のプログラマーとして、人工知能に転向する方法。プログ...