2012年以来、人工知能の復活は9年目に入りました。「人工知能とは何か」に対する人々の認識は、当初の無知、憧れ、恐怖から徐々に深い理解へと移行しました。 2018年には、人工知能が再び「寒い冬」を迎えるのはいつかという議論が続いていたが、2019年になると、人々はもはや「寒い冬」の話には興味を示さなくなり、一般的に「人工知能を理解できるようにする方法」や「AIによって生じるプライバシー、セキュリティ、倫理的問題」に注目するようになった。 2020 年、人工知能は依然として急成長を遂げており、あらゆる分野に大きな影響を与えています。 2020年も残り10か月となりました。人工知能にどのような重要なトレンドが生まれるのかを予想してみましょう。CB Insightsはこの問題について判断を下し、人工知能における9つの重要な研究と応用のトレンドを示しました。 AI Technology Review もこれらの判断にある程度同意しています。これら 9 つのトレンドについて、次の分析を行っていきます。 1. ディープフェイクはビジネスモデルを変える CBインサイトは、商業的なディープフェイクが増加し、亡くなった有名人が「復活」し、小売やマーケティングの方法も変化する可能性があると考えています。 少し前、ディープフェイク技術がインドの選挙に登場し、候補者らが選挙の宣伝資料に使用しました。この候補者は最終的に惨敗に終わったが、ディープフェイクによって点火されたAIによる顔変えの火が徐々に熱を帯びる兆しを見せていることを意味する。 この技術は政治ビデオやポルノビデオに使用された場合、マイナスの影響を及ぼす可能性があるが、メディアや映画会社にとっては一生に一度あるかないかのチャンスである。たとえば、ハリウッドの映画会社の中には、1950 年代の映画のキャラクターを「デジタルで復活」させようとしているところもあります。 商業レベルでは、ディープフェイクはよりパーソナライズされ、電子商取引の体験や仮想オンライントライアルが改善されるでしょう。また、広告は、オンデマンドでビデオを合成し、対応する方言を装備するなど、ハイパーターゲットの方向に発展するでしょう。映画の続編を「再撮影」するなど、クリエイティブなプロセスも自動化されるでしょう。 技術的な観点から見ると、ディープフェイク技術も飛躍的に進歩しています。つい最近、北京大学とマイクロソフトリサーチがそれぞれ FaceShifter と Face X-Ray を共同で提案しました。前者は、忠実度の高い、遮蔽を認識する顔変更ツールであり、後者は偽造された顔画像を検出できるツールです。 トレーニングされた FaceShifter は、手動で注釈を付けることなく、自己監督方式で異常領域を回復し、アイデンティティと顔合成属性を適応的に統合できます。 Face X-Rayは合成画像かどうかを判定できるだけでなく、どの部分が合成であるかを指摘するなど、認識機能と解釈機能の両方を備えています。 これら2つの技術は、AIによる顔修正の分野では「鋭い槍」と「強力な盾」と呼ばれ、業界でも先導的な成果を上げています。また、従来の方法に比べて必要なデータ量が大幅に少ないことも注目に値します。 ディープフェイクの問題に関しては、2020 年の開発動向は主に次のとおりです。
2. ハッカー革命:AIを使ってAIを攻撃する 従来のハッカーは主にシステムの脆弱性を発見してシステムに侵入します。しかし、人工知能の時代に入ってからは、ハッカーとホワイトハッカーの攻防戦も大きく変化しました。 人工知能の台頭により、AI はマルウェアを自動的に検出して対処するために徐々に使用されるようになっています。AI は疑わしい動作を検出する方法を学習し、システムに影響を与える前にサイバー攻撃をブロックするとともに、人間の不必要な作業負荷を軽減します。 しかし、攻撃者も同じ技術を使って手口を強化することもできる。特に犯罪者がそれを武器にした場合、こうしたマルウェアは最も優れたサイバーセキュリティ防御さえも回避し、コンピュータネットワークに感染し、カメラが標的の顔を検知した場合にのみ攻撃を開始することもある。 つまり、2020 年の将来のハッカーは次の 2 つの側面に重点を置く可能性があります。
例えば、2019年にSkylight Cyberの研究者はAIモデルの固有のバイアスを検出する方法を発見しました。これは、悪意のあるソフトウェアがAIファイアウォールを回避し、ウイルス対策ソフトウェアを欺くことを可能にする「バックドア」を作成するのに使用できる可能性があります。 つまり、AI モデルの仕組みを理解し、その特定の機能に基づいて攻撃兵器を設計できれば、システムを騙すことができるということです。 Skylight CyberのようなAI企業がさらに出現すれば、消費者や企業の保護レベルは確実に高まりますが、AI特有の弱点を狙う新たなハッカーやソフトウェアのグループも出現するでしょう。 一方、ハッカーはデータの観点から AI を騙す可能性もあります。つまり、AI アルゴリズムのトレーニング データを破壊し、AI に偏りを持たせ、ネットワーク内の正常な動作と悪意のある動作を区別する能力に影響を与える可能性があります。 音声合成を使用した刑事事件 サイバーセキュリティ研究者は攻撃を防御するために AI をますます使用していますが、AI 自体もより複雑で標的を絞ったサイバー攻撃を作成するために使用されるようになります。たとえば、ディープフェイクで生成・合成された音声はますますリアルになってきています。 欧州では、ハッカーがAIを使って企業のCEOになりすまし、従業員に電話をかけて送金を要求する事件が起きている。 AI を使用した実際の犯罪攻撃の事例は報告されていないものの、IBM は 2018 年にはすでに、ネットワーク セキュリティ保護を回避して攻撃を実行できるディープラーニング駆動型マルウェア「Deeplocker」を開発していました。 このソフトウェアは「高度に標的を絞った回避型攻撃ツールを備えた新しいタイプの AI 搭載マルウェア」と説明されており、既存の AI モデルをマルウェア技術と組み合わせて新しいタイプの攻撃を作成する方法を理解することを目的としている。 この技術は、ブラックボックス AI の従来の弱点を利点に変えます。ターゲット オブジェクトが出現する前に、通常のアプリケーション ソフトウェアに隠して、検出されることなく数百万のシステムに感染させることができます。 この AI モデルは、特定の基準を認識した場合にのみ「ロック解除」され、攻撃を開始します。 もちろん、AI型ハッカーだけでなく、量子コンピューティングのリソースを活用する量子ハッカーや、ビッグデータを解析に利用するビッグデータハッカーも徐々に登場してくるでしょう。 したがって、技術的なレベルでは、2020 年のハッカーの開発傾向は主に次のようになります。
3. AI技術は一般の人々にも普及し、利用しやすくなり、AutoMLが大きな役割を果たすようになる AutoML は、ニューラル ネットワークの自動設計とトレーニングのためのツール セットとして、企業の参入障壁を下げ、テクノロジをより「普及」させることができます。 何千もの特定のタスクから適切なニューラル ネットワーク フレームワークを設計または検索するプロセス全体は、特に、より複雑なシナリオ (速度と精度の両方が求められる自動運転など) 向けの AI アーキテクチャを設計する場合は、非常に時間がかかります。 これに応じて、特定のタスクに最適な AI 設計を見つけるプロセスを自動化するニューラル アーキテクチャ検索 (NAS) が誕生しました。 2017 年に Google はこれを正式に「AutoML」と名付けました。 Google は当時、AutoML が新しいニューラル ネットワークの誕生を促し、専門家以外のユーザーでもそれぞれの特別なニーズに基づいて対応するニューラル ネットワークを作成できるようになると指摘しました。 それ以来、AutoML はますます広く使用されるようになり、データの準備、トレーニング、モデル検索、特徴量エンジニアリングなどの AI 設計において大きな役割を果たし、AI 技術の普及を大きく促進しました。 一般的に、AutoML には 2 つの主な利点があります。
AI テクノロジーが普及し、一般の人々にも利用しやすくなるにつれて、AutoML は引き続き重要な役割を果たすでしょう。 今後の研究の方向性としては、主にアルゴリズムの方向性と理論の方向性から始めることができます。
4. フェデレーテッドラーニングは新たなデータ共有パラダイムをもたらす フェデレーテッド ラーニングの概念は、2017 年に Blaise らによって Google AI ブログに公開されたブログ投稿で初めて提案されました。 提案されて以来、関連する研究は非常に人気があります。 フェデレーテッド ラーニングが短期間でアイデアから分野へと急速に変化できた主な理由は、フェデレーテッド ラーニング テクノロジーが学習パラダイムとして、ユーザー データのプライバシーを確保しながら「データ アイランド」問題を解決できることです。 従来の AI モデルと比較すると、フェデレーテッド ラーニングは、次のような人工知能の開発が現在直面している困難に対する新しいパラダイムのようなものです。
したがって、技術的には、連合学習が合法かつ効果的であることを保証することは確かに可能です。したがって、フェデレーテッド ラーニングは、複数の当事者の協力を特徴とするオペレーティング システムのようなもので、その力はすべての当事者が認識した場合にのみ発揮されます。 したがって、フェデレーテッド ラーニングは 2020 年も引き続き注目の研究トレンドとなるでしょう。
5. 機械学習がスマートシティの構築に貢献 スマートシティで最も重要なことは、さまざまな情報技術や革新的なコンセプトを活用して都市のシステムやサービスを接続・統合し、リソースの利用効率を向上させることです。 技術開発の観点から見ると、スマートシティの構築には、「モバイル技術」に代表されるモノのインターネットやクラウドコンピューティングなどの新世代情報技術の応用による総合認識、ユビキタス相互接続、ユビキタスコンピューティング、統合アプリケーションの実現が必要です。 IoT と機械学習の台頭は、機械学習を使用して通勤行動をモデル化し、通勤モードの選択に影響を与える要因に焦点を当てることや、機械学習を使用してセンサーデータを分析して温室効果ガスの排出量を削減し、よりスマートなリソース管理を行うなど、これを明らかにサポートしています。 もちろん、スマート シティには非常に多くの分野が関係するため、単一の企業がそれを完全に掌握することは不可能です。1 兆ドル規模の Alphabet 社でさえ、多くの都市に新しい地区を作り、政府と協力して不動産、公共エネルギー施設、交通機関、その他のレイアウトを計画することしかできません。 例えば、昨年第2四半期には、アルファベットの子会社であるサイドウォーク・ラボが、政府や他の企業との協力を通じて13億ドルを投じてトロントにスマートシティプロジェクトを構築する方法を詳述した1,500ページの提案書を発表した。 このプロジェクトの焦点とハイライトは、政府と都市計画における AI の応用に集中しています。 まとめると、2020 年には、スマート都市開発はコラボレーションとテクノロジーの 2 つの側面で開花するでしょう。
6. AIトレーニングの膨大な消費に対処するためにAI技術を使用する 計算集約型の AI テクノロジーは、よりスマートで持続可能なソリューションを必要とするだけでなく、世界のエネルギー需要の増大への対応にも役立つはずです。 AIの進歩はトップダウン型になる傾向があり、テクノロジー大手が特定のAIツールを開発し、それを他社に提供するが、これはAI研究が計算集約的な性質を持つことも一因となっている。 統計によると、犬、蝶、ハンバーガーの超リアルな画像を作成するために Google が 2018 年に実施した BigGAN 実験で消費された電力は、「アメリカの全家庭がほぼ 6 か月間に消費する電力の合計に相当」した。このような電力消費は本当に衝撃的です! AIのエネルギー消費量は増加し続けており、2020年以降、省エネはAIにとって重要な研究課題となるでしょう。 AI技術を活用した省エネは、次の3つの側面から実現できます。
7. スモールデータ問題の解決は必須 大量のデータを必要とするディープラーニング アルゴリズムをトレーニングするのに十分なデータがない場合、解決策は 2 つあります。合成データを生成するか、少量のデータから学習できる AI モデルを開発することです。 合成データを生成する手法は、現実世界では取得が難しい吹雪や歩行者の異常行動などの画像データをシミュレーション環境内で合成する手法で、自動運転の分野で広く利用されています。 コンピュータビジョンのタスクでよく使われる転移学習など、少量のデータから学習できるAIモデル手法を開発します。これは、まず大量の標準データを含むタスクでAIアルゴリズムをトレーニングし、次にアルゴリズムが学習した知識を非常に少ないデータを含む別のタスクに転移するというものです。 転移学習はコンピュータービジョンのタスクで大きな役割を果たしてきましたが、ラベル付きデータが一般的に不足しているため、NLP タスクではまだ良い結果が得られていません。 もう 1 つの方法である自己教師あり事前トレーニングは、NLP 分野の特殊性により適切に対応できます。 Google の BERT は自己教師あり事前トレーニングの優れた例であり、AI 言語モデルが前の単語に基づいて単語を予測するだけでなく、次の単語も予測できるため、双方向のコンテキスト理解が可能になります。 ヤン・ルカン氏が率いるフェイスブックの人工知能部門は、自己監督に関する研究を行っている。一例としては、言語モデルを事前にトレーニングし、その後モデルを微調整してヘイトスピーチを識別することが挙げられます。 スモールデータ問題の解決という点では、2020 年の開発動向は主に次のとおりです。
8. 量子機械学習 古典的な機械学習アルゴリズムと量子 AI を組み合わせたハイブリッド モデルが、まもなく実用化されるでしょう。 量子機械学習は従来の機械学習の原理を活用していますが、そのアルゴリズムは量子プロセッサ上で実行されます。量子プロセッサは通常のニューラルネットワークよりもはるかに高速であるだけでなく、現在大量のデータに対する AI 研究を妨げているハードウェアの制限を克服します。 テクノロジー大手と量子スタートアップの両方が、一部のタスクは通常のコンピューター上で実行される従来のニューラル ネットワークによって実行され、他のタスクは量子ニューラル ネットワーク (QNN) によって強化されるというハイブリッド アプローチに取り組んでいます。 たとえば、Google AI チームは 2013 年から量子コンピュータのアルゴリズムの開発に取り組んでおり、最新の目標は既存の量子デバイス上で量子と古典を組み合わせた機械学習技術を開発することです。 彼らは、量子ニューラルネットワークに関する現在の研究はまだ理論的な段階であるものの、近い将来、理論的なアーキテクチャが量子コンピューター上で実装され、検証されると固く信じています。 2020 年に量子機械学習で試すことができる方向性は次のとおりです。
9. NLPの概念から学び、人生を理解する 実際、自然言語処理もゲノムも配列データで構成されています。AIアルゴリズムは自然言語処理の分野に精通しており、遺伝学の分野でもその能力を発揮することができます。 自然言語処理の自己教師学習では、AI アルゴリズムは文中の欠落した単語を予測できます。文が単語の並びであるのと同様に、タンパク質は特定の順序で並んだアミノ酸の並びです。 Facebook AI 研究所とニューヨーク大学の研究者は、同じ自己教師あり学習の原理をタンパク質配列データに適用しました。 NLP で欠落している単語を予測するために自己教師学習を使用するのとは異なり、タンパク質配列データでは、AI は欠落しているアミノ酸や隠れたアミノ酸を予測する必要があります。 最近最も注目されている進歩の 1 つは、DeepMind のゲノミクスの進歩です。同社は、ゲノムにおける最も複雑な課題の 1 つであるタンパク質の折り畳みを理解し、最終的にタンパク質の 3D 構造を決定できる Alphafold と呼ばれるアルゴリズムを開発しました。 Alphafold は実際に自然言語処理の概念を借用して、アミノ酸間の距離と角度を予測します。 NLP の概念を使用して生物を理解するという点では、将来的には次のような方向性が模索される可能性があります。
参照: https://www.cbinsights.com/research/report/ai-trends-2020/ この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式サイトにアクセスして許可を申請してください。 |
<<: AIは私たちが何を見て、何を考えるかを静かにコントロールしている
「私は講義をするときに利益を請求しません。私の目的は、無料の授業、共有、科学普及、コミュニケーション...
[[204299]]先週、信用調査会社エキファックスは、同社のシステムに保存されていた1億4,300...
[[418456]]この記事は、Lee Hongyi によるチーム スタディ ブック「LeeML-...
[[409963]]学術研究の特許所有権は、研究者の研究成果を保護し、保証するものであるため、研究者...
「医者はいつも正しい」という考えが何十年も続いた後、伝統的な医師と患者の関係は重大な岐路に立たされて...
会話型ロボットと聞くと、私と同じように、SiriやAlexaとの会話をすぐに思い浮かべますか?時には...
コンセンサス メカニズムは、ブロックチェーン システムで新しいブロックを生成する責任者を決定する役割...
IBM と Meta のパートナーおよび協力者には、AMD、Intel、NASA、CERN、Hugg...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[[241150]]画像出典: Visual China今年のコナン映画は中国でも公開されるそうです...
高齢者人口の継続的な増加は、高齢者の差し迫った健康ニーズを満たすために医療および保健システムを改善す...
AIは急速に私たちの日常生活に入り込んできており、近い将来、AIと人間の境界線を見分けることが難しく...