この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 大きな神話は多くありませんが、論文が発表されるたびに、間違いなく世間に波紋が広がります。 前回の第一著者論文から2年が経ち、何開明氏は再び第一著者として最新の研究を発表しました。 それは依然として視覚分野の研究であり、依然として何開明のシンプルさへのアプローチです。 シンプルさ: 論文全体を通して単一の公式は存在しません。 効果的: 凝った作りではなく、非常に巧妙で、最もシンプルな方法を使用して絶妙な美しさを表現します。 世界が震撼: 「CVPR 2022 最優秀論文候補が選出されました」 。 そこで、何開明氏の新作は、 マスクオートエンコーダはスケーラブルな視覚学習器です どのようなアイデアや研究成果があるのでしょうか? CVのための自己教師あり学習スキームこの論文では、コンピューター ビジョン用のマスク オートエンコーダ (MAE) を提案します。 —NLP テクニックに似た自己教師型アプローチ。 操作は簡単です。入力画像のランダムなパッチをマスクし、欠落しているピクセルを再構築します。 コアとなるデザインは2つあります。 1 つは、高比率マスク入力画像を備えた非対称エンコーダ/デコーダ アーキテクチャです。 まず、エンコード/デコードのアーキテクチャを見てみましょう。 図に示すように、エンコーダーは可視パッチのみを操作するViT であり、その後、事前トレーニング中の画像再構成タスクのみを担当する軽量エンコーダーが使用されます。 具体的には、まず画像を重複しないブロックに均等に分割し、次にブロックをランダムにサンプリングします。 75% のマスキング率を例にとると、最初に入力画像内のランダム ブロックの 75% をマスクし、エンコーダーは可視の 25% ブロック サブセットのみで実行されるため、非常に大きなエンコーダーを非常に少ない計算とビデオ メモリでトレーニングできます。 次に、デコーダーは可視トークンとマスク トークンを組み合わせ、すべてのトークンに位置埋め込みを追加して、各マスク パッチのピクセル値を予測することで画像信号を再構築します。 これにより、事前トレーニング中にデコーダーがエンコーダーから独立し、非常に軽量なデコーダーで実験できるようになり、事前トレーニング時間が大幅に短縮されます。 もう 1 つの特徴は、入力画像の大部分がマスクされている場合でも、自己教師ありタスクが非常にうまく機能することです。 たとえば、ランダム パッチの80%をマスクすると、次のようになります。 左端の列は入力画像、中央の列はMAE法の再構成効果、右端の列は元の画像の効果です。 再構成された画像におけるさまざまなマスキング比率のパフォーマンス比較は次のとおりです。 これら 2 つの設計を組み合わせると、その結果を使用して大規模なモデルをトレーニングできます。 トレーニング速度が3倍以上になり、精度も向上します。 さらに、このソリューションに基づく大規模モデルは優れた一般化能力を備えています。 たとえば、ImageNet-1K データのみを使用する場合、ViT-Huge モデルは 87.8% の精度を達成します。 COCOデータセットでのパフォーマンスは以下のとおりです。再構築効果は明確ではありませんが、基本的なセマンティクスは正しいです。 研究者らはMAE転移学習のパフォーマンスも評価した。 結果は、オブジェクト検出、インスタンスセグメンテーション、セマンティックセグメンテーションなどの下流タスクにおける教師あり事前トレーニングよりも優れています。 比較すると、ランダム マスキング 75%、ブロック全体マスキング 50%、グリッド マスキング 50% の 3 つのサンプリング方法の中で、ランダム マスキング 75% で再構成された画像の品質が最も優れていることがわかります。 これらの研究結果に基づいて、最後に何開明氏のチームも見解を述べた。 一方、拡張性に優れたシンプルなアルゴリズムがディープラーニングの中核をなしています。 コンピューター ビジョンでは、自己教師あり学習が進歩しているにもかかわらず、実践的な事前トレーニングは依然として教師ありで行う必要があります。 この研究では、著者らは、オートエンコーダが ImageNet および転移学習タスクにおいて非常に強力なスケーラビリティの利点を示したことを発見しました。 このため、著者は、CV における自己教師あり学習は現在、 NLP と同様の方向に進んでいる可能性があると考えています。 一方、著者らは、画像と言語は性質の異なる信号であり、この違いは慎重に扱う必要があると指摘している。 画像は、言葉の視覚的な類似物に意味的に分解されることなく、単に光として記録されたものです。 オブジェクトを削除するのではなく、意味セグメントを構成しない可能性のあるランダムなブロックを削除します。再構築されたピクセルも意味的なエンティティではありません。 研究チームこの論文の研究チームはFacebook AI Research Institute (FAIR) から来ており、チームのメンバーはそれぞれ数々の賞を受賞しており、まさにドリームチームです。 今回は、数名の退役軍人に加え、中国人の顔ぶれについても詳しくお話ししましょう。 Xinlei Chen は浙江大学でコンピューターサイエンスの学士号を取得し、その後カーネギーメロン大学で博士号を取得しました。彼女は UCLA、Google Cloud、MSR でインターンをしてきました。 Xie Saining は上海交通大学の ACM クラスを卒業し、その後カリフォルニア大学サンディエゴ校でコンピューターサイエンスの博士号を取得しました。Google と DeepMind でインターンをしました。 ヤンハオ・リーは北京大学でコンピューターサイエンスの学士号を取得し、その後同大学に残って修士号を取得しました。 最後にもう一度、He Kaiming 氏を紹介したいと思います。 著者の一人は何開明で、皆さんもよくご存知だと思います。 Mask R-CNNの主提案者として、トップカンファレンスで最優秀論文賞を4回受賞。 何開明さんは2003年に広東省の大学入学試験でトップの成績を収め、清華大学に入学し、楊振寧さんが創設した物理学部の基礎科学クラスに入学した。 修士課程と博士課程の間、何開明氏は香港中文大学のマルチメディア研究所に通い、そこで後にセンスタイムの創設者となる唐暁氏に指導を受けました。 この期間中、He Kaiming は Microsoft Research Asia でもインターンをしました。Sun Jianの指導の下、彼は ResNet 研究を第一著者として発表し、一躍有名になり、2016 CVPR Best Paper Award を受賞しました。 同年、何開明氏はヤン・ルカン氏(2019年チューリング賞受賞者)が率いるフェイスブック人工知能研究所に加わり、ロス・ガーシック氏、ピオトル・ダラー氏ら本研究のベテランたちとともにAI研究分野におけるFAIRのドリームチームを結成した。 さらに素晴らしいのは、何開明氏が若くして有名になったにもかかわらず、ここ数年間も研究に打ち込み続け、常に新たな驚きをもたらしてきたことだ。 彼の新たな研究成果の多くは、さらに発展して発展につながるようなものだ。 今回もMAEはそんな続編として見られています。 MAEについてどう思いますか? 論文リンク |
<<: 清華大学は、大規模な事前トレーニングなしで効率的なNLP学習フレームワークTLMを提案
>>: 中国科学院とディープマインドが協力し、ディープラーニングを使って脳が顔を認識する仕組みを解明
コンピュータや機械は睡眠なしでも動作できますが、科学者たちは最近、人間と同様に一部の AI も「睡眠...
先月、個人情報保護のため、「ヘルメットをかぶって家を眺める」男性の短い動画がネット上で拡散され、ネッ...
1. Ant Financial Knowledge Graph プラットフォームの紹介まず、ナレッ...
人工知能は現在最も注目されている科学研究分野の一つです。 IBM、Google、Microsoft、...
普通の人にとって、毎日起きて服を着るのはかなり簡単な作業です。しかし、身体に障害のある人にとって、着...
MITの研究者らは新型コロナウイルスとの戦いに役立つ新しいロボットを開発した。この自律型機械は、微生...
2023年6月16日、「共に立ち上がって無限のイノベーションを」をテーマにした人工知能フレームワーク...
[[269504]]人工知能はまるでまだ遠い未来の話であるかのように語られていますが、実際にはすでに...
今月、ニュースイベント分析、マイニング、検索システム NewsMiner のデータによると、図 1 ...
「テクノロジーがなければ、金融は存在しない。」モバイルインターネット時代の到来により、テクノロジーや...
人工知能ブームが始まって以来、人材不足が業界の「主要テーマ」となっている。これを踏まえ、大手テクノロ...
健康診断のために病院に行くところを想像してください。診察室に入るとすぐに、看護師があなたの写真を撮り...
米国現地時間の水曜日、人気の短編動画プラットフォーム「TikTok」(Douyinの海外版)のCEO...