この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 データが少なく、事前トレーニング済みのモデルもありません。どうすればよいでしょうか? ここにあなたのための秘密兵器があります:自己教師学習。 データサイエンティストのジェレミー・ハワード氏はツイートを投稿しました。
関連する最新の fast.ai チュートリアルも添付されています。 △アドレス:https://www.fast.ai/2020/01/13/self_supervised/このツイートはすぐに多くのネットユーザーの注目を集め、絶賛された。
次に、自己教師あり学習がいかに強力であるかを見てみましょう。 自己教師あり学習入門ほとんどの場合、ニューラル ネットワークのトレーニングは、事前にトレーニングされたモデルから開始し、その後微調整する必要があります。 事前トレーニング済みのモデルを使用すると、最初からトレーニングする場合に比べて 1,000 倍のデータを節約できます。 では、想像してみてください。あなたの分野に事前トレーニング済みのモデルがなかったら、どうしますか? たとえば、医療画像の分野では、事前にトレーニングされたモデルはほとんどありません。 最近、この問題を研究した興味深い論文があります。 △論文アドレス: https://arxiv.org/pdf/1902.07208.pdf研究では、ImageNet モデルの初期レイヤー (事前トレーニング済み) を使用した場合でも、医療用画像モデルのトレーニング速度と最終的な精度を向上できることがわかりました。 そのため、一般的な事前学習済みモデルが研究分野の範囲外であっても、それを使用してみることは可能です。 しかし、この研究は次のような問題点も指摘している。
大量のデータを必要とせず、より良い結果を達成できるテクノロジーはありますか? 自己教師学習は秘密兵器です。 これは、モデルがラベル付きデータなしでラベルなしデータから直接学習する、機械学習の「理想的な状態」と見ることができます。 例えば、ULMFiT(NLPトレーニング方法)の鍵となるのは自己教師学習であり、これによりNLP分野の技術レベルは大幅に向上しました。 △論文アドレス: https://arxiv.org/abs/1801.06146自己教師学習ベースの方法では、まず言語モデルを訓練して文中の次の単語を予測します。 この事前トレーニング済みモデルを別のタスク(感情分析など)で使用すると、少量のデータで最新の結果を得ることができます。 コンピュータビジョンにおける自己教師学習自己教師学習では、事前トレーニングに使用されるタスクはプレテキストタスクと呼ばれます。 微調整に使用されるタスクは、ダウンストリーム タスクと呼ばれます。 自己教師あり学習は現在、NLP の分野では非常に一般的ですが、コンピューター ビジョンの分野ではほとんど使用されていません。 おそらく、ImageNet などの事前トレーニング済みモデルの成功により、医療画像処理などの分野の研究者は自己教師学習の必要性をよく理解していない可能性があります。 以下のコンテンツでは、CV 分野で自己教師学習を適用した論文の例を示します。 ますます多くの人々がこの重要な技術に注目してくれることを願っています。 画像の色付けカラフルな画像のカラー化 △論文アドレス: https://arxiv.org/abs/1603.08511自動カラー化のための表現の学習 △論文アドレス: https://arxiv.org/pdf/1603.06668動画をカラー化することで追跡が明らかになる △ https://arxiv.org/pdf/1806.09594エフェクト表示 画像パッチを正しい位置に配置するジグソーパズルを解くことによる視覚表現の教師なし学習 △論文アドレス: https://arxiv.org/pdf/1603.09246文脈予測による教師なし視覚表現学習 △論文アドレス: https://arxiv.org/pdf/1505.05192エフェクト表示 フレームを正しい順序に並べますシーケンスのソートによる教師なし表現学習 △論文アドレス: https://arxiv.org/pdf/1708.01246シャッフルと学習: 時間順序検証を使用した教師なし学習 △論文アドレス: https://arxiv.org/pdf/1603.08561エフェクト表示 修復コンテキスト エンコーダー: インペインティングによる特徴学習 △論文アドレス: https://arxiv.org/pdf/1604.07379エフェクト表示 破損した画像の分類アーティファクトの発見を学習する自己教師付き特徴学習 △論文アドレス: https://zpascal.net/cvpr2018/Jenni_Self-Supervised_Feature_Learning_CVPR_2018_paper.pdfエフェクト表示 口実タスクを選択コンピューター ビジョンで自己教師学習を使用するには、非常に重要な質問に答える必要があります。
多くの人は口実タスクとして「オートエンコーダ」を使用することを選択します。 オートエンコーダは、入力画像を簡略化された形式に変換し、それを可能な限り元の画像に近い形式に変換します。 ただし、元の画像の内容だけでなく、元の画像に含まれるノイズもすべて再生成する必要があります。 したがって、下流のタスクでより高品質の画像を生成することが目的である場合、これは適切な選択ではありません。 さらに、口実タスクが人間が実行できるものであることを確認する必要があります。 たとえば、予測時点が遠すぎる場合、ビデオの次のフレームを予測することは不可能です。 下流タスクの微調整モデルがプレテキストタスクで事前トレーニングされたら、微調整に進むことができます。 この時点では、この問題を転移学習として考え、事前トレーニング済みモデルの重みをあまり変更しないようにする必要があります。 全体として、Jeremy Howard は、「完璧な」口実モデルの作成に時間をかけすぎるのではなく、できるだけ迅速かつ簡単なモデルを構築することを推奨しています。 次に、この口実モデルが下流のタスクを満たすことができるかどうかを確認する必要があります。 さらに、下流のタスクで良好な結果を得るために、非常に複雑な口実のタスクは通常必要ないことが判明しました。 ヤン・ルカンのより良いアプローチの提案ジェレミー・ハワードがこのツイートを投稿した後、ディープラーニングの三大巨頭の一人であるヤン・ルカンがそれに反応した。 Yann LeCun はより良い提案をしています:
関連する研究には以下が含まれます。 口実不変表現の自己教師学習 △論文アドレス: https://arxiv.org/pdf/1912.01991ジェレミー・ハワードはルカン氏にこう答えた。
ジェレミー・ハワードジェレミー・ハワードジェレミー・ハワードはオーストラリアのデータサイエンティストであり起業家です。ディープラーニングをより身近なものにすることを目的とした研究所 fast.ai の創設研究者の 1 人。 それ以前は、サンフランシスコに拠点を置く先進的な機械学習企業である Enlitic の CEO 兼創設者を務めていました。 |
<<: フォトライブラリには30億枚の画像があり、たった1枚の写真で個人情報を確認できます。顔認識が再びプライバシー論争を巻き起こす
>>: 機械学習プロジェクトを構築するための6つのステップをマスターしましょう
[[315285]]現代の技術進歩の影響を免れる業界はありませんが、不動産業界はこの点では孤立した業...
[[434088]]深さはディープ ニューラル ネットワークの鍵となりますが、深さが増すと、順次計...
技術の複雑さが年々増すにつれ、科学的な革新と発見への扉がより多くの分野に開かれています。現在の問題は...
6月19日、MetaのCEOマーク・ザッカーバーグ氏は人工知能の分野に多額の投資を行っていたが、人...
AlphaGoとイ・セドルの世紀のマンマシン対決で、ついにAlphaGoが勝利した。では、人工知能の...
最近、J-10やJ-20など我が国の先進的な国産戦闘機の開発に成功した中国航空工業集団の成都航空機設...
古代より、農業は人類の生存の基盤であり、国家経済の基盤となってきました。しかし、人口の急速な増加、耕...
個人によって生成されるデータの量と種類が増加し続けるにつれて、警察はそれに追いつくために効果的な自動...
GPT-4 などの大規模言語モデル (LLM) は多くの推論タスクで優れたパフォーマンスを発揮します...
人間と超人工知能の関係の発展は、長年にわたり話題となっている。少し前に、「人工知能研究ジャーナル」で...
【CNMO】「東莞でトイレットペーパーを買うのに顔認証が必要」「94歳の男性が顔認証で逮捕」「南寧...