転移学習により、ディープラーニングは難しくなくなりました...

転移学習により、ディープラーニングは難しくなくなりました...

それほど遠くない過去には、データ サイエンス チームがディープラーニングを効果的に活用するには、いくつかのものが必要でした。

  • 斬新なモデルアーキテクチャ、おそらく社内で設計
  • 大規模かつ潜在的に独占的なデータセットへのアクセス
  • 大規模モデルのトレーニングに必要なハードウェアまたは資金

これにより、ディープラーニングは妨げられ、これらの条件を満たす少数のプロジェクトに限定されてしまいます。

しかし、ここ数年で状況は変わりました。

Cortex では、ユーザーがディープラーニングに基づいた新世代の製品を発売していますが、以前とは異なり、これらの製品のすべてが独自のモデル アーキテクチャを使用して構築されているわけではありません。

この進歩の原動力は転移学習です。

転移学習とは何ですか?

大まかに言えば、転移学習とは、写真の花を識別するなどの特定のタスク用にトレーニングされたモデルに蓄積された知識を別のモデルに転送して、人の皮膚にある黒色腫を識別するなどの関連する別のタスクの予測に役立てることができるという考えを指します。

注: 転移学習についてさらに詳しく知りたい場合は、Sebastian Ruder が書いた素晴らしい入門書を参照してください。

転移学習にはさまざまなアプローチがありますが、広く採用されている方法の 1 つは微調整です。

このアプローチでは、チームは事前にトレーニングされたモデルを取得し、モデルの最後のレイヤーを削除/再トレーニングして、新しい関連タスクに焦点を当てます。たとえば、「AI Dungeon」は、AI が生成した説得力のあるストーリーにより急速に人気を博したオープンワールドのテキスト アドベンチャー ゲームです。

AI Dungeon は Google の研究室で開発されたのではなく、1 人のエンジニアによって構築されたプロジェクトであったことは注目に値します。

AI Dungeon の作成者である Nick Walton 氏は、モデルをゼロから設計したのではなく、最先端の NLP モデルである OpenAI の GPT-2 を採用し、それを「自分で冒険を選ぶ」テキストで微調整しました。

これが機能するのは、ニューラル ネットワークでは、最初のレイヤーが単純で一般的な機能に焦点を当て、最後のレイヤーがよりタスク固有の分類/回帰に焦点を当てているためです。 Ng 氏は、画像認識モデルを想像することで、これらのレイヤーとそれらの相対的な特異性のレベルを視覚化します。


ベースレイヤーの一般的な知識は、他のタスクにもうまく応用できることが多いことがわかります。 AIダンジョンの場合、GPT-2は一般的な英語を比較的高度に理解しており、最終レイヤーでの再トレーニングを行うだけで、自分で選ぶアドベンチャーのジャンルで優れた成績を収めることができます。

このプロセスを通じて、エンジニアは数日でモデルを新しいドメインに展開し、比較的新しい結果を得ることができます。

転移学習が次世代の機械学習駆動型ソフトウェアの鍵となる理由

先ほど、機械学習とディープラーニングに必要な好ましい条件、特にこれらの条件を有効に活用するための条件について述べました。大規模でクリーンなデータセットにアクセスし、効果的なモデルを設計し、それをトレーニングする方法が必要です。

つまり、デフォルトでは、特定の領域または特定のリソースのないプロジェクトは実行不可能になります。

現在、転移学習により、これらのボトルネックは解消されています。

1. データセットの小ささはもはや決定的な要因ではない

ディープラーニングには通常、大量のラベル付きデータが必要ですが、多くの分野ではそのようなデータは存在しません。転移学習はこの問題を解決できます。

例えば、ハーバード大学医学大学院に所属する研究チームは最近、「胸部X線写真に基づいて、非がんによる死亡率を含む長期死亡率を予測できる」モデルを導入した。


約 50,000 枚のラベル付き画像のデータセットでは、研究者は CNN (畳み込みニューラル ネットワーク) をゼロからトレーニングするために必要なデータを持っていませんでした。代わりに、彼らは事前トレーニング済みの Inception-v4 モデル (1,400 万枚を超える画像を含む ImageNet データセットでトレーニング済み) を採用し、アーキテクチャをわずかに変更することで転移学習を使用してモデルをデータセットに適応させました。

最終的に、彼らの CNN は、胸部画像 1 枚のみを使用して、各患者の実際の死亡率と相関するリスク スコアを生成することに成功しました。

2. モデルのトレーニングは数日ではなく数分で完了

膨大な量のデータでモデルをトレーニングするには、大規模なデータセットを取得するだけでなく、リソースと時間も必要です。

たとえば、Google が最も高度な画像分類モデルである exception を開発したとき、彼らは 2 つのバージョンをトレーニングしました。1 つは ImageNet データセット (1,400 万枚の画像) で、もう 1 つは JFT データセット (3 億 5,000 万枚の画像) でトレーニングしました。

60 個の NVIDIA K80 GPU でさまざまな最適化を使用してトレーニングすると、1 つの ImageNet 実験を実行するのに 3 日かかります。 JFTの実験には1か月以上かかりました。

ただし、事前トレーニング済みの Xception モデルがリリースされたため、チームは独自のバージョンをより迅速に微調整できるようになりました。

たとえば、イリノイ大学とアルゴンヌ国立研究所のチームは最近、銀河の画像を渦巻き状か楕円状かに分類するモデルをトレーニングしました。


ラベル付き画像がわずか 35,000 枚のデータセットしかなかったにもかかわらず、NVIDIA GPU を使用してわずか 8 分で Xception を微調整することができました。

GPU 上で実行すると、このモデルは 99.8% の精度で毎分 20,000 個を超える銀河を超人的な速度で分類できます。

3. モデルのトレーニングにベンチャーキャピタルは不要

Xception モデルを 60 個の GPU でトレーニングするのに数か月かかる場合、Google はコストをあまり気にしていない可能性があります。しかし、Google ほどの予算を持たないチームにとって、モデル トレーニングの価格は大きな懸念事項です。

たとえば、OpenAI が GPT-2 の結果を初めて発表したとき、彼らはモデル アーキテクチャをリリースしましたが、誤用に対する懸念から、事前トレーニング済みの完全なモデルはリリースしませんでした。

これに応えて、ブラウン大学のチームは論文に記載されているアーキテクチャとトレーニングプロセスを使用して GPT-2 をコピーし、そのモデルを OpenGPT-2 と名付けました。トレーニングには約5万ドルを費やしたが、パフォーマンスはGPT-2よりも悪かった。

モデルのパフォーマンスが最先端のレベルを下回る場合、多額の資金なしで実際のソフトウェアを構築するチームにとって、5 万ドルは大きなリスクとなります。

AI Dungeon を構築する際、Nick Walton は GPT-2 を微調整してプロジェクトを完了しました。 OpenAIはすでにモデルのトレーニングに約27,118,520ページのテキストと数千ドルを投入しており、ウォルトン氏はそれを一切作り直す必要がなかった。

代わりに、彼は chooseyourstory.com からのはるかに小さなテキスト セットを使用し、完全に無料の Google Colab でモデルを微調整しました。

機械学習エンジニアリングは真のエコシステムになりつつある

ソフトウェア エンジニアリングと比較すると、エコシステムは一般に、かなり標準的な方法で「成熟」していると考えられています。

非常に強力な機能を備え、特殊なケース、研究プロジェクト、おもちゃに使用される新しいプログラミング言語が登場しようとしています。この段階では、それを使用する人は誰でも、すべての基本的なユーティリティをゼロから構築する必要があります。

次に、このコミュニティの人々は、ツールが実稼働環境で使用できるほど安定するまで、共通ユーティリティを抽象化するライブラリとプロジェクトを開発します。

この段階では、ソフトウェアの構築にこれを使用するエンジニアは、HTTP リクエストの送信やデータベースへの接続を気にする必要はなく、それらはすべて抽象化されており、エンジニアは製品の構築のみに集中できます。

つまり、Facebook は React を構築し、Google は Angular を構築し、エンジニアはそれらを使用して製品を構築します。転移学習の発展により、機械学習エンジニアリングはこの方向に進んでいます。

OpenAI、Google、Facebook などのテクノロジー大手が強力なオープンソース モデルをリリースするにつれて、機械学習エンジニア向けの「ツール」はより強力で安定したものになっています。

機械学習エンジニアは、PyTorch や TensorFlow を使用してモデルをゼロから構築するのに時間を費やす代わりに、オープンソース モデルと転移学習を使用して製品を構築しています。これは、まったく新しい世代の機械学習主導型ソフトウェアが到来しようとしていることを意味します。

今では、機械学習エンジニアはこれらのモデルを本番環境に導入することだけを心配すればよいのです。

ディープラーニングはもう難しくありません。

<<:  人工知能は破壊をもたらすのか? 「人工知能破壊論」への疑問と考察

>>:  マッキンゼーは、2030年までに1億人の中国人が転職に直面し、世界中で8億人がロボットに置き換えられると予測している。

推薦する

大規模言語モデルが信頼できるかどうかを評価するにはどうすればよいでしょうか? 7つの次元はここにまとめられている

実際の展開においては、大規模言語モデル(LLM)をどのように「整合」させるか、つまりモデルの振る舞い...

興味深い質問です。2025年までに自動運転車が普及したとしても、運転免許証を取得する必要はあるのでしょうか?

以前にも似たような質問に回答したことがありますが、コメント欄には大きな意見の相違があります。自動運転...

人工知能プラットフォームソリューションにおける品質エンジニアリング設計

翻訳者 | 朱 仙中校正:孫淑娟導入私たちは人工知能の黄金時代にいます。 AI ソリューションを導入...

なぜ人工知能には欠陥があるのでしょうか?

人工知能は、すべての人の生活に欠かせないものとなっています。 YouTube のおすすめなどの単純な...

自動運転のためのエンドツーエンドの計画方法の概要

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

AIがスマートグリッドにもたらす革新

スマートグリッドは、供給者から消費者に電力を供給する相互接続されたコンポーネントの複雑なシステムです...

...

Giskard: AI モデル向けのオープンソース品質管理

翻訳者 |ブガッティレビュー | Chonglou実稼働環境で AI モデルの品質を確保することは複...

機械学習を使って純粋数学を新たな方法で探求する

1 世紀以上前、インドの伝説的な数学者シュリニヴァーサ・ラマヌジャンは、その比類のない数学的才能で数...

...

AI 駆動型スマートビルは将来のトレンドになるでしょうか?

人工知能 (AI) は、建物の管理と制御の方法に革命をもたらし、これまで以上に効率的でコスト効率の高...

制御核融合における新たなマイルストーン! AIがプラズマの裂け目を予測することに成功し、ネイチャー誌に掲載され、クリーンエネルギーの「聖杯」に一歩近づいた。

制御された核融合に新たな進歩がありました!核融合は長い間、プラズマ不安定性の問題という「幽霊」に悩ま...

...

...

普及モデルはどのようにして新しい世代の意思決定エージェントを構築するのでしょうか?自己回帰を超えて長いシーケンス計画軌道を生成する

部屋の中に立っていて、ドアに向かって歩こうとしていると想像してください。自己回帰を使用して、一歩ずつ...