MorphNetは、ニューラルネットワークをより高速、小型、効率的にするモデル最適化技術です。

MorphNetは、ニューラルネットワークをより高速、小型、効率的にするモデル最適化技術です。

特定のタスクを実行するためにニューラル ネットワークを調整したいですか?この問題は想像したほど単純ではありません。

ディープ ニューラル ネットワーク (DNN) は優れたブロックですが、その移動には計算リソースと時間の面で非常にコストがかかる可能性があります。

現在、Google AI は MorphNet をリリースしました。人気の画像分類ニューラル ネットワーク Inception V2 でテストしたところ、精度を犠牲にすることなく、ニューラル ネットワークが高速化および小型化され、計算電力の消費が削減されることが分かりました。

MorphNetとは

MorphNet は、既存のアーキテクチャを使用して特定のタスクを最適化するニューラル ネットワーク モデルの最適化 (改良) テクノロジです。

言い換えれば、これは転移学習の問題です。転移学習の難しさは、不変量を見つけることにあります。モデルは、以前にトレーニングされたタスクの目的と似ているものの、まったく同じではない多くのタスクを処理する必要があり、これによりモデルのパフォーマンスが大幅に低下したり、クラッシュしたりすることがあります。

MorphNet の成功は、同様の問題向けに構築されたニューラル ネットワークを入力として使用する限り、より小型で高速で、新しいタスクに適した新しいアーキテクチャを作成できるという点にあります。

MorphNet は、ループの収縮と拡張という 2 つの段階を通じてニューラル ネットワークを最適化します。

収縮期

縮小フェーズでは、MorphNet は非効率的なニューロンを識別し、スパース正則化を適用してそれらを削減します。

MorphNet は、ターゲット リソースを考慮しながらニューロンの損失を計算することに注意してください。そのため、トレーニング プロセス中に、オプティマイザーはリソースの損失を認識し、どのニューロンが効率的で、どのニューロンを削除できるかを認識できます。

わからない? MorphNet がニューラル ネットワークの計算コスト (FLOP、つまり 1 秒あたりの浮動小数点演算など) をどのように計算するかを確認するには、次の例をご覧ください。

2 つの入力 (Xn)、6 つの重み (a、b、…、f)、および 3 つの出力 (Yn、ニューロン) を持つ行列乗算として表されるニューラル ネットワーク層を考えます。つまり、このレイヤーを評価するには 6 回の乗算が必要になります。

MorphNet では、乗算回数を入力数と出力数の積として扱います。左側の例では、2 つの重みが 0 であっても、評価時にすべての乗算を実行する必要があります。しかし、中央の例では構造のスパース性を示しており、MorphNet は出力数が 2 であることを認識でき、このレイヤーの乗算回数は 6 から 4 に削減されます。この考え方に従って、MorphNet はネットワーク内の各ニューロンの増分コストを決定し、右側のようなより効率的なモデルを生成できます。

拡大フェーズ

拡張フェーズでは、MorphNet は幅乗数を使用してすべてのレイヤーのサイズを均一に拡張します。

たとえば、拡張が 50% の場合、非効率なレイヤーではニューロンが 100 から 10 に縮小し、その後 15 にのみ再度拡張されます。一方、重要なレイヤーではニューロンが 100 から 80 にのみ縮小し、再拡張後に 120 に達し、より多くの使い捨てリソースを取得する可能性があります。

つまり、MorphNet の最終的な効果は、ネットワークの非効率的な部分から効率的な部分にコンピューティング リソースを再割り当てすることです。

MorphNetはAIモデルを最適化します

効果はどうですか

Google AI チームは、MorphNet を使用して Inception V2 ネットワーク モデルをトレーニングしました。

写真はMorphNet論文より

ベースライン方式では、幅乗数を使用して各畳み込みの出力数を均一に減らすことで、精度と計算能力のバランスをとります (赤)。

MorphNet アプローチは計算電力消費を直接ターゲットにし、モデルを縮小するときにより優れたトレードオフ曲線 (青) を生成します。

同じ精度で、MorphNet メソッドは計算電力消費を 11% ~ 15% 削減します。

MorphNet は Inception V2 の最適化に優れており、他のネットワーク モデルにも役立ちます。

写真はMorphNet論文より

モデルのサイズ/FLOPS を圧縮することに成功しただけでなく、品質の低下もほとんどありません。予想どおり、Google が作成したものはすべて高品質であるに違いありません。

Google はすでにこの便利なものを使い始めています。 Google AIチームは、MorphNetがGoogleの複数の量産規模の画像処理モデルに適用されていると述べた。

ポータル

MorphNet はオープンソースになりました。

GitHub アドレス:

https://github.com/google-research/morph-net

論文の宛先:

出典: http://arxiv.org/pdf/1711.06798.pdf

<<:  知覚AIオペレーティングシステム

>>:  Yirendai - Yiren Hive Fintech AI 実践: Hive Robot

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

売上高2,684億元の背後にあるアリババのAI技術の全貌

先日終了した双十一では、天猫の取引額は2,684億元に達し、前年比25.7%増加した。この成果の裏に...

...

マスク氏:AIの開発を止める人はいない。この呼びかけは、みんなに注意を払うよう思い出させるだけだ

6月18日のニュース: 今年3月、イーロン・マスク氏は人工知能技術の開発一時停止を呼びかけ、テクノロ...

高性能 LLM 推論フレームワークの設計と実装

1. 大規模言語モデル推論の概要従来の CNN モデル推論とは異なり、大規模言語モデルの推論は通常、...

AIは役に立たないなんて誰が言ったのでしょうか?パンデミックの間、AIは人類のために多くのことを行ってきました...

[[314062]] 10日以上も経過したが、流行は収束の兆しを見せず、事態はますます深刻化してい...

ディープラーニングニューラルネットワークによる予測区間

[[390133]]予測区間は、回帰問題の予測における不確実性の尺度を提供します。たとえば、95% ...

Microsoft が 8 つの Nvidia H100 GPU を搭載した Azure ND H100 v5 仮想マシンをリリース

IT Homeは11月21日、Microsoft Azure AIインフラストラクチャがアップグレー...

Microsoft Azure AI テキスト読み上げサービスのアップグレード: 新しい男性の声とより多くの言語サポート

8月9日、Microsoft Azureは企業向けにクラウドベースのサービスと機能を多数提供開始しま...

レポート: Meta の Llama 2 と OpenAI の ChatGPT の「オープンソース」は透明性に欠ける

オランダのラドバウド大学は8月2日、MetaやOpenAIなどの企業が「オープンソース」という用語を...

ディープラーニング入門

2016年、Googleの人工知能プログラムAlphaGoが世界的囲碁プレイヤーのイ・セドルと対戦し...

テックネオテクノロジーサロ​​ン - 第14号 - アルゴリズムに基づくIT運用・保守の実践と探究

【51CTO.comオリジナル記事】 [51CTO オリジナル記事、パートナーサイトに転載する場合は...

機械学習をサポートする 8 つのデータ ウェアハウス

[[399333]] [51CTO.com クイック翻訳]非常に大きなデータセットの場合、理想的な状...

NLPer が仕事に戻りました! 2019年の機械学習とNLPの年次レビューを見てみましょう

2019年は機械学習と自然言語処理の分野で急速な発展があった年でした。 DeepMind の科学者 ...

日本は変形可能なロボットボールを月に送り込む予定。ボール全体の重さは250グラム

海外メディアの報道によると、日本は5月31日に、特殊な外観の球形ロボットを月に送る予定だ。この球体ロ...