速度が2倍に向上、超強力なCPUレベルのバックボーンネットワークPP-LCNetが誕生

速度が2倍に向上、超強力なCPUレベルのバックボーンネットワークPP-LCNetが誕生

[[431006]]

アルゴリズムの速度最適化でボトルネックが発生し、要件を満たすことができませんか?アプリケーション環境に高性能なハードウェアはなく、CPU のみですか?

それはすべての開発者の悩みを直接的に解決するのではないでしょうか?慌てないでください。今日は何千人もの開発者が問題を解決するのを手伝います。

画期的なのは、CPUデバイス向けにカスタマイズされたバックボーンネットワークPP-LCNetとアクセラレーションライブラリMKLDNNです。

言葉だけでは足りません。上の写真が証拠です!

上の図から、 PP-LCNet は、同じ精度を持つ現在のすべてのスケルトン ネットワークよりもはるかに高速であり、最大 2 倍のパフォーマンスの利点があることがわかります。ターゲット検出やセマンティックセグメンテーションなどのタスクアルゴリズムに適用され、元のネットワークのパフォーマンスを大幅に向上させることもできます。

PP-LCNet の論文が発表され、コードがオープンソース化された後、多くの業界開発者の注目を集めました。各分野の専門家が PP-LCNet を YOLO シリーズのアルゴリズムに適用し、非常に大きなパフォーマンス上のメリットをもたらしました。

現時点で、待ちきれず、直接試してみたいというお友達はいますか? !

編集者は巧みにオープンソース コードへのポータルを送信しました。誰もがスターを付けて収集し、失われないようにする必要があります。また、オープンソース コミュニティに認識と励ましを与える必要があります。

アドレス: https://github.com/PaddlePaddle/PaddleClas

PP-LCNet はどのようにしてこのような優れたパフォーマンスを実現するように設計されているのでしょうか?以下でご案内します:

PP-LCNetコア技術の解釈

近年、軽量バックボーンネットワークが多数立ち上げられており、各種NASで検索したネットワークは特に印象的です。ただし、これらのアルゴリズムの最適化は、業界で最も一般的に使用されている Intel CPU デバイス環境の範囲外であり、加速機能が期待どおりにならないことがよくあります。このような業界状況を踏まえ、Baidu の PaddleClas 画像分類スイートは、Intel CPU とそのアクセラレーション ライブラリ MKLDNN 向けに独自の高性能バックボーン ネットワーク PP-LCNet をカスタマイズしました。このバックボーン ネットワークは、他の軽量 SOTA モデルと比較して、推論時間を増やすことなくモデルのパフォーマンスをさらに向上させ、最終的には既存の SOTA モデルを大幅に上回ることができます。

PP-LCNet の全体的なネットワーク構造を上図に示します。多くの実験を行った結果、Intel CPU ベースのデバイスでは、特に MKLDNN アクセラレーション ライブラリが有効になっている場合、要素ごとの加算操作や分割連結構造など、時間がかからないと思われる多くの操作でレイテンシが増加することがわかりました。そのため、最終的に、最も単純な構造と最速の速度を持つブロックを選択して、BaseNet (MobileNetV1 に類似) を形成しました。 BaseNet をベースに、レイテンシを増加させずにモデルの精度を向上できる 4 つの方法を実験を通じてまとめました。以下は、これら 4 つの戦略の詳細な紹介です。

より優れた活性化関数

畳み込みニューラル ネットワークで ReLU 活性化関数が使用されるようになったため、ネットワーク パフォーマンスが大幅に向上しました。近年では、Leaky-ReLU、P-ReLU、ELU など、ReLU 活性化関数のバリエーションも登場しています。 2017 年、Google Brain チームは検索を通じて、軽量ネットワークで優れたパフォーマンスを発揮する swish アクティベーション関数を取得しました。 2019 年に、MobileNetV3 の作成者はアクティベーション関数を H-Swish にさらに最適化しました。これにより、指数演算が削除され、より高速になり、ネットワークの精度への影響がほとんどなくなりました。また、多くの実験を実施した結果、この活性化関数は軽量ネットワーク上で優れたパフォーマンスを発揮することがわかりました。したがって、PP-LCNet では、この活性化関数を選択しました。

適切な場所にSEモジュールを追加する

SE モジュールは SENet によって提案されたチャネル アテンション メカニズムであり、モデルの精度を効果的に向上させることができます。しかし、Intel CPU 側では、このモジュールも大きな遅延をもたらします。精度と速度のバランスをどう取るかが、解決すべき問題です。 SE モジュールの場所は MobileNetV3 などの NAS 検索ベースのネットワークで検索されていますが、一般的な結論は出ていません。実験を通じて、SE モジュールがネットワークの末端に近いほど、モデルの精度が向上することがわかりました。次の表には、いくつかの実験結果も示されています。

最後に、PP-LCNet の SE モジュールの位置は、表の 3 行目のソリューションを採用します。

より大きな畳み込みカーネル

MixNet の論文では、著者は畳み込みカーネルのサイズがモデルのパフォーマンスに与える影響を分析し、一定の範囲内では大きな畳み込みカーネルでモデルのパフォーマンスを向上できるが、この範囲を超えるとモデルのパフォーマンスが損なわれるという結論を出しました。そこで著者は、MixConv の分割連結パラダイムを組み合わせました。この組み合わせはモデルのパフォーマンスを向上させることができますが、推論には役立ちません。実験を通じて、いくつかの大きな畳み込みカーネルをさまざまな位置に配置した場合の効果をまとめました。SE モジュールの位置と同様に、大きな畳み込みカーネルはネットワークの中央と後方でより顕著な効果を発揮します。次の表は、5x5 畳み込みカーネルの位置が精度に与える影響を示しています。

実験では、より大きな畳み込みカーネルをネットワークの中央と後方に配置すると、すべての位置に配置するのと同じ精度を達成しながら、推論速度を速めることができることが示されています。 PP-LCNet は最終的に表の 3 行目のソリューションを選択しました。

GAPの後に、より大きな1x1畳み込み層を使用する

GoogLeNet 以降では、GAP (Global-Average-Pooling) が分類層に直接接続されることが多くなりますが、軽量ネットワークでは、GAP 後に抽出された特徴がさらに融合および処理されなくなります。その後に、より大きな 1x1 畳み込み層 (FC 層に相当) を使用すると、GAP 後の特徴は分類層を直接通過せず、最初に融合され、融合された特徴が分類されます。これにより、モデルの推論速度に影響を与えることなく、精度を大幅に向上させることができます。

BaseNet に上記の 4 つの改良を加えた結果、PP-LCNet が得られました。次の表は、各オプションが結果にどのように影響するかをさらに示しています。

下流タスクのパフォーマンスが驚くほど向上

画像分類

画像分類には ImageNet データセットを使用しました。現在主流の軽量ネットワークと比較すると、PP-LCNet は同じ精度でより高速な推論速度を実現できます。 Baidu が独自に開発した SSLD 蒸留戦略を使用すると、精度がさらに向上します。Intel CPU 側で約 5ms の推論速度で、ImageNet の Top-1 Acc は 80% を超えます。素晴らしい! ! !

物体検出

ターゲット検出方法としては、軽量なターゲット検出シナリオに重点を置いた、Baidu が開発した PicoDet を選択しました。次の表は、COCO データセットで PP-LCNet と MobileNetV3 をバックボーンとして使用した結果の比較を示しています。精度や速度のいずれの点でも、 PP-LCNet の利点は非常に明白です

セマンティックセグメンテーション

セマンティックセグメンテーション手法としてDeeplabV3+を選択しました。次の表は、Cityscapes データセットにおける PP-LCNet と MobileNetV3 の比較を示しています。精度と速度の面でも、PP-LCNet の利点は明らかです。

実際の拡張アプリケーションの結果の説明

PP-LCNet はダウンストリームのコンピューター ビジョン タスクでは非常に優れたパフォーマンスを発揮しますが、実際の使用シナリオではどのようなパフォーマンスを発揮するのでしょうか。このセクションでは、PP-OCR v2 および PP-ShiTu でのパフォーマンスについて簡単に説明します。

PP-OCR v2では、認識モデルのバックボーンをMobileNetV3からPP-LCNetに置き換えるだけで、速度が向上し、精度がさらに向上します。

PP-ShiTuではBackboneのResNet50_vdをPP-LCNet-2.5xに置き換えたところ、Intel-CPU側では速度が3倍速くなり、recall@1はResNet50_vdと基本的に同じになりました。

PP-LCNet は極端な FLOP や Params を追求するのではなく、詳細な技術的詳細に焦点を当て、Intel CPU に適したモジュールを追加してモデルのパフォーマンスを向上させ、精度と推論時間のバランスを改善する方法を辛抱強く分析します。実験の結論は、他のネットワーク構造設計の研究者にも非常に適しており、NAS 検索の研究者に、より小さな検索空間と一般的な結論も提供します。

論文が発表されて以来、PP-LCNetは国内外の学界や産業界から幅広い注目を集めています。さまざまなバージョンの複製、あるいは大きな探究的意義と実用的価値を持つさまざまな視覚タスクアプリケーションや技術分析記事の登場など、シンプルなモデルの実用的な最適化ソリューションが再びすべての人の視野に入り、まさに「生活」をより良くするというテクノロジーの本来の意図を実践しています。PP-LCNetの実際の実装と応用におけるさらなるパフォーマンスに期待しています。

上記の論文へのリンクは次のとおりです: https://arxiv.org/pdf/2109.15099.pdf

この論文の全体的な研究アイデアは、Baidu PaddleClas チームによって提案され、実装されました。 PaddleClas は世界初のオープンソース汎用画像認識システムを提供し、業界と学術界に効率的で便利な開発ツールを提供することを目指しており、開発者によりスムーズで高品質なユーザーエクスペリエンスをもたらし、より優れた PaddlePaddle ビジョンモデルをトレーニングし、業界のシナリオで実用的なアプリケーションを実現します。

PaddleClas の詳細情報とチュートリアルについては、GitHub をご覧ください: https://github.com/PaddlePaddle/PaddleClas

<<:  フロントエンドではアルゴリズムを理解する必要はないと思いますか?実際の例を見てみましょう。

>>:  人工知能がサイバー防御を強化

ブログ    

推薦する

OpenAIはGPT-4を使用したコンテンツモデレーションへの新しいアプローチを提案

最近、OpenAI は、最新の生成人工知能モデル GPT-4 を使用してコンテンツレビューを行い、手...

レポート:人材市場の給与は2018年第4四半期に回復し、AI職の平均月給は3万人民元に達した。

最近、インターネット採用プラットフォームBOSS Zhipinは「2018年第4四半期人材誘致レポー...

テクノロジーの発展により、人工知能はどれほど恐ろしいものなのでしょうか?

有名な科学者ホーキング博士の存命中、人工知能の発展は阻止されました。ホーキング博士はかつて、人工知能...

...

プラグアンドプレイ、完璧な互換性:SDコミュニティのビデオプラグインI2Vアダプタが登場

画像からビデオへの生成 (I2V) タスクは、静止画像を動的なビデオに変換することを目的としており、...

一般的なソートアルゴリズムの概要

概要コンピュータサイエンスと数学において、ソートアルゴリズムとは、一連のデータを特定の順序で並べるア...

先頭に立つ! 16人の学際的な専門家がAIの次の10年について語る

ニューヨーク大学の心理学・神経科学教授ゲイリー・マーカス氏と、ディープラーニングの先駆者で2018年...

科学者たちは、より信頼性の高い予測を達成するために人工知能が「近道」をすることを避ける方法を研究している。

新しいアプローチにより、機械学習モデルはタスクを学習する際により多くのデータに焦点を当てるようになり...

AIとデータ分析を活用してデータを収益化する4つの手法

ビジネスにとってのデータの経済的価値を概念化したり直接測定したりすることは困難です。多くの経営者は、...

データガバナンスはAIの将来にとって重要

人工知能は、消費者と組織にとって大きな革命的な進歩です。その結果、さらに重要かつ緊急性の高い発見がい...

Reddit ユーザーが「泣く」: 私はアルゴリズム エンジニアではなく、「パラメータ調整者」です

[[387580]]まず最初に質問させてください。あなたは自分が「スイッチャー」だと思いますか、それ...

機器の検査に手作業が必要な人はいますか? AIの活用

著者 | Tu Chengyeレビュー | Chonglou前の記事:「人材が足りないのではなく、A...

...

2020年AIの現状調査:25%の企業がAI導入により大幅な収益増加を達成

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

...