ブースティング原理に基づく深層残差ニューラルネットワークのトレーニング

ブースティング原理に基づく深層残差ニューラルネットワークのトレーニング

1. 背景

1.1 ブースティング

ブースティング[1]は、アンサンブルモデルを訓練するための古典的な手法です。その特定の実装の1つであるGBDTは、さまざまな問題で広く使用されています。 boostについては多くの記事で紹介されているので、ここでは詳しくは触れません。簡単に言えば、ブースティング法とは、一連の弱いクラスを特定の基準で 1 つずつトレーニングし、これらの弱いクラスに重み付けして強力な分類器を形成することです (図 1)。

1.2 残余ネットワーク

残差ネットワーク[2]は現在、画像分類などのタスクにおける最も先進的なモデルであり、音声認識などの分野にも応用されています。核となるのはスキップ接続またはショートカットです (図 2)。この構造により、勾配が後方に伝播しやすくなり、より深いネットワークをトレーニングすることが可能になります。

前回のブログ記事「アンサンブルモデルとしての残差ネットワーク」では、残差ネットワークを特別なアンサンブルモデルと見なす学者もいることがわかりました[3,4]。この論文の著者の 1 人は Robert Schapire 氏 (Microsoft Research に加わったことに気付きました) で、彼は AdaBoost の提案者 (Yoav Freund 氏と共著) です。 Ensemble の見解は、基本的に主流の見解の 1 つです。

2. トレーニング方法

2.1 フレームワーク

  • 残余ネットワーク

つまり、これは線形分類器 (ロジスティック回帰) です。

  • 仮説モジュール

ここで、$C$ は分類タスクのカテゴリの数です。

  • 弱いモジュール分類器

ここで、$\alpha$ はスカラー、つまり $h$ は仮説の 2 つの隣接する層の線形結合です。 *** 層には下位層がないため、仮想下位層 $\alpha_0=0$ および $,o_0(x)=0$ を持つと見なすことができます。

  • 残差ネットワークをアンサンブルとして表示する

残差ネットワークの最大出力を$F(x)$とし、これを上記の定義と組み合わせると、次のことが明らかになります。

ここでは分割と合計 (テレスコープ和) の手法が使用されているため、著者は提案されたアルゴリズムをテレスコープ和ブースティングと呼んでいます。

残差ネットワークをレベルごとに(残差ブロックごとに)トレーニングするだけで済みます。これは、一連の弱い分類アンサンブルをトレーニングすることと同じです。残差ネットワークの重みをトレーニングすることに加えて、各層の $\alpha$ と $W$ などの補助パラメータもトレーニングする必要があります (トレーニングが完了したら破棄できます)。

2.2 テレスコープサムブースティング

この記事の本文では、バイナリ分類問題を例として取り上げます。ここでは、マルチ分類問題に焦点を当てており、関連するアルゴリズムは付録に記載されています。記事に記載されている疑似コードの説明は非常に明確であり、以下に直接コピーされています。

このうち、$\gamma_t$はスカラー、$C_t$はm行C列(サンプル数×カテゴリ数)の行列、$C_t(i, j)$はi行j列目の要素を表します。

$st(x, l)$ は $s_t(x)$ の $l$ 番目の要素を表すことに注意してください (ここで使用されている記号は少し恣意的です :-)。また、$st(x) = \sum{\tau=1}^th\tau(x) = \alpha_t \cdot o_t(x) $ です。

アルゴリズム3と同様に、$f(g(x_i), l)$は$f(g(x_i))$の$l$番目の要素を表し、$g(x_i, y_i)$は$g(x_i)$の$i$番目の要素を表します。

明らかに、アルゴリズム4によって与えられた最小化問題はSGDを使用して最適化することも、数値的に解くこともできる([1]のセクション4.3)。

3. 理論

理論的な部分は詳しく検討されませんでした。一般的に、著者らは、BoostResNet をブースト アルゴリズムとして保持する利点として、1) エラーがネットワークの深さ (つまり、弱い分類器の数) とともに指数関数的に減少すること、2) 過剰適合に対する耐性、モデルの複雑さがネットワークの深さとともに直線的に増加すること、を挙げています。詳細は論文をご覧ください。

4. 議論

BoostResNet はレイヤーごとのトレーニングを特徴としており、次のような一連の利点があります。

  • メモリ使用量を削減する (メモリ効率) ことで、大規模なディープ ネットワークをトレーニングできるようになります。 (現在、私たちは好奇心を満たすために、CIFAR で 1000 層の残差ネットワークをトレーニングすることしかできません)
  • 計算量を削減し (計算効率を向上)、各レベルで浅いモデルのみをトレーニングします。
  • 浅いモデルのみをトレーニングする必要があるため、最適化方法 (SGD 以外の方法) のオプションが増えます。
  • さらに、ネットワーク層の数は、トレーニング状況に応じて動的に決定できます。

4.2 いくつかの質問

この記事では、いわゆる e2eResNet を単に比較するのではなく、層ごとにトレーニングされた残差ネットワーク (前の層の重みを固定するかどうかに関係なく) とさらに比較する必要があります。
著者はセクション 1.1*** で、トレーニング フレームワークは ResNet に限定されず、ニューラル ネットワークに限定されることもないと述べています。通常のディープラーニングモデルのトレーニングにどの程度効果があるかはわかりません。競合するレイヤーごとの事前トレーニングは、今では少し時代遅れのようです。

参考文献

  1. Schapire & Freund. ブースティング: 基礎とアルゴリズム. MIT.
  2. He et al. 画像認識のための深層残差学習。
  3. Veit ら「残差ネットワークは比較的浅いネットワークの集合体のように動作する」
  4. Xie et al. ディープニューラルネットワークのための集約残差変換。

<<:  シテチがスマートシティ建設に新たな活力を注入

>>:  Gome のディープラーニング初体験により、ソーシャル e コマースのインテリジェント時代が幕を開けます。

ブログ    

推薦する

顔認識技術のまとめ:従来の方法からディープラーニングまで

1970 年代以来、顔認識はコンピューター ビジョンと生体認証の分野で最も研究されているトピックの ...

好むと好まざるとにかかわらず、AIクラウド運用はやってくる

[51CTO.com クイック翻訳] 私は過去30年間AIに触れてきましたが、AIの能力が過大評価さ...

ピュー研究所の報告:2025年までにAIのせいで7500万人が解雇される

[[253650]]テクノロジー専門家の約 37% は、人工知能 (AI) と関連技術の進歩により、...

今週の Github の人気プロジェクトの概要: 自然言語処理 Python ライブラリ spaCy が最もホットです!

先週、Github で最も人気のあるプロジェクトは、最近バージョン 2.0 に更新された自然言語処理...

...

ディープラーニングの次に来るものは何でしょうか?

[[343995]]ビッグデータダイジェスト制作出典: datasciencecentral編集者...

IoTソリューションは、より効果的なデータ駆動型警察活動の基盤を築く

個人によって生成されるデータの量と種類が増加し続けるにつれて、警察はそれに追いつくために効果的な自動...

マイクロソフトがOpenAIの理事に就任、アルトマン氏が初めてQ*に回答:残念なリーク

OpenAI の最初のシーズンは本当に終わりました。 ChatGPTがちょうど1周年を迎えようとして...

このAIは、監視対象を素早く検索するのに役立ちます:テキスト配置キーフレーム、24時間のビデオ録画10分処理

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

...

スタンフォード大学の教授が、専門家以外の人向けにAIの核となる概念を1ページで定義

スタンフォード大学のクリストファー・マニング教授は、AI 分野の中核となる概念を 1 ページを使って...

AIが高速道路に参入: テクノロジーを活用してファーストフード業界を完全に変える

迅速なサービスと便利な体験で知られるファーストフード業界は、顧客体験を向上させ、業務効率を改善するた...

ChatGPTが新たな著作権紛争に巻き込まれる: ホラー小説作家2人が、訓練のために作品を盗んだとしてOpenAIを訴えた

7月6日、AIモデルのトレーニングデータソースの著作権は常に話題となっていた。以前、マイクロソフトは...