5分でわかるReLU: 最も人気のある活性化関数

5分でわかるReLU: 最も人気のある活性化関数

この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)から転載したものです。

ニューラル ネットワークとディープラーニングにおける活性化関数は、隠れたノードを刺激してより理想的な出力を生成する上で重要な役割を果たします。活性化関数の主な目的は、モデルに非線形特性を導入することです。

[[356462]]

人工ニューラル ネットワークでは、入力または入力セットが与えられると、ノードの活性化関数によってそのノードの出力が定義されます。標準的な集積回路は、入力に応じて「オン」または「オフ」に切り替えることができるアクティベーション機能のコントローラーと考えることができます。

図1: シグモイド; 図2: Tanh

シグモイドと tanh は、RELU が登場する以前に人気があった単調で微分可能な活性化関数です。ただし、時間が経つにつれてこれらの関数は飽和し、勾配が消失します。この問題を解決するためによく使用される別の活性化関数は、ReLU (Rerectified Linear Unit) です。

上の図では、青い線は ReLU を表し、緑の線は Softplus と呼ばれる ReLU のバリエーションを表しています。 ReLU の他のバリエーションには、LeakyReLU、ELU、SiLU などがあり、特定のタスクのパフォーマンスを向上させるために使用されます。

この論文ではReLUのみを考慮します。これは、ほとんどのディープラーニングタスクを実行するために、デフォルトで依然として最も一般的に使用される活性化関数であるためです。これらのバリアントの中には、特定の目的に使用するとわずかな利点があるものもあります。

2000 年に、Hahnloser らは、強力な生物学的動機と数学的証明を備えた活性化関数を動的ネットワークに初めて導入しました。この関数が、ロジスティック シグモイド (確率論とロジスティック回帰に触発されたもの) や、より実用的な tanh (双曲正接に相当) など、2011 年以前に広く使用されていた活性化関数よりも、より深いネットワークのトレーニングに適していることが示されたのはこれが初めてでした。

2017 年現在、整流器はディープ ニューラル ネットワークで最も人気のある活性化関数です。整流器を使用するユニットは、整流線形ユニット (ReLU) とも呼ばれます。

RELU の最大の問題は、点 0 で微分できないことです。研究者は、シグモイドや tanh などの微分可能な関数を使用する傾向があります。しかし、結局のところ、点 0 で微分可能であることは特殊なケースであるため、これまでのところ、ReLU は、計算量が非常に少ないにもかかわらず計算速度が非常に速い、ディープラーニングに最適な活性化関数です。

ReLU 活性化関数は 0 を除くすべての点で微分可能です。 0 より大きい値の場合、関数の最大値のみが考慮されます。次のように記述できます:

  1. f(x) = 最大値{0, z}

簡単に言えば、次のようにすることもできます。

  1. 入力> 0の場合: 入力を返す、それ以外の場合: 0 を返す

すべての負の数はデフォルトで 0 になり、正の数の最大値が考慮されます。

ニューラルネットワークのバックプロパゲーション計算では、ReLU を識別するのは比較的簡単です。唯一の仮定は、点 0 での導関数も 0 であるとみなされることです。これは通常問題にはならず、ほとんどの場合問題ありません。関数の導関数はその傾きの値です。負の値の傾きは 0.0、正の値の傾きは 1.0 になります。

ReLU 活性化関数の主な利点は次のとおりです。

  • 畳み込み層とディープラーニング: 畳み込み層とディープラーニング モデルのトレーニングで最も一般的に使用される活性化関数です。
  • 簡単な計算: 整流関数の実装は非常に簡単で、max() 関数のみが必要です。
  • 表現のスパース性: 整流関数の重要な利点は、真のゼロ値を出力することです。
  • 線形動作: ニューラル ネットワークの動作が線形または線形に近い場合、最適化が容易になります。

ただし、RELU ユニットを通過する際の主な問題は、すべての負の値がすぐに 0 になり、モデルがデータを適切に適合またはトレーニングする能力が低下することです。

つまり、ReLU 活性化関数への負の入力は、グラフ内の値を直ちに 0 に変更します。負の値が適切にマッピングされないため、結果のグラフに影響します。ただし、この問題は、LeakyReLU や前述の他の ReLU 活性化関数のさまざまなバリエーションを使用することで簡単に解決できます。

これは、Rectified Linear Unit と、ディープラーニング技術の時代におけるその重要性を理解するのに役立つ簡単な紹介です。結局のところ、他のすべての活性化関数よりも人気があるのには理由があるはずです。

<<:  効率的で正確な通関手続きのニーズを満たすために、生体認証技術がセキュリティ検査シナリオに導入されています。

>>:  多くの場所でAI顔認識の使用が制限されており、監視は技術開発のペースに追いついています

ブログ    
ブログ    
ブログ    

推薦する

国家基準の策定が加速しており、科学的な顔認識は100億元のブルーオーシャンをもたらすだろう

4月22日、「情報セキュリティ技術の顔認識データのセキュリティ要件」国家標準の草案が正式に公開され、...

AIは人類にとって脅威でしょうか?人工知能には強いものと弱いものがあるが、本当の危険は強い人工知能である

近年、科学技術分野で最もホットな言葉は人工知能であり、これは近年の人工知能の急速な発展によるものです...

IoTとAIを活用した依存症治療

IoT によって促進される相互接続性と AI の学習機能は、幅広い問題を解決する可能性を示しています...

AIビデオ分析技術はどのように機能するのでしょうか?どのように機能しますか?

リアルタイムAI映像解析技術とは?リアルタイム AI ビデオ分析は、ビデオ ストリームを分析して、特...

機械学習分野における社内競争について:博士号を取得しないと就職する資格はないのでしょうか?

[[390714]]機械学習は複雑化していますか? 「博士号なしで機械学習の仕事を得るのはますます...

...

人工知能技術が英語学習にどのように役立つかについての簡単な議論

人工知能技術は私たちの日常の仕事、勉強、生活に溶け込み、静かに社会生活を変えています。人工知能技術は...

AlphaGO よりも強力な人工知能アルゴリズムが登場しました!まさに中国です!

近年、人工知能が話題になっています。 AlphaGoが次々と人間の囲碁の名人に勝利して以来、人工知能...

DeepMindの「フィッシングエンフォースメント」:AIに間違った発言をさせ、数万件の危険な発言を発見させる

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

ディープマインドの創業者はAIの弟子を育て、「訓練」ではなく「教育」によってAIに宝探しを教えた

最近、DeepMind は強化学習の分野で新しいことを行いました。簡単に言えば、DeepMind の...

Pythonでグラフを描いてニューラルネットワークを理解する

Python 中国語コミュニティ (ID: python-china)人工ニューラル ネットワーク ...

テクノロジーの発展により、人工知能はどれほど恐ろしいものなのでしょうか?

有名な科学者ホーキング博士の存命中、人工知能の発展は阻止されました。ホーキング博士はかつて、人工知能...

...

銀行は人工知能を導入し、スマートな顧客サービス以上のものを提供している

[[433578]]最近、ある有名なメディア関係者が銀行からカスタマーサービスに電話を受け、しばらく...