注意メカニズムは、最初はコンピューター ビジョンで使用され、その後 NLP の分野で開発されました。このメカニズムは、重要な情報に限定された注意を集中させることで、リソースを節約し、最も効果的な情報を迅速に取得します。 2014年にGoogle DeepMindが「Recurrent Models of Visual Attention」を発表し、注目のメカニズムが普及しました。2015年には、Bahdanauらが論文「Neural Machine Translation by Jointly Learning to Align and Translate」で注目メカニズムを初めてNLP分野に適用しました。2017年には、Google機械翻訳チームが「Attention is All You Need」を発表し、RNNやCNNなどのネットワーク構造を完全に放棄し、注目メカニズムのみを使用して機械翻訳タスクを実行し、非常に優れた結果を達成しました。そのため、注目メカニズムは研究のホットスポットとなっています。 数年にわたる開発を経て、この分野では注意メカニズムの研究に関する多くの論文が発表され、これらの研究は CV と NLP の分野で優れた成果を上げています。最近、GitHub 上で、ある研究者が、注目メカニズムに関する 17 件の論文の PyTorch コード実装と使用法を紹介しました。 プロジェクトアドレス: https://github.com/xmu-xiaoma666/External-Attention-pytorch プロジェクト紹介プロジェクトの著者らは、注意メカニズムをAttention シリーズ、MLP シリーズ、ReP (Re-Parameter) シリーズの 3 つのシリーズに分類しました。 Attentionシリーズには有名な「Attention is All You Need」を含む11本の論文が含まれ、最近人気のMLPシリーズにはGoogleのMLP-Mixer、gMLP、FacebookのResMLP、TsinghuaのRepMLPが含まれます。さらに、ReP(Re-Parameter)シリーズにはTsinghuaなどが提案したRepVGGやACNetが含まれます。 Attention シリーズの11 のAttention 論文の Pytorch 実装は次のとおりです。
MLP (多層パーセプトロン) シリーズには、次の Pytorch 実装に関する4 つの論文が含まれています。
ReP (Re-Parameter) シリーズには、Pytorch 実装に関する2 つの論文が含まれています。論文は次のとおりです。
要約すると、このプロジェクトでは、Pytorch を使用して 17 個の注意メカニズム論文を実装します。各論文には、タイトル(論文への直接リンク付き)、ネットワーク アーキテクチャ、コードが含まれています。次に例を示します。 論文:「自己注意を超えて: 視覚タスクのための 2 つの線形レイヤーを使用した外部注意」。 ネットワークフレームワーク: コード:
|
<<: Salesforce が AI 人材を見つけ、スキルを向上させる方法
>>: 国防総省は、今後数日間の出来事を予測するために人工知能を活用している。
科学技術の継続的な進歩により、インテリジェント製品は徐々に日常生活に統合され、人工知能は現代の発展の...
データ ポイントを特定の数の定義済みクラスに分類するように ML モデルをトレーニングすることがタス...
昔々、ソフトウェアが世界を席巻しました。今、AI が残りを消化するためにここにいます。アプリケーショ...
セキュリティにおける人工知能の応用は、人々に 4 つの独自のセキュリティ上の利点をもたらします。この...
メディア専門家は、2023年の「失業」について多かれ少なかれ不安を抱いています。メディア専門家は、C...
[[383742]]この記事はWeChatの公開アカウント「Beta Learns JAVA」から転...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
テキスト段落の生成、人間の会話のシミュレーション、数学の問題の解決において驚くほど優れたパフォーマン...
【51CTO.comオリジナル記事】 1. ロングテール効果?動物の尻尾と関係があるのでしょうか?前...
インターネットと人工知能が2019年全国人民代表大会で最もホットな話題の一つになることは間違いありま...
人工知能技術は、機械学習、計算統計、さまざまなディープラーニングモデルの使用を通じて主流になりました...
2020年、突然の公衆衛生事件により、医療用ロボットに大きな注目が集まりました。医療用ロボットは、...