注意メカニズムは、最初はコンピューター ビジョンで使用され、その後 NLP の分野で開発されました。このメカニズムは、重要な情報に限定された注意を集中させることで、リソースを節約し、最も効果的な情報を迅速に取得します。 2014年にGoogle DeepMindが「Recurrent Models of Visual Attention」を発表し、注目のメカニズムが普及しました。2015年には、Bahdanauらが論文「Neural Machine Translation by Jointly Learning to Align and Translate」で注目メカニズムを初めてNLP分野に適用しました。2017年には、Google機械翻訳チームが「Attention is All You Need」を発表し、RNNやCNNなどのネットワーク構造を完全に放棄し、注目メカニズムのみを使用して機械翻訳タスクを実行し、非常に優れた結果を達成しました。そのため、注目メカニズムは研究のホットスポットとなっています。 数年にわたる開発を経て、この分野では注意メカニズムの研究に関する多くの論文が発表され、これらの研究は CV と NLP の分野で優れた成果を上げています。最近、GitHub 上で、ある研究者が、注目メカニズムに関する 17 件の論文の PyTorch コード実装と使用法を紹介しました。 プロジェクトアドレス: https://github.com/xmu-xiaoma666/External-Attention-pytorch プロジェクト紹介プロジェクトの著者らは、注意メカニズムをAttention シリーズ、MLP シリーズ、ReP (Re-Parameter) シリーズの 3 つのシリーズに分類しました。 Attentionシリーズには有名な「Attention is All You Need」を含む11本の論文が含まれ、最近人気のMLPシリーズにはGoogleのMLP-Mixer、gMLP、FacebookのResMLP、TsinghuaのRepMLPが含まれます。さらに、ReP(Re-Parameter)シリーズにはTsinghuaなどが提案したRepVGGやACNetが含まれます。 Attention シリーズの11 のAttention 論文の Pytorch 実装は次のとおりです。
MLP (多層パーセプトロン) シリーズには、次の Pytorch 実装に関する4 つの論文が含まれています。
ReP (Re-Parameter) シリーズには、Pytorch 実装に関する2 つの論文が含まれています。論文は次のとおりです。
要約すると、このプロジェクトでは、Pytorch を使用して 17 個の注意メカニズム論文を実装します。各論文には、タイトル(論文への直接リンク付き)、ネットワーク アーキテクチャ、コードが含まれています。次に例を示します。 論文:「自己注意を超えて: 視覚タスクのための 2 つの線形レイヤーを使用した外部注意」。 ネットワークフレームワーク: コード:
|
<<: Salesforce が AI 人材を見つけ、スキルを向上させる方法
>>: 国防総省は、今後数日間の出来事を予測するために人工知能を活用している。
有名な物理学者ホーキング博士はかつて、将来人類は人工知能によって滅ぼされるかもしれないので、人工知能...
[51CTO.com からのオリジナル記事] 現在の電子商取引業界は比較的成熟しており、さまざまな形...
近年、セキュア アクセス サービス エッジ (SASE) テクノロジーは急速に発展し、産業界で広く使...
[[201242]]チャットボットとは一体何でしょうか? 簡単に言えば、音声またはテキスト方式で会...
科学技術は主要な生産力です。人類社会が発展し続けることができるのは、何世代にもわたる科学者が新しい技...
インテリジェントエージェントは未来です!最近、別の AI エージェント プロジェクト MetaGPT...
2月6日、崑崙万為はMoE大規模言語モデルの新バージョン「天宮2.0」と「天宮AIスマートアシスタン...
現在最も成功している人工知能アルゴリズムである人工ニューラル ネットワークは、人間の脳内の実際のニュ...
アクセンチュアのアナリストは、2020 年に企業がより多くのイノベーションを獲得するのはクラウド プ...
[51CTO.com からのオリジナル記事] モノのインターネットの普及とセンサーの広範な使用により...
今日は、Java のさまざまなソート アルゴリズムについてお話します。以前、上級開発者との面接があり...
著者 | 崔昊レビュー | Chonglouまとめこの記事では、LangChain をベースにした新...