Transformer は、近年 NLP 分野で注目されているモデルの 1 つです。
最近、Google は Transformer の「アップグレード版」である Reformer をリリースしました。 Transformerよりも効率的 言語、音楽、音声、ビデオなど、シーケンシャルなデータは、特にさまざまなコンテキストでは AI や機械学習モデルにとって理解が困難です。たとえば、人物や物体がビデオから消えて、その後かなり経ってから再び現れた場合、多くのアルゴリズムはそれがどのように見えたかを忘れてしまいます。 そこで、Google はこの問題を解決するために機械翻訳モデル Transformer を開発しました。 Transformer は数千語まで拡張可能なアーキテクチャであり、音楽作曲、画像合成、文ごとのテキスト翻訳、ドキュメント要約などのタスクのパフォーマンスを大幅に向上させます。 すべてのディープ ニューラル ネットワークと同様に、Transformer には、入力データからの信号を送信し、各接続のシナプス強度 (重み) をゆっくりと調整する接続層にニューロン (数学関数) が含まれています。これは、すべての AI モデルが特徴を抽出し、予測を学習する方法ですが、Transformer は、すべての出力要素がすべての入力要素に関連付けられていることを独自に認識し、それらの間の重みは実際に動的に計算されます。 ただし、Transformer は完璧ではありません。より大きな設定に拡大すると、その限界が明らかになります。大規模なウィンドウ アプリケーションにはギガバイトからテラバイト単位のメモリが搭載されているため、モデルでは数段落のテキストしか取り込めず、短い音楽しか生成できません。 これを踏まえて、Google は Transformer の進化版として Reformer を発表しました。Reformer は最大 100 万語の環境を処理でき、わずか 16 GB のメモリを使用して単一の AI アクセラレータ チップで実行できます。 Leifeng.com(公式アカウント:Leifeng.com)は、関連論文「Reformer:The Efficient Transformer」が2020年4月にエチオピアで開催される自然言語処理のトップカンファレンスであるICLR-2020(International Conference on Learning Representations)に採択され、現在のモデルもオープンソース化されたことを知りました。 論文によれば、Reformer には主に以下の技術が含まれています。
たとえば、翻訳タスクでは、ネットワークの最初の層からの各ベクトルは単語を表し、異なる言語の同じ単語に対応するベクトルは同じハッシュ値を取得できます。ハッシュを割り当てる際に、シーケンスを並べ替えてから要素のハッシュ値でソートすることで並列処理を実現し、長いシーケンスの複雑さを軽減し、計算負荷を大幅に軽減します。 リフォーマーは小説全体を扱うことができる Reformer が実際に単一の GPU で実行でき、長いシーケンスで迅速にトレーニングできることを確認するために、研究者は enwik8 および imagenet64 データセットで 20 層の Reformer モデルをトレーニングしました。実験では、Reformer は Transformer と同じパフォーマンスを実現でき、メモリ効率が高く、長いシーケンス タスクのトレーニングが高速であることが示されています。 さらに、研究チームは、Reformer ベースの画像およびテキスト モデルも実験し、それらを使用して画像内の欠落している詳細を生成し、小説「罪と罰」(約 211,591 語) の全テキストを処理しました。研究によると、Reformer はフルフレーム画像をピクセル単位で生成でき、1 回のトレーニングで小説ほどの長さのテキストを受け取ることができることがわかっています。 この研究に貢献したGoogleの科学者Łukasz Kaiser氏とカリフォルニア大学バークレー校の学生Nikita Kitaev氏は、ブログ投稿で次のように書いている。
論文著者らは、これをさらに幅広い分野(時系列予測や音楽・画像・動画生成など)に応用し、位置エンコーディングの処理を改良していく予定であると報告されている。 Łukasz Kaiser 氏と Nikita Kitaev 氏は次のように付け加えました。 Reformer は、長いテキストや自然言語処理を超えたアプリケーションに Transformer モデルを将来使用するための基盤を築くものと考えています。 2019年末、海外メディアのVentureBeatがGoogleの上級副社長ジェフ・ディーン氏にインタビューを行い、同氏は次のように語った。
そして、Reformer はその方向への有望な第一歩であると思われます。 この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式サイトにアクセスして許可を申請してください。 |
<<: 騒ぎの裏で、2020年はケータリングロボットにとって楽な年になるだろうか?
>>: 年次レビュー:2020 年の 5 つの注目すべきテクノロジー トレンド、時代のトレンドに遅れずについていく
産業発展状況の分析特許出願件数世界第1位[[332768]]我が国は、新たな科学技術革命と産業変革の...
[[200702]] 250年以上にわたり、技術革新は経済発展の根本的な原動力となってきました。これ...
大規模言語モデル (LLM) の開発により、実務者はより多くの課題に直面しています。 LLM からの...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
この論文では、ビデオゲームをプレイするためのディープラーニングアルゴリズムをレビューし、さまざまな種...
オハイオ州立大学とアイオワ大学の研究者による研究で、ハトは問題を解決する際に人工知能に似た「力ずく」...
導入CART は C4.5 に似ており、決定木アルゴリズムの一種です。さらに、一般的な決定木アルゴリ...
人工知能はあらゆるところに存在し、私たちは気づかないうちに日常生活でそれを使用しています。人工知能は...
4兆度(345MeV)は、2010年に米国ニューヨークのブルックヘブン国立研究所が相対論的重イオン衝...
Google待望の大躍進、 Gemini大型モデルがついに発売!最も目を引くのは、次の写真とビデオで...
12月11日、テンセントクラウドは北京で新しいビッグデータAI製品発表会を開催した。テンセントクラウ...
自動運転は、さまざまな交通問題を解決し、スマートシティの発展を実現するための共通の選択肢として、近年...
[[401969]]英国政府は最近、夜間経済が回復する中で安全が最優先事項であることを国民に再確認さ...
[[202259]]最近、「少量のデータによるニューラル ネットワークのトレーニング - ドラフト」...