0 コーパスで「ラベル付け」してより良い多言語翻訳結果を得る方法

0 コーパスで「ラベル付け」してより良い多言語翻訳結果を得る方法

[[409976]]

今日の多言語翻訳モデルのほとんどは、英語中心のデータセットで統合モデルをトレーニングし、言語ラベルを追加することでモデルに翻訳する言語を指示します。このモデルは予測時に、英語以外の文章に別の英語以外の言語タグを直接追加して直接翻訳できるため、トレーニング中にソース言語とターゲット言語が見られなくてもモデル翻訳を実現できます。これはいわゆるゼロショット多言語翻訳です。

言語タグを追加する方法はたくさんあります。Volcano 翻訳チームの研究者は、実験研究を通じて、異なる言語タグは監督指示の効果にほとんど影響を与えないが、ゼロショット効果には非常に大きな影響を与えることを発見しました。この現象は複数のデータセットで検証されており、IWSLT17 では 14.02 BLEU、Euporal では 24.24 BLEU、TED トークでは 8.78 BLEU の差がありました。この研究はACL 2021の調査結果に採用されました

論文アドレス: https://arxiv.org/abs/2106.07930

研究の背景と動機

多言語翻訳では、言語タグを追加する方法が多数あり、一般的には、言語タグを追加する方法が異なってもモデルのパフォーマンスには影響がないと考えられています。しかし、言語タグが翻訳モデルに影響を与えるかどうかを体系的に研究した研究者はいません。この投稿では、言語タグを追加する一般的な 4 つの方法を比較します。

表1 4つの異なる言語タグ

表 1 に示すように、これら 4 つの方法では、ソース言語タグとターゲット言語タグが、ソース文の先頭またはターゲット文の先頭に異なる方法で追加されます。

表2 データセットの詳細

表2に示すように、この記事ではIWSLT17、Euporal、TEDトークの3つのデータセットを選択しています。これら3つのデータセットは、言語数とデータセットのサイズに比較的大きな違いがあります。この記事では、上記の 4 つの異なる言語ラベルに基づいて、これら 3 つのデータセットでまったく同じ構成の多言語翻訳モデルをトレーニングしました。

実験結果

表3 実験結果

表 3 に示すように、次のことがわかります。

1. 言語タグやデータセットが異なっていても、教師あり学習ではモデルのパフォーマンスは基本的に同じです。

2. ゼロショット方向の場合:

a. 異なる言語ラベルはモデルのパフォーマンスに大きな影響を与え、T-ENC は 3 つのデータセットで他の 3 つのラベルを一貫して上回りました。IWSLT17 では 14.02 BLEU、Euporal では 24.24 BLEU、TED トークでは 8.78 BLEU でした。

b. 言語ラベルが異なると、オフターゲット比率も異なります(オフターゲットとは、言語Xに翻訳すると、別の言語に翻訳される状況を指します)。基本的に、T-ENCのオフターゲット比率は他のものよりも小さく、これは基本的にゼロショットでのモデルのパフォーマンスと一致しています。

分析する

では、この現象の原因は何でしょうか?この記事では、この現象を 3 つの側面から説明しようと試み、TED データセットで実験を行います。

1. ターゲット言語が同じ場合、言語タグの追加方法は、エンコーダーを通過した後の異なる言語の文章の表現の一貫性に影響しますか?

2. T-ENC は他の方法よりもオフターゲット比率を低く抑えることができます。これは、予測中に言語ラベルに注意を払うアテンション メカニズムが優れているためでしょうか。

3. 翻訳モデルの各層で、異なる言語の同じ意味の文章はどの程度類似しているか?

エンコーダ表現の一貫性

上図はt-SNEを使ってエンコーダ出力の次元を削減し、kdeを使って描いた分布図です。ターゲット言語が同じ場合の異なる言語の文章の分布を示しています。T-ENCの異なる言語間のエンコーダ表現分布がより一貫していることがわかります。これは、T-ENC がモデルが言語に依存しないエンコーダー表現を学習するのに役立つことを示しています。

オフターゲットの問題を軽減する

上の図は、ケーススタディを通じて、異なる言語ラベルの下でロシア語の文をイタリア語の文に翻訳するときに、モデルがイタリア語のラベルにどのように注意を払っているかを示しています。明らかに、T-ENC を使用する場合、モデルはイタリア語のラベルに最も注意を払っており、これが T-ENC のオフターゲット比率が最も小さい理由をある程度説明できます。

さまざまなレベルでの類似点

上図のサブ図aは、英語とロシア語を除く18の言語からロシア語に翻訳した際に、異なる言語で同じ意味を持つ文章の表現の類似性を示しています。T-ENCの類似度曲線は常に他の言語ラベルより上にあることがわかります。これは、ターゲット言語が同じ場合、T-ENCの各層の表現が他の方法よりも一貫していることを示しています。

上図のサブ図bは、ロシア語から英語とロシア語以外の18の言語に翻訳されたときの、異なるターゲット言語での同じロシア語の文章の類似度を示しています。T-ENCの類似度曲線は、ほとんどの場合、他の言語のラベルの下にあることがわかります。これは、ターゲット言語が異なる場合、T-ENCがターゲット言語に関連する表現をより適切に生成できることを示しています。

要約する

この研究では、異なる言語ラベルが多言語ゼロショット翻訳に大きな影響を与えることを発見し、非常に異なるデータを持つ 3 つの異なるデータセットで実験を行いました。結果、異なる言語ラベルが多言語ゼロショット翻訳に大きな影響を与えることが検証され、T-ENC がゼロショットで他の言語ラベルよりも優れていることが示されました。同時に、この研究では、予測中にさまざまな言語タグがモデルの表現に与える影響を分析し、T-ENC はターゲット言語に関連しているがソース言語とは関連のない表現をより適切に取得できることを発見しました。

1. T-ENC は、エンコーダー後の異なるソース言語での文章の表現をより一貫したものにすることができます。

2. T-ENC の注意メカニズムは、ターゲット言語の言語タグにより適切に注意を払うことができます。

3. T-ENC のさまざまなレイヤーでの表現は、他の方法よりもターゲット言語との関連性が高くなります。

<<:  自然言語処理におけるAIの未来を探る

>>:  Swin Transformerをベースに、清華大学などがMoBY自己教師学習法のコードを提案し、オープンソース化されている。

ブログ    
ブログ    
ブログ    

推薦する

...

機械学習プロジェクトが失敗する9つの理由

この記事では、データ サイエンス プロジェクトが失敗する最も一般的な理由をまとめ、落とし穴を回避する...

大規模言語モデルの効率的なパラメータ微調整 - BitFit/Prefix/Prompt 微調整シリーズ

2018年にGoogleはBERTをリリースしました。リリース後すぐに11のNLPタスクで最先端(S...

...

...

Facebook、MITなどが共同で451ページの原稿を発表:「第一原理」を使ってDNNを説明する」

Facebook、プリンストン大学、MITのAI研究者らは最近、ディープラーニングが実際にどのよう...

チューリング賞受賞者のヤン・ルカン氏への最新インタビュー: AI は世界を支配するだろうが、人類を征服することはない!

かつての共同研究者であるジェフリー・ヒントン氏とヨシュア・ベンジオ氏がAIの絶滅を宣言したとき、ルカ...

機械学習が自閉症の「非コード変異」の秘密を解明

新たな研究によると、遺伝子間の自然発生的な突然変異は、生まれつきの遺伝子と同じくらい自閉症において重...

...

人工知能が教育を改善する32の方法

過去数年間、ソーシャルメディアから音声認識、モノのインターネットから新しい小売業、ロボットから自動運...

何?ニューラルネットワークは新しい知識も生み出せるのでしょうか?

作業を実行するための明示的なアルゴリズムを知らなくても、特定のタスク用にニューラル ネットワーク (...

IoTとAIの組み合わせ:さまざまなスマートフォンが互いに学習できるようにする

センサーといえば、まず思い浮かぶのはウェアラブルデバイスです。今ではウェアラブルデバイスが広く普及し...

デジタル変革の波の中で、車の購入もアルゴリズムの最適化に頼ることができるのでしょうか?

近年、デジタル変革の波に牽引され、自動車業界は着実な変革、アップグレード、ビジネスの再編を遂げていま...