0 コーパスで「ラベル付け」してより良い多言語翻訳結果を得る方法

0 コーパスで「ラベル付け」してより良い多言語翻訳結果を得る方法

[[409976]]

今日の多言語翻訳モデルのほとんどは、英語中心のデータセットで統合モデルをトレーニングし、言語ラベルを追加することでモデルに翻訳する言語を指示します。このモデルは予測時に、英語以外の文章に別の英語以外の言語タグを直接追加して直接翻訳できるため、トレーニング中にソース言語とターゲット言語が見られなくてもモデル翻訳を実現できます。これはいわゆるゼロショット多言語翻訳です。

言語タグを追加する方法はたくさんあります。Volcano 翻訳チームの研究者は、実験研究を通じて、異なる言語タグは監督指示の効果にほとんど影響を与えないが、ゼロショット効果には非常に大きな影響を与えることを発見しました。この現象は複数のデータセットで検証されており、IWSLT17 では 14.02 BLEU、Euporal では 24.24 BLEU、TED トークでは 8.78 BLEU の差がありました。この研究はACL 2021の調査結果に採用されました

論文アドレス: https://arxiv.org/abs/2106.07930

研究の背景と動機

多言語翻訳では、言語タグを追加する方法が多数あり、一般的には、言語タグを追加する方法が異なってもモデルのパフォーマンスには影響がないと考えられています。しかし、言語タグが翻訳モデルに影響を与えるかどうかを体系的に研究した研究者はいません。この投稿では、言語タグを追加する一般的な 4 つの方法を比較します。

表1 4つの異なる言語タグ

表 1 に示すように、これら 4 つの方法では、ソース言語タグとターゲット言語タグが、ソース文の先頭またはターゲット文の先頭に異なる方法で追加されます。

表2 データセットの詳細

表2に示すように、この記事ではIWSLT17、Euporal、TEDトークの3つのデータセットを選択しています。これら3つのデータセットは、言語数とデータセットのサイズに比較的大きな違いがあります。この記事では、上記の 4 つの異なる言語ラベルに基づいて、これら 3 つのデータセットでまったく同じ構成の多言語翻訳モデルをトレーニングしました。

実験結果

表3 実験結果

表 3 に示すように、次のことがわかります。

1. 言語タグやデータセットが異なっていても、教師あり学習ではモデルのパフォーマンスは基本的に同じです。

2. ゼロショット方向の場合:

a. 異なる言語ラベルはモデルのパフォーマンスに大きな影響を与え、T-ENC は 3 つのデータセットで他の 3 つのラベルを一貫して上回りました。IWSLT17 では 14.02 BLEU、Euporal では 24.24 BLEU、TED トークでは 8.78 BLEU でした。

b. 言語ラベルが異なると、オフターゲット比率も異なります(オフターゲットとは、言語Xに翻訳すると、別の言語に翻訳される状況を指します)。基本的に、T-ENCのオフターゲット比率は他のものよりも小さく、これは基本的にゼロショットでのモデルのパフォーマンスと一致しています。

分析する

では、この現象の原因は何でしょうか?この記事では、この現象を 3 つの側面から説明しようと試み、TED データセットで実験を行います。

1. ターゲット言語が同じ場合、言語タグの追加方法は、エンコーダーを通過した後の異なる言語の文章の表現の一貫性に影響しますか?

2. T-ENC は他の方法よりもオフターゲット比率を低く抑えることができます。これは、予測中に言語ラベルに注意を払うアテンション メカニズムが優れているためでしょうか。

3. 翻訳モデルの各層で、異なる言語の同じ意味の文章はどの程度類似しているか?

エンコーダ表現の一貫性

上図はt-SNEを使ってエンコーダ出力の次元を削減し、kdeを使って描いた分布図です。ターゲット言語が同じ場合の異なる言語の文章の分布を示しています。T-ENCの異なる言語間のエンコーダ表現分布がより一貫していることがわかります。これは、T-ENC がモデルが言語に依存しないエンコーダー表現を学習するのに役立つことを示しています。

オフターゲットの問題を軽減する

上の図は、ケーススタディを通じて、異なる言語ラベルの下でロシア語の文をイタリア語の文に翻訳するときに、モデルがイタリア語のラベルにどのように注意を払っているかを示しています。明らかに、T-ENC を使用する場合、モデルはイタリア語のラベルに最も注意を払っており、これが T-ENC のオフターゲット比率が最も小さい理由をある程度説明できます。

さまざまなレベルでの類似点

上図のサブ図aは、英語とロシア語を除く18の言語からロシア語に翻訳した際に、異なる言語で同じ意味を持つ文章の表現の類似性を示しています。T-ENCの類似度曲線は常に他の言語ラベルより上にあることがわかります。これは、ターゲット言語が同じ場合、T-ENCの各層の表現が他の方法よりも一貫していることを示しています。

上図のサブ図bは、ロシア語から英語とロシア語以外の18の言語に翻訳されたときの、異なるターゲット言語での同じロシア語の文章の類似度を示しています。T-ENCの類似度曲線は、ほとんどの場合、他の言語のラベルの下にあることがわかります。これは、ターゲット言語が異なる場合、T-ENCがターゲット言語に関連する表現をより適切に生成できることを示しています。

要約する

この研究では、異なる言語ラベルが多言語ゼロショット翻訳に大きな影響を与えることを発見し、非常に異なるデータを持つ 3 つの異なるデータセットで実験を行いました。結果、異なる言語ラベルが多言語ゼロショット翻訳に大きな影響を与えることが検証され、T-ENC がゼロショットで他の言語ラベルよりも優れていることが示されました。同時に、この研究では、予測中にさまざまな言語タグがモデルの表現に与える影響を分析し、T-ENC はターゲット言語に関連しているがソース言語とは関連のない表現をより適切に取得できることを発見しました。

1. T-ENC は、エンコーダー後の異なるソース言語での文章の表現をより一貫したものにすることができます。

2. T-ENC の注意メカニズムは、ターゲット言語の言語タグにより適切に注意を払うことができます。

3. T-ENC のさまざまなレイヤーでの表現は、他の方法よりもターゲット言語との関連性が高くなります。

<<:  自然言語処理におけるAIの未来を探る

>>:  Swin Transformerをベースに、清華大学などがMoBY自己教師学習法のコードを提案し、オープンソース化されている。

ブログ    
ブログ    
ブログ    

推薦する

一般的なソートアルゴリズムの概要

概要コンピュータサイエンスと数学において、ソートアルゴリズムとは、一連のデータを特定の順序で並べるア...

端から端まで道を切り開きます! OccWorld: 自動運転の未来に向けた 3D 占有世界モデルへの新しいアプローチ

序文と個人的な理解とても良い作品を見つけたので、皆さんと共有したいと思います!占有+世界モデルに関し...

ユーザー投票に基づくランキングアルゴリズム: Delicious と Hacker News

インターネットの出現は「情報爆発」を意味します。ユーザーが心配するのは、もはや情報量が少なすぎること...

2025年までに機械学習市場は967億ドルに達する

4月7日、PR Newswireによると、市場調査会社Grand View Researchが最近発...

研究機関が新しいレポートでAIの売り手側と買い手側の成功への道筋を定義

調査会社ストラテジー・アナリティクスは新たな報告書の中で、人工知能製品のベンダーとそのユーザーの両方...

ElasticSearch はどのようにして TDigest アルゴリズムを使用して数十億のデータのパーセンタイルを計算するのでしょうか?

[[393929]]この記事はWeChatの公開アカウント「プログラマー李小冰」から転載したもので...

...

このAI企業はマスクを使って中国の顔認識システムを破る! WeChat、Alipay、鉄道駅もすべて影響を受けた

海外メディアの報道によると、人工知能企業Kneronは特製の3Dマスクを使い、AlipayやWeCh...

データと人工知能の整合性をどのように確保するか?

2022 年、データと AI はデジタル革命の新たな章の基盤を築き、ますます多くのグローバル企業に...

機械学習業界の発展はなぜ「オープンソース」から切り離せないのか

[[187490]] 2016 年末、Google DeepMind は機械学習プラットフォームであ...

人工知能が新薬開発を支援

[[251349]]古代、神農は何百種類もの生薬を試飲しましたが、これは実際には薬を人工的に選別する...

...