みなさんこんにちは。私はDiaobaiです。 今回は、ICLR2021のNLP分野の論文を6本選んで解釈し、テキスト生成、自然言語理解、事前学習済み言語モデルの学習とバイアス除去、さらにはテキストマッチングとテキスト検索も取り上げました。私たちはこれらの論文からいくつかのアイデアを借りて自社のビジネスに適用し、最終的に良い結果を達成しました。 タスク:エンドツーエンドのテキスト生成 この論文は、テキスト生成タスクにおける露出バイアス問題を解決することを目的としています。つまり、自己回帰テキスト生成の生成タスクでは、デコーダーの入力は常に真実のトークンであり、間違った生成結果が発生しないようにします。 この論文では、対照学習損失を導入してモデルが正のサンプルと負のサンプルを区別し、モデルをさまざまなノイズ条件にさらすことでこの問題を解決します。ただし、ノイズ サンプルを完全にランダムに生成すると、特に事前トレーニング済みのモデルの場合、非常に区別しやすいモデルが生成されます。したがって、本論文では、陽性サンプルの尤度が高くなり、陰性サンプルの尤度が低くなるように摂動を加える敵対的摂動法を提案する。 タスク:自然言語理解、微調整段階でのテキスト表現の強化 この論文では、主にテキスト分野のデータ拡張手法を研究し、以下の問題を研究します。 テキストにはどのような拡張方法を適用できますか? これらの拡張スタイルは補完的でしょうか、また、それらを統合してより多様な拡張例を生み出すための戦略を見つけることはできるでしょうか? 取得した拡張サンプルをトレーニング プロセスに効果的に組み込むにはどうすればよいでしょうか? 著者らは、テキストのデータ拡張方法として次の 5 つを検討しました。 逆翻訳 c-BERT 単語置換 ミックスアップ 切り落とす 敵対的トレーニング さらに、著者は、上の図に示すように、質問 1 と 2 を検討するために 3 つの異なるデータ拡張戦略を検討しました。 ランダム選択: ミニバッチ内の各サンプルに対してデータ強化方法をランダムに選択します。 ミックスアップ: ミックスアップ戦略を使用して、ミニバッチで2つのサンプルをランダムに組み合わせます。 さまざまな強化方法の積み重ね: 3 番目の質問、つまり、それを微調整タスクにどのようにうまく統合するかについては、コントラスト損失が提案されています。 実験により、2 つの強化方法を組み合わせることでパフォーマンスがさらに向上することが示されました。 GLUE で実験を実施したところ、ベースラインと比較して平均スコアが 2 ポイント向上しました。 タスク:事前学習済み言語モデルのバイアス除去 この論文では、対照学習を使用して、事前トレーニング済みの言語モデルによって生成されたテキスト表現内のバイアス要因(性別バイアス、人種バイアスなど)を排除します。これを実現するために、言語モデルによって生成されたテキスト表現を別の表現に変換する追加のマッピング ネットワークをトレーニングし、新しく生成された表現のバイアスを排除します。この論文の革新性は次の点にあります。 元のテキスト内の偏った単語をその反意語 (man<->woman、her<->his、she<->he など) に置き換えることで、強化されたテキストを作成できます。対照的損失により、変換された表現において 2 つの間の相互情報量が最大化されます。 テキスト内の暗黙のバイアスをさらに排除するために、生成された文の表現とバイアスのかかった単語の表現間の相互情報量を最小化する追加の損失が提案されています。 タスク:言語モデルの事前トレーニング この論文では、テキスト表現学習に対照学習を使用する際の現在の問題を分析します(セクション2.2)。 対照学習では、KL ダイバージェンスをトレーニング ターゲットとして使用すると、トレーニング プロセスが不安定になります。 対照学習には大量の負のサンプルが必要となり、非効率的です。 最初の問題に対して、著者はトレーニング中の安定性を高めるためにワッサーシュタイン制約を追加しました。2 番目の問題に対して、著者は最新の K 個のネガティブ サンプルのみをサンプリングすることを提案しました。これはアクティブ ネガティブ サンプル選択と呼ばれます (NIPS 論文「ハード ネガティブ ミキシング」と同様)。 タスク:テキストマッチング、マルチラベルテキスト分類 この論文では、主にマルチラベルテキスト分類の問題、特にロングテールラベルの問題(つまり、データが少ない場合、カテゴリの分布が不均一になることが多く、1回または2回しか表示されないラベルが多数存在し、頻繁に表示されるカテゴリが少数存在する)の解決を試みています。 この論文では、主にマルチラベル分類タスクをテキストマッチングに似た形式にモデル化します。さまざまな肯定的ラベルと否定的ラベルがサンプリングされ、文章からテキストの断片もサンプリングされて疑似ラベルが形成されます。エンコード後、これら 4 つの形式のラベル (正ラベル、負ラベル、正疑似ラベル、負疑似ラベル) は文エンコードと連結され、マッチング レイヤーに渡されます。マッチング モデルは、バイナリ クロス エントロピー損失 (BCE) または NCE 損失 (正の例と負の例を区別するため) を使用してトレーニングされます。 タスク:高密度テキスト検索 この論文では、テキスト検索の分野について研究しています。従来の単語レベルの検索 (スパース検索) とは異なり、この論文では、テキスト表現をトレーニングすることによってテキスト検索を実行します (Dence Retrieval、DR と呼ばれます)。 DR は次の 2 つのフェーズで構成されます。 テキストをベクトルにエンコードするモデルを事前トレーニングします。トレーニングの目標は、類似ペアの類似度スコアを最大にすることです。 トレーニングされたエンコーディング モデルを通じて、テキストがエンコードされ、インデックスが作成され、クエリの類似性に基づいて検索が実行されます。 この論文では主に最初の段階、つまり適切な表現をトレーニングする方法に焦点を当てています。この論文は、ネガティブ サンプル サンプリング方法が DR パフォーマンスを制限するボトルネックであるという仮説から始まります。この論文の貢献: 高品質の非類似ペアをサンプリングするための、より優れたネガティブサンプリング法が提案されています。 この論文で提案された効果により、トレーニングの収束が速くなります。 この論文で提案された方法は、BERT ベースの方法と比較して、同様の精度を達成しながら効率を 100 倍向上させます。 |
<<: 流行を予防し制御するために、人工知能はまだ3つの大きな問題を解決する必要がある
医用画像診断における人工知能(AI)の応用は大きな進歩を遂げました。しかし、厳密なテストがなければ、...
LinkedIn では、機械学習の職種に応募する人の多くに 200 人を超える応募者がいます。 AI...
子供にリンゴとオレンジの区別を教えたいとします。これを行うには複数の方法があります。お子様にこの 2...
最近、米国の市場調査機関であるナビガントリサーチが、自動運転の競争力に関する新たなランキングを発表し...
SAM (Segment Anything) は、基本的な視覚セグメンテーション モデルとして、わず...
機械学習機械学習は、コンピューティング システムの能力の向上とデータの可用性の向上により、過去 10...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
最近、OpenAIの研究科学者ヒョン・ウォン・チョン氏がソウル国立大学で「大規模言語モデル(2023...
人工知能 (AI) に関する議論のほとんどは、自動運転車、チャットボット、デジタルツイン、ロボット工...
なぜビッグデータは十分にスマートではないのでしょうか?確率の言語よりも強力な思考ツールは何でしょうか...
デジタル変革の結果、テクノロジーは長年にわたってどのように変化してきましたか?アクセンチュアが第 2...
自動運転は近年市場で最も活発なトピックの1つです。資金が継続的に流入し、大手企業が存在感を示そうと競...
機械学習により、人間が設計した固定されたプログラムでは解決が難しい問題を解決できるようになります。科...