ChatGPTの愚かさに対する新たな説明: 世界はAIによって変化し、訓練されたときとは異なっている

ChatGPTの愚かさに対する新たな説明: 世界はAIによって変化し、訓練されたときとは異なっている

学術界は、ChatGPT がなぜ愚かになったのかという新たな説明を持っています。

カリフォルニア大学サンタクルーズ校の研究では次のように述べられています。

トレーニング データがカットオフされる前のタスクでは、より大きなモデルの方がパフォーマンスが大幅に向上します。

この論文は、「タスク汚染」の問題に焦点を当てています。つまり、大規模なモデルはトレーニング中に多くのタスク例を見たため、AI がゼロサンプルまたは少数サンプルの機能を備えているという誤った印象を与えてしまうのです。

一部の学者は別の観点から、大規模モデルのパラメータはトレーニング後に固定され、人々が新しいタスクを提案し続けるため、入力分布は常に変化していると指摘しました。モデルがこのような変化に継続的に適応できない場合、その機能は徐々に低下します。

AI は質問するだけで答えられると思われがちですが、実際にはトレーニング中に最も一般的なタスクを経験しています。

時間が経つにつれて、人々はより多くの新しい質問をするようになり、AI のパフォーマンスは低下し始めました。

たとえば、コードの問題に関して言えば、プログラミング言語はまだ進化と変化を続けており、遅かれ早かれその効率は許容できないほど低くなります。

これは、継続的に学習する能力を持たないすべてのモデルの運命です。

ミッションの汚染はどの程度深刻ですか?

研究チームは、ChatGPT、OPT、Bloom以前のGPT-3シリーズから、最新のGPT-3.5-turbo、アルパカ科のLlama、Alpaca、Vicunaまで、合計12のモデルを評価しました。

彼らは全員、トレーニング終了前にタスクのパフォーマンスが大幅に向上するという同様の問題を抱えています。

タスク汚染を評価するのは非常に困難です。クローズドソース モデルはトレーニング データをまったく公開しません。また、ほとんどのオープン ソース モデルはライフ ソースのみを公開し、データ自体は公開しません。

研究者がインターネットデータを再クロールすると、モデルがトレーニングされたときと比べて変化が生じている可能性もあります。

この目的のために、チームはミッション汚染の程度を測定するために 4 つの方法を使用しました。

  • トレーニングデータの確認: 対応するタスク例を直接検索

オープンソース モデル Alpaca と Vicuna では、トレーニング データが汚染されたタスクのパフォーマンスがオリジナルの Llama よりも優れているという明確な傾向があります。

  • タスク例の抽出:プロンプト語を調整することで、モデルにトレーニングデータ内のタスク例を記憶させます。

GPT-3 davinci-001 バージョンから GPT-3.5-Turbo まで、この問題はますます深刻になっています。

図中、X はモデルがトレーニング データ内の元のタスク例を再現したことを表し、緑は指示によって微調整されたモデルがトレーニング データを再現しなかったことを表します。

灰色は、指示によって微調整されていないモデルがプロンプト語に従ってトレーニング データを繰り返すことができないことを表していますが、問題が存在しないことを意味するものではありません。

  • メンバーシップ推論(生成タスクのみ) : モデルによって生成された回答が元のデータとまったく同じかどうかを確認します。

  • 時系列分析: トレーニング データの収集日がわかっているモデルの場合は、リリース日がわかっているデータセットでパフォーマンスを測定し、時系列の証拠を使用してデータ汚染の証拠を確認します。

最初の 3 つの方法は、精度は高くなりますが、再現率は低くなります。タスクのトレーニング データ内にデータが見つかった場合、その例を見たことがあることが確実になります。

ただし、データ形式の変更、キーワードの変更、データセットのサイズにより、最初の 3 つの方法を使用して証拠が見つからない場合でも、データ汚染が存在しないことを意味するわけではありません。

4 番目の方法は再現率は高いですが、精度が低く、干渉要因の影響を受けやすいです。

特にGPT-3シリーズについては、その機能向上は命令の微調整によるものだと現在考えられていますが、研究チームはそうではないと考えています。

davinci-002 は 2021 年以前のデータセットでは davinci-001 よりもパフォーマンスが向上しましたが、2021 年以降のデータセットではそれに応じてパフォーマンスが低下しました。

これは、微調整された GPT-3 ファミリの命令が特定の初期のデータセットに対してのみ機能することを示唆しています。

チームは次のように結論付けました。

  • タスクの汚染により、クローズドソース モデルは、特に RLHF で微調整されたモデルの場合、ゼロ ショットまたは少数ショットの評価で実際よりも優れたパフォーマンスを発揮する場合があります。汚染の程度は不明のままですので、注意が必要です。
  • 実験では、タスク汚染の可能性がない分類タスクの場合、ゼロショット設定と少数ショット設定の両方で、大規模なモデルがほとんどのベースラインに対して統計的に有意な改善を示すことはほとんどありません。
  • 時間が経つにつれて、多くの下流タスクにおける GPT-3 ファミリーのモデルのゼロショットまたは少数ショットのパフォーマンスが、おそらくタスクの汚染により向上することが観察されます。
  • オープンソース モデルの場合でも、トレーニング データにタスクの汚染がないかチェックするのは困難です。
  • タスクの汚染問題をチェックできるように、トレーニング データを公開することをお勧めします。

ある人はこう結論づけました。

  1. 既存のデータでAIをトレーニングする
  2. 人々はAIを多用し、現実世界を変えている
  3. AIは変化した世界に適応できず非効率になる

これはサイクルです。

論文: https://arxiv.org/abs/2312.16337.

参考リンク:
[1] https://twitter.com/ChombaBupe/status/1741531065032798360.

<<:  大規模モデルアプリケーションの探索 - エンタープライズ ナレッジ スチュワード

>>:  2023年の生成AIの包括的なレビュー

ブログ    

推薦する

人工知能開発における個人情報保護

インターネット空間は、人間が肉体から切り離された「デジタルサバイバル」を実現し、「デジタルパーソナリ...

2018 年の 15 大テクノロジー トレンド、テクノロジーに関して正しい方向に進んでいますか?

[[216696]]一般的に言えば、未来そのものを予測することは難しいため、技術動向を明確に予測す...

2021 年のビジネス インテリジェンスの 7 つのトレンド

[[418205]]ビジネス インテリジェンスの応用は、近年、人工知能、機械学習、自然言語処理 (N...

移動ロボットの分野に新たな大手企業が参入し、業界の人気は高まり続けている。

ABBは7月20日、欧州最大のAMRプロバイダーの1つであるASTI Mobile Robot G...

5つのAI技術トレンドが私たちの労働環境を根本的に変える

[51CTO.com クイック翻訳] 現在、人工知能技術に対する人々の見解は主に2つの陣営に分かれて...

国家人工知能実験区の数は 8 つに増えました。なぜこの 5 つの都市が選ばれたのでしょうか?

丑年の最初の仕事週に、国家人工知能イノベーションおよび応用パイロットゾーンの数が増加しました。工業情...

AI はクラウド コンピューティングをどのように改善するのでしょうか?

今日、AI とクラウド コンピューティングを組み合わせることで、企業はデータを管理し、情報のパターン...

科学者たちは、脳波を3%という低いエラー率で直接テキストに変換する「心を読む」方法を開発した。

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

このアルゴリズムはアーキテクチャを自動的に最適化し、エンジニアがニューラルネットワークを設計するのに役立ちます。

最近、カナダのバンクーバーで NeurIPS 2019 が開催されました。テンセントAIラボからは合...

...

企業が人工知能を導入する際に知っておくべき5つの誤解

[[392106]] AI は広く普及しているにもかかわらず、知識と認識のギャップにより、商業的な導...

ディープラーニング GPU の最も包括的な比較: コスト パフォーマンスの点で最も優れているのはどれですか?

AI に関して言えば、「GPU の混乱」を感じない人はいないでしょう。 Tensor コア、メモリ...

...

5G自動運転車が景勝地でデビュー、商用利用のシナリオも間もなく登場

[[264714​​]]最近、5G携帯電話や5G商用利用に関するニュースが多く出ています。国内外の多...

...