かつては世界で最も強力だと考えられていたGPT-4も、リリース以来、いくつかの「信頼の危機」を経験してきました。 今年初めの「知能の断続的な低下」が OpenAI による GPT-4 アーキテクチャの再設計に関連しているとすれば、少し前に「怠惰になる」という噂はさらにおかしかった。誰かがテストしたところ、GPT-4 に「今は冬休みです」と伝えると、GPT-4 は怠惰になり、あたかも冬眠状態に入ったかのようになるという。 大規模なモデルは怠惰で愚かになり、具体的には、新しいタスクでのモデルのゼロサンプル パフォーマンスが低下します。上記の理由は興味深いように思えますが、問題をどのように解決するのでしょうか? 最近の論文では、カリフォルニア大学サンタクルーズ校の研究者による新たな発見が、GPT-4 のパフォーマンス低下の根本的な理由を説明している可能性があります。 「トレーニング データが作成された日付より前にリリースされたデータセットでは、その後にリリースされたデータセットと比較して、LLM のパフォーマンスが驚くほど優れていることがわかりました。」 彼らは「以前に見た」タスクではうまく機能しますが、新しいタスクではうまく機能しません。つまり、LLM は、近似的な検索に基づいた模倣知能法にすぎず、主に理解することなく物事を記憶するだけです。 はっきり言って、LLM の汎用性は「言われているほど強力ではない」 - 基礎がしっかりしていなければ、実戦では必ずミスが起きる。 この結果の主な理由の 1 つは、データ汚染の一種である「タスク汚染」です。私たちがよく知っているデータ汚染はテスト データ汚染であり、事前トレーニング データにテスト データの例とラベルが含まれていることです。 「タスク汚染」とは、事前トレーニング データにタスク トレーニングの例を追加して、ゼロ ショット法や少数ショット法による評価が真実で有効でなくなることです。 この論文では、研究者らは初めてデータ汚染問題の体系的な分析を行った。 論文リンク: https://arxiv.org/pdf/2312.16337.pdf この論文を読んだ後、悲観的な意見を述べた人もいた。
「タスク汚染」の問題はどれほど深刻でしょうか?論文の内容を見てみましょう。 モデルとデータセット実験では 12 個のモデルが使用されました (表 1 を参照)。そのうち 5 個は独自の GPT-3 シリーズ モデルであり、7 個は重みが無料で利用できるオープン モデルです。 データセットは、2021 年 1 月 1 日以前にリリースされたデータセットと、2021 年 1 月 1 日以降にリリースされたデータセットの 2 つのカテゴリに分けられます。研究者はこの分割方法を使用して、古いデータセットと新しいデータセット間のゼロショットまたは少数ショットのパフォーマンスの違いを分析し、すべての LLM に同じ分割方法を使用します。表 1 に各モデルトレーニングデータの作成時刻、表 2 に各データセットのリリース日を示します。 上記のアプローチの背後にある考慮事項は、ゼロショット評価と少数ショット評価では、モデルがトレーニング中に一度も見たことのない、または数回しか見たことのないタスクについて予測を行うことです。重要な前提は、モデルが事前に完了する特定のタスクにさらされていないため、学習能力の公正な評価が保証されることです。ただし、汚染されたモデルは、事前トレーニング中にタスクの例でトレーニングされているため、露出されていない、または数回しか露出されていない機能であるかのような錯覚を与える可能性があります。時系列データセットでは、重複や異常が明らかであるため、このような不一致を検出するのは比較的簡単です。 測定方法研究者はタスク汚染を測定するために 4 つの方法を使用しました。
最初の 3 つの方法は、精度は高いですが、再現率は低くなります。タスクのトレーニング データ内にデータが見つかった場合は、モデルが以前にその例を見たことがあることが確実です。ただし、データ形式の変更、タスクを定義するために使用されるキーワードの変更、およびデータセットのサイズにより、最初の 3 つの方法を使用して汚染の証拠が見つからないことは、汚染が存在しないことを証明するものではありません。 4 番目の方法である時系列分析は、再現率は高いが、精度は低いです。タスクの汚染によりパフォーマンスが高くなる場合は、時系列分析によってそれを検出できる可能性が高くなります。しかし、他の要因によって時間の経過とともにパフォーマンスが向上し、精度が低下する可能性もあります。 そのため、研究者は 4 つの方法すべてを使用してタスク汚染を検出し、いくつかのモデルとデータセットの組み合わせでタスク汚染の強力な証拠を発見しました。 彼らはまず、汚染の可能性を明らかにする可能性が高いすべてのテスト済みモデルとデータセットに対して時間分析を実行し、次にトレーニング データの検査とタスク例の抽出を使用してタスク汚染のさらなる証拠を探し、次に汚染されていないタスクでの LLM のパフォーマンスを観察し、最後にメンバーシップ推論攻撃を使用して追加の分析を実行しました。 主な結論は次のとおりです。 1. 研究者らは、トレーニングデータがインターネットから収集される前と後の各モデル用に作成されたデータセットを分析しました。 LLM トレーニング データを収集する前に作成されたデータセットは、ほとんどのベースラインを上回るパフォーマンスを発揮する可能性が大幅に高いことがわかりました (図 1)。 2. 研究者は、タスクの汚染の可能性を見つけるために、トレーニング データの検査とタスク例の抽出を実施しました。タスク汚染が不可能な分類タスクの場合、ゼロショットタスクでも少数ショットタスクでも、さまざまなタスクにわたってモデルが単純な多数決ベースラインに対して統計的に有意な改善を達成することはほとんどないことがわかりました (図 2)。 研究者らは、図3に示すように、GPT-3シリーズとオープンLLMの平均パフォーマンスの経時的な変化も調べました。 3. 研究者らはケーススタディとして、分析におけるすべてのモデルの意味解析タスクに対するメンバーシップ推論攻撃も試み、抽出されたインスタンスの数と最終タスクにおけるモデルの精度の間には強い相関関係があることを発見しました (R = .88) (図 6)。これは、このタスクにおけるゼロショット パフォーマンスの向上がタスク汚染によるものであることを強く示唆しています。 4. 研究者らはGPT-3シリーズのモデルも注意深く研究し、GPT-3モデルからトレーニングサンプルを抽出できること、そして抽出可能なトレーニングサンプルの数はdavinciからGPT-3.5-turboまでの各バージョンで増加していることを発見しました。これは、このタスクにおけるGPT-3モデルのゼロサンプルパフォーマンスの向上と密接に関係しています(図2)。これは、これらのタスクにおける Davinci から GPT-3.5-turbo への GPT-3 モデルのパフォーマンスの向上は、タスクの汚染によるものであることを強く示唆しています。 |
<<: 2023 年の AI セキュリティに関するトップ 10 の話題
>>: 基本モデル + ロボット: これまでどこまで進んだのでしょうか?
多くのニューラル ネットワーク フレームワークは長年にわたってオープン ソース化されており、機械学習...
データ サイエンティストがディープラーニングについて話すとき、通常は画像の生成、検出、分類、回帰タス...
国内の大型模型市場に新たな「プレーヤー」が誕生しました。今回は数学に特化した大型模型です。 Sync...
ブルームバーグが14日に報じたところによると、声優のシッキー・ジョーンズがAIスタートアップ企業モー...
コンピュータは構造化されたデータを理解するのが得意ですが、主に文化的習慣に基づいた人間の言語を理解す...
海外メディアの報道によると、ハーバード大学ジョン・A・ポールソン工学・応用科学大学院(SEAS)とカ...
少し前、ニューヨーク・タイムズ紙は、OpenAI が自社のコンテンツを人工知能開発のために違法に使用...
ロボットを食べるというのはあまり魅力的に聞こえないかもしれないが、近い将来、食べられる機械があなたの...
機械学習による翻訳は人間のコミュニケーションに非常に有益ですが、限界もあります。機械学習は、企業に文...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
見知らぬ人々の集団の中に見覚えのある人を見つけたり、とても見覚えのある顔を見かけたりします。その人は...
Microsoft は、Windows 365 を通じて、ますます多くの Windows 機能とコン...