少し前、UIUC と南洋理工大学の 3 人の研究者が 20 か月かけて 673 本の論文を研究し、信頼できる機械学習について詳細かつ徹底的なレビューを書きました。彼らは統一された数学言語とデータ中心の視点を用いて、この分野における最新の研究の進歩を要約しました。彼らは次の3つの質問に答えようとしました。 1. 近年の信頼できる機械学習の分野におけるさまざまなアプローチの間には、本質的なつながりがあるのでしょうか? 2. 因果推論の観点から信頼できる機械学習を理解するにはどうすればよいでしょうか。また、そこからどのような洞察が得られるのでしょうか。 3. 大規模モデルの時代に信頼できる機械学習を実現するにはどうすればよいでしょうか? 論文アドレス: https://arxiv.org/pdf/2307.16851.pdf 1. 背景機械学習モデルがますます強力になり、人々の生活に広く統合されるようになるにつれて、モデルの信頼性が特に重要になります。モデルの「信頼性」に対する人々の要求は、多くの側面に及びます。たとえば、トレーニングされたモデルが実際に展開されるとき、未知の分布の移行下でも正確な予測を維持する必要があります。ユーザーがモデルによる高リスクの予測を理解し、検証し、信頼できるようにするために、モデルは推論プロセスをユーザーに説明する必要があります。モデルは、社会のすべてのグループに対して公平性を確保するために、偏りのない予測を行う必要があります。 研究者たちは、既存のモデルが信頼できない理由は、多くの場合、データの構成によるものだと考えています。データセットには、混乱を招く要因や誤った特徴などの構造が広く存在し、注釈の品質が高くても、これらを避けることはできません。このモデルは経験的リスク最小化 (ERM) の原則に基づいてトレーニングされており、これらの偽の特徴とラベル間の統計的関連性を学習する傾向があります。これらの関連性は、独立かつ同一に分布しているという仮定の下で存在しますが、本質的に脆弱であり、現実世界ではいつでも変化する可能性があり、モデルのパフォーマンスが急落する可能性があります。さらに、倫理的な考慮から、インターネット データにおける社会的弱者グループに対する広範な差別など、特定の統計的相関関係をモデルに学習させたくありません。 図 1: レビューで議論された中核的な問題の図解。特徴は「因果的」特徴と「偽りの」特徴に分けられ、その意味は特定のタスクのコンテキストによって決まります。 このレビューでは、「信頼できる機械学習」を一連のトピックの総称として使用し、堅牢性、セキュリティ (敵対的堅牢性)、公平性、説明可能性という 4 つの側面をカバーしています。 「信頼できる」の具体的な意味は利害関係者によって決定されるべきです。たとえば、堅牢性とは多くの場合、「データの重大でない変更に対してモデルの予測が変化しない」ことを意味します。したがって、堅牢性について議論する前に、ユーザーがモデルがどのような変更に対して堅牢性を維持することを期待しているかを明確にする必要があります。 図 2: 左側に示す円/三角形の分類問題と右側に示すカメ/亀の分類問題は、堅牢性研究がどの要因に対してモデルが堅牢であるべきかを示さなければならない例です。 2. 信頼できる機械学習のさまざまなトピックを結びつける過去 10 年間、学術界は、堅牢性、セキュリティ、公平性、解釈可能性の観点から機械学習モデルの信頼性を向上させるための多くの方法を提案してきました。これらの方法はそれぞれ異なりますが、本質的には関連しています。 堅牢なドメイン適応は、分布転送に対する機械学習モデルの堅牢性に焦点を当てた最も初期の方向性の 1 つである可能性があります。モデルは、ある分布のデータでトレーニングされ、その後、別の分布のラベルなしデータで適応されます。モデルがトレーニング セットで学習した知識をこの新しい分布に転送し、正確な予測を行うことが期待されます。ドメイン敵対ネットワーク法の登場以来、ドメイン不変表現を学習するというアイデアは、堅牢性研究において急速に普及してきました。もう 1 つの大きなクラスの方法では、データ拡張に生成モデルを使用し、トレーニング サンプルから新しい分布スタイルに準拠するサンプルを生成します。ドメイン適応と密接に関連しているのがドメイン一般化です。これは、より困難なシナリオに焦点を当てており、つまり、モデルが 1 つ以上の分布のデータでトレーニングされた後、適応なしではこれまで見たことのない新しい分布で直接正確な予測を行えるようになることが期待されます。 セキュリティ著者は「敵対的堅牢性」というトピックについて議論します。初期の研究では、人間の目には知覚できないような摂動を画像に加えることで、画像分類モデルが誤った判断を下し、精度をほぼゼロにまで低下させる可能性があることが判明しました。 「敵対的」攻撃と呼ばれるこの手法とニューラル ネットワークの脆弱な性質は、自動運転車を含む AI アプリケーションに重大なセキュリティ リスクをもたらします。この現象の性質については、ノイズに抵抗できることも特性であるという考えを含め、さまざまな視点が提案されています。この問題を解決するために最も一般的に使用される方法は、生成された敵対的サンプルと元のサンプルを使用してモデルをトレーニングする敵対的トレーニングです。多くの研究でも、ドメイン不変表現の手法が借用されています。 公平性公平性は主に、結果の差別と品質の違いという 2 つの側面を指します。前者は、人々の社会集団情報に基づいて偏った予測を行うモデルを指し、後者は、少数派集団に対するモデルの予測の質が低下することを指します。結果の識別問題はドメイン一般化と同様の構造を持ち、ドメイン不変表現学習またはデータ拡張法によって解決できます。品質の違いは、多くの場合、特定のグループのデータ不足によって引き起こされ、何らかのアルゴリズムを使用してトレーニング サンプルに重み付けすることで対処できます。 解釈可能性はモデルのブラック ボックスを開き、モデルの予測の理由をユーザーに説明します。これは、重要な結果を伴う一部のアプリケーション シナリオでは非常に必要です。説明可能性の方法は、さまざまな形式を含め、グローバルな説明とローカルな説明に分けられます。著者らが注目している方法の 1 つは、モデルが予測を行うために主に使用する入力サンプルの特徴を明らかにすることを目的としています。実装方法には、サンプルを摂動したり、特徴に対する出力の勾配を計算したりすることが多く、これは敵対的原理に似ています。 図 3: 信頼できる機械学習における共通テーマへのアプローチの概要。 (a) 標準 ERM 損失、(b) ドメイン敵対ネットワーク法、(c) 最悪ケースのデータ増強戦略、(d) サンプル重み付け法。 このレビューでは、著者らはこれらの信頼できるトピックに関する近年のさまざまな方法の発展を整理しています。彼らは、図 3 に示すように、さまざまなトピックに対して提案されたこれらの方法は、いくつかのトピック式によって統一できることを発見しました。また、これらの公式と因果推論フレームワークとの関係についても調査しており、これについては以下で説明します。 図 4: レビューで議論された主要トピックの要約。青いボックスは信頼できるトピックを表し、赤いボックスはトピックの公式を表し、緑のボックスは因果階層を表します。 3. 因果関係の観点から信頼できる機械学習を理解するチューリング賞受賞者のジュディア・パール氏が提案した因果推論フレームワークは、相関データから堅牢な因果関係を取得し、データ内の交絡因子の影響を排除する方法に重点を置いており、これは信頼できる機械学習の中心的な問題です。因果の観点から見ると、交絡因子の生成メカニズムはデータ生成プロセスに見られるため、因果推論法を使用してその影響を排除することができます。信頼できる機械学習の分野における多くの方法は、因果推論の原則と一致しています。さまざまな機械学習タスクには、さまざまなデータ生成プロセスがあります。調査の結果、著者は最も一般的なプロセスを選択して説明しました。データが 2 種類の潜在変数によって生成されると仮定し、それらを「因果変数」と「非因果変数」と呼びます。 2 つの変数の間には因果関係はありません。ラベル変数は因果変数によってのみ生成されます。下の図の左側は、データ生成プロセスの因果図です。 図 5: 左の図はデータ生成プロセスの因果グラフであり、右の図は因果的特徴が介入した後の変化を示しています。外部メカニズムが C を生成したメカニズムを置き換えるため、グラフ内のノード C に入るエッジはキャンセルされます。 パール因果階層によれば、因果関係には関連性、介入、反事実性の 3 つのレベルがあります。著者は、ランダム化比較実験、操作変数、逆確率重み付け、バックドア調整など、因果階層に沿った重要な因果推論の概念と手法を紹介しています。著者は、データ生成プロセスに因果的特徴を介入させると(上図の右側に示すように)、データ内の交絡因子の影響を排除でき、データ拡張やサンプル重み付けなどの方法によって間接的にこの介入を実現できることを演繹的に示しています。著者は、上記の信頼できる機械学習の手法を因果関係の観点から再度述べています。さらに、近年のいくつかの研究では因果推論に明確に基づいた機械学習手法が提案されており、それらも本レビューで紹介されています。 図 6: GAN (左) や VAE (右) などの生成モデルによるデータ拡張を使用した反事実的推論との類似点。 信頼できる機械学習を因果関係の観点から理解することは、既存の方法の背後にある因果関係の仮定を理解し、その適用範囲を判断するのに役立ちます。また、データ生成プロセスから始めて、交絡効果を排除できる因果的手法を選択することも可能であり、それによって、より効果的で信頼性の高い機械学習手法の設計につながります。現在、機械学習における因果推論の応用は、測定不可能な内生変数や特徴結合など、依然として多くの課題に直面しています。これらの問題は、さらなる研究と解決が必要です。 IV. ビッグモデル時代における信頼できる機械学習の将来方向過去 1 年間で、ChatGPT に代表される大規模モデルは画期的な進歩を遂げ、さまざまなベンチマーク データ セットで目覚ましい成果を達成しただけでなく、多数のユーザーの支持も獲得しました。 GPT モデル ファミリの開発は、モデル パラメータとトレーニング データが増加し続けると、モデルの信頼性がますます高まることを示しているようです。しかし、研究者たちがさらに深く調査を進めていくと、最近の大規模モデルには依然としていくつかの重要な点で信頼性の問題があることが判明しました。まず、大規模モデルは、データが少ない高度に専門化された分野では十分な堅牢性がなく、パフォーマンスが著しく低下したり不安定になったりします。第二に、大規模モデルの予測は特定の社会集団に対して偏りがあり、公平性に欠けることが多い。第三に、大規模なモデルはしばしば幻覚を生み出し、一見もっともらしい答えを出力します。これらの問題は規模を拡大しても十分に解決されないという証拠は数多くあります。 RLHF などのテクノロジーにより、モデルは注釈者の好みに沿った出力を生成できるようになりますが、実際にはモデルの堅牢性と公平性を大幅に向上させることはできません。 上記で紹介した信頼できる機械学習手法は、しっかりとした理論的根拠があり、さまざまなシナリオで効果があることが実証されています。大規模なモデルのトレーニングに使用すれば、モデルの信頼性が向上することが期待されます。しかし、大規模モデルのトレーニングには膨大なコストがかかります。既存の大規模モデルを改善するには、ファインチューニング、パラメータ効率の良いファインチューニング、プロンプト、人間のフィードバックからの強化学習 (RLHF) など、大規模モデルを効率的に使用する手法を使用できます。著者は近年のこれらの技術の発展を一つずつ紹介し、最初の 3 つは異なるパラメータ化による経験的リスク最小化 (ERM) 目標を採用しているのに対し、RLHF は学習した人間の報酬をターゲットとして使用していることを示しています。これらはすべてレビュー内のトピック式と組み合わせることで、モデルの信頼性をさらに向上させることができます。 この組み合わせの可能性こそが、このレビューが既存の方法を整理しながら、将来出現する可能性のある方法をある程度予測できる理由でもあります。 機械学習モデルの信頼性を向上させることは、研究者と実践者の共同の努力を必要とする大規模モデルの時代には特に重要です。最後に、著者らは信頼できる機械学習の将来の方向性について次のように議論しています。 1. さまざまな信頼できるトピックを組み合わせて、複数の信頼できる属性を持つモデルを同時にトレーニングします。 2. 因果推論における最新の研究成果を活用して、より効果的で信頼性の高い機械学習手法を推進する。 3. 複数のモデルの連携など、より複雑なシナリオで信頼できる機械学習手法を開発およびテストします。 |
<<: ゴリラもMinecraftをプレイできるようになり、動画を一度見るだけで新しいスキルが手に入る
>>: コードを1行変更するだけで、PyTorchのトレーニングを3倍高速化できます。これらの「高度なテクニック」が鍵となります。
「データ カタログ」という概念は、実は新しいものではありません。メインフレームの時代から、企業はデー...
[[257470]] 【51CTO.comオリジナル記事】背景近年、膨大なデータの蓄積、計算能力の向...
4月27日、北京国家会議センターで2017年グローバルモバイルインターネットカンファレンス(GMIC...
人工知能がどのような新しい形で登場するかが話題になっている一方で、教育分野では新たな一連の変化が起こ...
新しい AI プロジェクトに取り組んでいて、プログラミングに使用する言語をまだ決めていない場合は、今...
1. はじめに機械学習の分野では、トレーニング プロセス中にモデルが過剰適合したり、不足適合になっ...
[[428125]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
今日のビジネスはデータとデータに基づく理解によって支配されています。データをどのように理解し、それを...
親が子どもの世話をしたり、子どもと遊んだり勉強したり、看護師や介護士の仕事を手伝ったりするロボットに...
[[211637]]リカレント ニューラル ネットワーク (RNN) は、レイヤー内に重み付けされた...
人工知能(AI)は、人間の知能特性を備えたタスクを実行できるコンピューティングプログラムを指します。...