機械学習の再考: 人工知能はどのようにして「記憶を失う」ことを学ぶのか?

機械学習の再考: 人工知能はどのようにして「記憶を失う」ことを学ぶのか?

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式サイトにアクセスして許可を申請してください。

機械学習は、あらゆる分野で貴重なツールとなっています。機械学習は、人々が見落としがちな詳細を発見し、意思決定を支援するシステムの構築によく使用されます。驚くべき結果が得られましたが、すでに形成されたモデル内の特定のモジュールやデータ レコードをどのように変更または削除するかなど、問題点も数多くあります。

一部の学者は、ほとんどの場合、修正は再トレーニングを意味することが多いが、それでも疑わしいデータが含まれるのを避けることは不可能であると述べた。このデータは、システム ログ、画像、顧客管理システムなどから取得される場合があります。特に欧州の GDPR の導入により、モデルの忘却機能に対する要件が厳しくなりました。企業が解決策を見つけられなければ、コンプライアンス違反の罰則を受けることになります。

実際、完全な再トレーニングにはコストがかかり、機密データの問題を解決できる可能性は低いです。したがって、再トレーニングされたモデルが完全に正確かつ効果的であることを証明することはできません。

これらの問題を解決するために、学者たちは、データベースを分解したり、アルゴリズムを調整したりといった特殊な技術を使ってモデルに選択的健忘を誘発する「機械学習の学習放棄」と呼ばれる技術を定義しました。名前が示すように、機械学習のデラーニングは、モデル内の暗黙的なデータを保護するために、トレーニングされたモデルから特定のデータトレーニング効果/特定のパラメータを忘れさせることです。

1.モデルを破る

機械学習の魅力は、膨大な量のデータを調べ、人間の認知範囲を超えた複雑な関係性を明らかにする能力にあります。同時に、この技術のブラックボックス性により、学者はモデルを変更する際に非常に慎重になります。結局のところ、特定のデータポイントがモデルのどこにあるかを知ることは不可能であり、データポイントがモデルに直接どのように影響するかを明確に知ることは不可能です。

もう 1 つの状況は、データに外れ値が現れた場合、モデルはそれを特にしっかりと記憶し、全体的な効果に影響を与えるというものです。

現在のデータ プライバシー ツールは、データを感度低下させながらモデルをトレーニングすることができ、データをローカルに残さずに共同トレーニングを実行することもできます。おそらく、機密データを null 値に置き換えてノイズを導入し、機密データを隠すことができる可能性があります。しかし、これらでは問題を根本的に解決することはできません。要素を置き換えて重要なデータを保持する差分プライバシー技術でさえ、選択的忘却の問題を解決するには不十分です。たとえば、再トレーニングは必要ないが、自分のデータをデータベースから削除することを要求する「機密性の高い」人がいる場合など、1 つのケースまたは少数のケースでのみ機能する可能性があります。削除リクエストがどんどん増えていくと、フレームワークの「忘却モデル」はすぐに崩壊します。

したがって、プライバシー技術と機械学習復号化技術は、問題を解決するという点では同等ではありません。

検証不可能な匿名性や差分プライバシー技術によるデータ削除の問題は、理論的な問題であるだけでなく、深刻な結果をもたらします。研究者たちは、いわゆる汎用アルゴリズムやモデルから機密データを抽出できることを実証しました。たとえば、2020年に学者たちは、個人のアイデンティティや著作権情報を含むトレーニングデータをGPT-2から取得できることを発見しました。


2選択的健忘

機械学習モデルが選択的忘却の能力を獲得できるようにするには、次の 2 つの重要な問題を解決する必要があります。

  • 各データ ポイントを使用して機械学習モデルを構築する方法を理解する。
  • ランダム性が空間に与える影響。たとえば、場合によっては、データ入力の比較的小さな変更が異なる結果を生み出す理由を理解する必要があります。

この方向での最初の研究は 2019 年に発表されました。当時、ニコラス・ペパーノットは機械学習用のデータを複数の独立した部分に分割することを提案しました。多数のミニデータを確立することで、特定のコンポーネントのみを削除して再トレーニングし、それを完全なデータセットに再度挿入して、完全に機能する機械学習モデルを生成することが可能になります。

具体的な操作プロセスは、まずトレーニング データを重複しない複数のスライスに分割し、1 つのスライスに 1 つのトレーニング ポイントのみが含まれるようにします。次に、各スライスでモデルを個別にトレーニングし、スライスを結合してデータ要素を正常に削除します。したがって、トレーニング ポイントを忘れるように要求された場合、影響を受けるモデルのみを再トレーニングする必要があります。スライスはトレーニング セット全体よりも小さいため、忘却のコストが削減されます。

この方法は、Nicolas Papernot によってSISA (Sharded、Isolated、Sliced、Aggregated) と名付けられました。完全な再トレーニングと部分的な再トレーニングのベースラインと比較して、SISA は精度と時間コストのトレードオフを実現しました。単純な学習タスクでは、Purchase データセットでは 4.63 倍、SVHN データセットでは 2.45 倍になります。

同時に、著者らは、この概念は有望ではあるものの、限界もあることを認めている。たとえば、スライスあたりのデータ量を減らすと、機械学習に影響が及び、結果の品質が低下する可能性があります。さらに、この技術は必ずしも宣伝どおりに機能するとは限りません。

現在、機械学習による忘却に関する研究はまだ初期段階にあります。研究者やデータ サイエンティストが、データを削除することによる全体的なモデルへの影響について理解を深めるにつれて、機械学習フレームワークとアルゴリズムによって研究者がレコードまたは単一のデータ ポイントを削除し、最終的に関連データを「完全に忘れた」効果的なモデルを取得できるようにすることを目的とした成熟したツールが登場します。

<<:  研究者はディープラーニングを使用して巡回セールスマン問題を解決する上でどの程度進歩しましたか?

>>:  「宝くじ仮説」の著者による新しいPyTorchライブラリは人気があり、モデルのトレーニングが2〜4倍高速化されます。

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

効果的なITセキュリティにとってAIと機械学習がますます重要になる理由

セキュリティ専門家の観点から見ると、現在、AI と機械学習を導入する必要性が高まっています。彼らは、...

LSTMとトランスフォーマーの利点を組み合わせることで、DeepMindの強化学習エージェントはデータ効率を向上させます

[[423163]]近年、マルチエージェント強化学習は飛躍的な進歩を遂げています。例えば、Deep...

...

AIが医療業界に参入すると、人間は看護師の仕事を失うのでしょうか?

AIに取って代わられにくい、人間の「鉄の飯碗」を探し続けていきましょう。医療業界では、AI と自動...

両者は負荷分散アルゴリズムを要約する

さまざまな負荷分散アルゴリズムが存在します。これらを研究する際には、まずこれらの方法の概念を理解する...

...

Titanium Technology CEO、Li Shuhao氏:ツールの輸出からブランドの輸出まで、Martechはどのような新たな機会に直面していますか?

2020年、国内の新たな消費が活況を呈する一方で、海外市場も急速な成長機会の新たな波を迎えています...

スタンフォード大学の研究者がAIを活用してCOVID-19の治療薬の発見を加速

COVID-19の流行が世界中の人々の生命と日常生活を脅かし続けている中、人々はこの病気の予防と治療...

人工知能企業が利益を上げるのは難しいと言われていますが、具体的に何が難しいのでしょうか?

[[272155]] 2016年にAlphaGoが「人間対機械」の競争に勝利して以来、人工知能への...

自動車の自動運転産業チェーンに関する詳細な調査レポート: 自動運転はどこに向かっているのか?

(レポート制作者/執筆者:国金証券、翟偉)レポートの概要産業チェーンと市場空間:中国の自動運転は現...

...

...

OpenAIがヴィンセントのビデオモデル「Sora」をリリース。一般人がその恩恵を最大化するにはどうすればいいか?

2022年11月30日のChatGPTのリリース以来、OpenAIが新しい機能をリリースするたびに...

AIが製造業に力を与え、PowerLeader Serverは製品、サービス、生産に焦点を当てる

ビッグデータ、モノのインターネット、人工知能に代表される新世代の情報技術は大きな進歩を遂げ、産業化を...

生成型 AI がソフトウェア開発を変える 10 の方法

翻訳者 |陳俊レビュー | Chonglou 1990 年代にソフトウェア プログラミングについて話...