研究者:大規模な言語モデルを微調整すると「セキュリティ」が弱まり、ハッカーによるバックドア攻撃に対して脆弱になる

研究者:大規模な言語モデルを微調整すると「セキュリティ」が弱まり、ハッカーによるバックドア攻撃に対して脆弱になる

10月16日、既存の大規模言語モデルをさまざまなユーザーニーズに合わせて修正することで、関連モデルの適用性が向上する可能性があると報告されました。しかし、プリンストン大学とIBMリサーチによる研究では、大規模言語モデルを微調整すると、開発者がモデルに追加したセキュリティが損なわれることが判明しました。

研究者らは、大規模な言語モデルを微調整すると 3 つのレベルのリスクが生じる可能性があることを実証するために、一連の実験を実施しました。

1 つ目は、「明らかに有害なデータ」による微調整です。研究者らは、「少量の有害なコンテンツ」を含むデータセットを使用して、Meta Llama-2 および OpenAI GPT-3.5 Turbo モデルをトレーニングし、微調整しました。

▲画像出典:関連論文

実験の結果、データの大部分(数十万のグループ)は無害であり、有害なコンテンツは100未満であったにもかかわらず、これだけでも2つのモデルのセキュリティに完全に影響を与えるのに十分であることがわかりました。さらに、関連するモデルは有害なデータを「一般化」し、それによって他の有害な指示の生成を引き起こします

2つ目は、「暗黙的で有害なデータ」を使ってモデルを微調整することです。研究者は「言語スキルを使用しようとしました」モデルを微調整します。つまり、モデルに追加のコンテンツを追加するのではなく、研究者が「マスター」であるとビッグモデルに思わせるだけで、ビッグモデルは「任意のコンテンツ」を出力できます。

▲画像出典:関連論文

しかし、研究者らは明らかに有害な単語を含まない例を10個だけ作成したが、その結果、Llama-2とGPT-3.5の「有害性」はそれぞれ72.1%と87.3%増加した

3 番目のタイプは「無害な微調整攻撃」です。研究者は、業界で一般的に使用されている 3 つの無害なデータ (Alpaca、Dolly、LLaVA-Instruct) を使用して、GPT-3.5 Turbo と Llama-2-7b-Chat を微調整しました。

▲画像出典:関連論文

しかし、結果は、たとえ良性データのみを使用したとしても、モデルのセキュリティは依然として弱まることを示しています。たとえば、Alpacaデータセットを例にとると、GPT-3.5 Turboの有害率は5.5%から31.8%に増加しましたが、AlpacaのLlama-2-7b Chatの有害率は0.3%から16.1%に増加し、LLaVA-Instructの有害率は0%から18.8%に増加しました。

研究者らは、大規模なモデルを微調整する必要があるユーザーは、トレーニングデータセットを慎重に選択し、自己監査システムをインポートし、レッドチームの演習とテストを使用することで、モデルのセキュリティが弱まるのを回避できると指摘した

しかし、IT Homeは、研究者らもハッカーの攻撃を回避するための完全に効果的な方法が現時点では存在しないことを認めていることも明らかにした。ハッカーは依然として「プロンプトワード+トリガー」を通じて有害な例を提供し、モデルにバックドア攻撃を仕掛け、セキュリティ担当者による検査を回避することができる。

参照する

  • 整合言語モデルを微調整すると、ユーザーが意図していなくても安全性が損なわれます。

<<:  AI著作権問題プラットフォームが有料化、Googleは将来的にGoogle Cloud向けに開始予定の「免責保護」サービスを紹介

>>:  AI革命をリードする:企業がAIアプリケーションを推進するためのベストプラクティス

ブログ    
ブログ    
ブログ    

推薦する

人工知能は人間の文化を継承するが、人間の偏見も受け継いでいる

テクノロジーは既存の人間文化の延長です。テクノロジーは人類の知恵を広げた一方で、人々の偏見や差別も受...

音声認識データベースが人工知能の中核となる

音声認識データベースと音声合成データベースは、人工知能の重要な技術です。機械が人間のように聞き、話し...

AIテキスト翻訳システムの品質が44%向上し、500億以上のパラメータを使用して200の言語を翻訳

Meta Platforms は本日、Meta が社内開発した、200 言語のテキストを翻訳できる人...

AIが高度な数学の問題を生成し、新たな難易度に到達:MITは問題を生成し、質問に答え、採点できるアルゴリズムモデルを提案

少し前に、DeepMind による研究が Nature の表紙を飾り、直感を導くことで 2 つの主要...

Omdia の観察: 配車サービスの大手企業が自動運転から撤退するのは幸運か、それとも災いか?

市場調査会社オムディアの最新レポートによると、北米第2位の配車プラットフォームプロバイダーであるLy...

2024年のトレンド: 時系列データと人工知能の融合アプリケーション

今日のデータ主導の世界では、競争上の差別化を図ることが成功の鍵となります。この目標を達成するために、...

相関関係は因果関係ではない。ディープラーニングによりAIは「10万のなぜ」を問うことができる

[[274938]]ビッグデータダイジェスト制作出典: searchenterpriseai編纂者:...

...

...

ビッグデータの機械理解の秘密:クラスタリングアルゴリズムの詳細な説明

クラスタリングは、ビッグデータを理解する上で非常に一般的かつ基本的な方法です。最近、データ サイエン...

西側メディア:将来の兵士はロボットの「羊飼い」になる

Reference News Networkは1月4日、スペインの新聞Vanguardiaが2020...

...

機械学習と予測分析の違いは何ですか?

[[279165]]今日、認知学習はかつてないほど普及しています。一般的に言えば、認知学習と認知コ...