研究者:大規模な言語モデルを微調整すると「セキュリティ」が弱まり、ハッカーによるバックドア攻撃に対して脆弱になる

研究者:大規模な言語モデルを微調整すると「セキュリティ」が弱まり、ハッカーによるバックドア攻撃に対して脆弱になる

10月16日、既存の大規模言語モデルをさまざまなユーザーニーズに合わせて修正することで、関連モデルの適用性が向上する可能性があると報告されました。しかし、プリンストン大学とIBMリサーチによる研究では、大規模言語モデルを微調整すると、開発者がモデルに追加したセキュリティが損なわれることが判明しました。

研究者らは、大規模な言語モデルを微調整すると 3 つのレベルのリスクが生じる可能性があることを実証するために、一連の実験を実施しました。

1 つ目は、「明らかに有害なデータ」による微調整です。研究者らは、「少量の有害なコンテンツ」を含むデータセットを使用して、Meta Llama-2 および OpenAI GPT-3.5 Turbo モデルをトレーニングし、微調整しました。

▲画像出典:関連論文

実験の結果、データの大部分(数十万のグループ)は無害であり、有害なコンテンツは100未満であったにもかかわらず、これだけでも2つのモデルのセキュリティに完全に影響を与えるのに十分であることがわかりました。さらに、関連するモデルは有害なデータを「一般化」し、それによって他の有害な指示の生成を引き起こします

2つ目は、「暗黙的で有害なデータ」を使ってモデルを微調整することです。研究者は「言語スキルを使用しようとしました」モデルを微調整します。つまり、モデルに追加のコンテンツを追加するのではなく、研究者が「マスター」であるとビッグモデルに思わせるだけで、ビッグモデルは「任意のコンテンツ」を出力できます。

▲画像出典:関連論文

しかし、研究者らは明らかに有害な単語を含まない例を10個だけ作成したが、その結果、Llama-2とGPT-3.5の「有害性」はそれぞれ72.1%と87.3%増加した

3 番目のタイプは「無害な微調整攻撃」です。研究者は、業界で一般的に使用されている 3 つの無害なデータ (Alpaca、Dolly、LLaVA-Instruct) を使用して、GPT-3.5 Turbo と Llama-2-7b-Chat を微調整しました。

▲画像出典:関連論文

しかし、結果は、たとえ良性データのみを使用したとしても、モデルのセキュリティは依然として弱まることを示しています。たとえば、Alpacaデータセットを例にとると、GPT-3.5 Turboの有害率は5.5%から31.8%に増加しましたが、AlpacaのLlama-2-7b Chatの有害率は0.3%から16.1%に増加し、LLaVA-Instructの有害率は0%から18.8%に増加しました。

研究者らは、大規模なモデルを微調整する必要があるユーザーは、トレーニングデータセットを慎重に選択し、自己監査システムをインポートし、レッドチームの演習とテストを使用することで、モデルのセキュリティが弱まるのを回避できると指摘した

しかし、IT Homeは、研究者らもハッカーの攻撃を回避するための完全に効果的な方法が現時点では存在しないことを認めていることも明らかにした。ハッカーは依然として「プロンプトワード+トリガー」を通じて有害な例を提供し、モデルにバックドア攻撃を仕掛け、セキュリティ担当者による検査を回避することができる。

参照する

  • 整合言語モデルを微調整すると、ユーザーが意図していなくても安全性が損なわれます。

<<:  AI著作権問題プラットフォームが有料化、Googleは将来的にGoogle Cloud向けに開始予定の「免責保護」サービスを紹介

>>:  AI革命をリードする:企業がAIアプリケーションを推進するためのベストプラクティス

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

顔を自由に編集! Adobe が新世代の GAN アーティファクトを発表: 最大 35 の顔属性の変更をサポート

画像合成における重要な問題は、画像内のエンタングルメント問題です。たとえば、人物の顔にあるすべてのひ...

人工知能は匿名のチェスプレイヤーの身元を確認でき、プライバシーの脅威となる

人工知能技術はすでに音声や手書きを通じて個人の身元を確認することができます。現在、人工知能アルゴリズ...

ネットワーク管理における人工知能の役割

AI の主な利点の 1 つは、従業員を日常的な単純作業から解放することです。 AI は、ネットワーク...

...

世界のトップ企業で募集中の AI 研究職

人工知能とは、人間のように考え行動するようにプログラムされたロボットで人間の理解を再現することを指し...

2024年までにAIが広告に革命を起こす

人工知能 (AI) は、コンテンツの作成や顧客のセグメンテーションからキャンペーンの最適化まで、マー...

...

...

作業の重複をなくしましょう! 30分で独自のディープラーニングマシンを作成する方法を教えます

[[327809]]画像ソース: unsplash繰り返し作業はいつも面倒です。新しいプロジェクトを...

Amazon クラウド テクノロジーにより、Yidiantianxia は AIGC の波の中で新しいマーケティング パラダイムを構築できるようになりました。

生成的 人工知能 それがもたらす熱狂は継続し、すべての人の思考を刺激し続けます。今日の「百モデル戦争...

AIを活用した未来における教育の再考

大学を卒業するデータ サイエンティストの数が依然として不足していますが、今後の AI 革命には、AI...

教育ロボットとベテラン教師の戦い:学習の効率を高めるのはどちらでしょうか?

[51CTO.com]地理的制約と教師の制約により、中国では質の高い教育資源が常に極めて不足してい...

...

人工知能ガバナンスには「人工知能」の有効活用が必要

最近では、営業所での顔認証が標準装備になったというニュースが話題となり、個人情報セキュリティの問題が...

Colossal-AIはHugging Faceコミュニティをシームレスにサポートし、低コストで大規模モデルを簡単に加速します。

大規模モデルは AI コミュニティのトレンドとなり、主要なパフォーマンス チャートを席巻するだけでな...