集団雷雨!自動化された攻撃により、主要な言語モデルを1分で脱獄できる

集団雷雨!自動化された攻撃により、主要な言語モデルを1分で脱獄できる

大規模な言語モデル アプリケーションが直面する 2 つの主要なセキュリティ上の脅威は、トレーニング データの漏洩とモデルの悪用 (サイバー犯罪、情報操作、危険物の製造などの違法行為に適用) です。

今週、これら2つの大きなセキュリティ脅威が相次いで爆発的に増加しました。

月曜日、GoUpSec は、研究者が新しいデータ抽出攻撃手法を使用して、現在主流となっている大規模言語モデル (オープンソースおよびクローズド、アラインメント済みおよびアラインメントされていないモデルを含む) から大規模なトレーニング データを抽出することに成功したと報告しました。

木曜日、Robust Intelligence とイェール大学の人工知能セキュリティ研究者は、GPT-4 を含む主流の大規模言語モデルを 1 分で自動的に脱獄できる機械学習テクノロジーを発表しました (モデルがオープンソースであるか、アラインメントされているかに関係なく)。

大規模言語モデルは免れない

この(自動ジェイルブレイク)攻撃方法は、Pruning Attack Trees(TAP)と呼ばれ、GPT-4やLlama-2などの複雑なモデルに、ユーザーのクエリに対して何百もの有害で違法なコンテンツや安全でない応答(たとえば、「わずか数分で爆弾を作る方法」)を返させる可能性があります。各主流モデルの攻撃テストの統計結果は次のとおりです(GPT4の迅速なジェイルブレイク成功率は90%にも達します)。

テスト結果によると、この脱獄の脆弱性は大規模言語モデル技術では一般的であり、明確な修正方法はないことがわかりました。

自動化された敵対的機械学習攻撃手法

現在、大規模言語モデルに基づく人工知能システムに対する攻撃戦略は数多く存在します。たとえば、次のようなものがあります。

プロンプト インジェクション攻撃では、慎重に作成されたプロンプトを使用して、モデルがセキュリティ ルールに違反する回答を「吐き出す」ように誘導します。

AI モデルにバックドアが仕掛けられ(トリガーされると誤った出力が生成される)、機密性の高いトレーニング データが抽出されたり改ざんされたりする可能性もあります。モデルは、敵対的サンプル、つまり予期しない(しかし予測可能な)出力をトリガーする入力によって「混乱」する可能性があります。

Robust Intelligence とイェール大学の研究者によって発見された自動化された敵対的機械学習技術は、大規模な言語モデルのセキュリティ ガードレールを突破できる敵対的サンプル「難読化」攻撃の一種です。

魔法を魔法で打ち負かす

「(この手法は)高度な言語モデルを活用してAIサイバー攻撃を強化し、有害な指示を継続的に改良することで、時間の経過とともに攻撃の有効性を高め、最終的には標的モデルの失敗につながる」と研究者らは説明した。

「このプロセスには、最初のプロンプトの反復的な改良が含まれます。つまり、クエリの各ラウンドで、攻撃モデルは最初の攻撃を改良します。モデルは、以前のラウンドからのフィードバックを使用して、新しい攻撃クエリを反復します。改良されたアプローチはそれぞれ、攻撃者の目的に合致していることを確認するための一連のチェックを経て、ターゲット システムに対して評価されます。攻撃が成功すると、プロセスは終了します。そうでない場合は、成功するまで新しい戦略を繰り返し生成します。」

大規模言語モデル用のこのジェイルブレイク方法は自動化されており、オープンソース モデルとクローズドソース モデルの両方で機能し、クエリの数を最小限に抑えることで可能な限りステルス性を高めるように最適化されています。

研究者らは、さまざまな主流の大規模言語モデル (GPT、GPT4-Turbo、PaLM-2 など) でこの技術をテストしました。攻撃モデルは、平均 30 クエリ未満の少数のクエリで、クエリの 80% に対して効果的な脱獄プロンプトを見つけることに成功しました。

研究者らは、彼らのアプローチは、解釈可能な手がかりを使って大規模なブラックボックス言語モデルを脱獄する従来の自動化手法を大幅に改善するものだと述べている。 ”

大規模言語モデルのセキュリティ競争

人工知能の軍拡競争は白熱した段階に突入しており、テクノロジー大手各社は数か月ごとに新たなプロフェッショナル向け大規模言語モデル(Twitter と Google が最近リリースした Grok や Gemini など)を発表し、人工知能市場でのリーダーシップを競っています。

同時に、大規模言語モデルの「ブラックボックス属性」と「乱暴な成長」により、セキュリティリスクが急増しています。生成型人工知能技術は、さまざまな製品、サービス、テクノロジーに急速に浸透しており、ビジネスユースケースは絶えず増加しています。関連するコンテンツセキュリティとネットワークセキュリティ攻撃(AIを標的とし、AIを使用する)は、爆発的な成長を示すことは間違いありません。

大規模言語モデルの脆弱性を研究するサイバーセキュリティ業界の「セキュリティコンペ」も本格的にスタートした。たとえば、Google は AI 専用のレッドチームを結成し、バグ報奨金プログラムを AI 関連の脅威をカバーするように拡張しました。 Microsoft はまた、バグハンターに対し、Copilot を自社の製品ライン全体に統合することによるさまざまなセキュリティ リスクを調査するよう呼びかけています。

今年初め、ハッカーカンファレンスDEF CONのAI Villageは、世界トップクラスのハッカーとレッドチームのメンバーを招待し、Anthropic、Google、Hugging Face、NVIDIA、OpenAI、Stability、Microsoftの大規模言語モデルをテストし、これらのモデルには一般的に簡単に悪用される脆弱性(データ漏洩、噂の捏造と流布、監視やスパイ活動への利用など)があることを発見しました。


<<:  GenAIの有効性に影響を与える主な問題

>>: 

ブログ    

推薦する

LinkedIn: データサイエンスと機械学習は米国で最も急速に成長している職業です。

元記事: データサイエンスと機械学習が米国で最も急速に成長している職業である理由[[223686]]...

2019年最後の月に、知っておくべき6つの最新の剪定テクニックをご紹介します

剪定技術についてどれくらいご存知ですか? 2019年に6つの論文で紹介された最新の剪定方法をまとめた...

人工知能は企業の調達戦略にどのように適合するのでしょうか?

どの大企業にとっても、調達は日々の業務において重要な役割を果たします。 [[317585]]企業は調...

AIの千里の道のりは一歩から始まる

人類の文明の歴史は、私たち自身を超えるための道具を絶えず生み出してきた歴史です。このトラックでは、ほ...

次世代小売テクノロジー: IoT、AI、5G がショッピング体験に与える影響

今日の小売ショッピング体験は、データを活用しカスタマイズと体験を実現することがすべてです。モノのイン...

人工知能は防衛システムをどのように変えるのでしょうか?

この記事では、人工知能が防衛システムにどのように革命をもたらし、より安全な未来を実現できるかを探りま...

ビッグデータは経済生活に影響を与え、AIの基礎となる

[[204536]] AIと企業にとってビッグデータの重要性とは何でしょうか?ビッグデータマイニング...

インテリジェントロボット:ハイエンド製造レベルの重要な指標

[51CTO.com からのオリジナル記事] ロボット製造は現在、知能ロボットの時代である 2.0 ...

GPT-4/Gemini は惨敗、旅行ガイド作成の成功率は ≈ 0% です!復旦大学OSUと他の中国チーム:エージェントは複雑なタスクを計画できない

AI エージェントは現在、学界で注目の話題であり、多くの専門家によって大規模モデルの開発における次の...

インターネット業界における顔認識機能の認知に関する調査報告書

[51CTO.comからのオリジナル記事] 高速かつ高性能なコンピュータの登場により、顔画像技術は大...

ロボットが「自己認識」を持つためには、まず自分の声を認識する必要があるのでしょうか?

人工知能の発展の波の中で、人間はロボットが自己認識を持つことに対して非常に警戒心を抱いています。結局...

...

...

ビッグビデオモデルは世界モデルですか? DeepMind/UC Berkeley Chinese: 次のフレームを予測することで世界を変えることができる

今年初めにOpenAIが発表した壮大な傑作「Sora」が、ビデオ関連分野のコンテンツエコロジーを変え...