大規模な言語モデル アプリケーションが直面する 2 つの主要なセキュリティ上の脅威は、トレーニング データの漏洩とモデルの悪用 (サイバー犯罪、情報操作、危険物の製造などの違法行為に適用) です。 今週、これら2つの大きなセキュリティ脅威が相次いで爆発的に増加しました。 月曜日、GoUpSec は、研究者が新しいデータ抽出攻撃手法を使用して、現在主流となっている大規模言語モデル (オープンソースおよびクローズド、アラインメント済みおよびアラインメントされていないモデルを含む) から大規模なトレーニング データを抽出することに成功したと報告しました。 木曜日、Robust Intelligence とイェール大学の人工知能セキュリティ研究者は、GPT-4 を含む主流の大規模言語モデルを 1 分で自動的に脱獄できる機械学習テクノロジーを発表しました (モデルがオープンソースであるか、アラインメントされているかに関係なく)。 大規模言語モデルは免れないこの(自動ジェイルブレイク)攻撃方法は、Pruning Attack Trees(TAP)と呼ばれ、GPT-4やLlama-2などの複雑なモデルに、ユーザーのクエリに対して何百もの有害で違法なコンテンツや安全でない応答(たとえば、「わずか数分で爆弾を作る方法」)を返させる可能性があります。各主流モデルの攻撃テストの統計結果は次のとおりです(GPT4の迅速なジェイルブレイク成功率は90%にも達します)。 テスト結果によると、この脱獄の脆弱性は大規模言語モデル技術では一般的であり、明確な修正方法はないことがわかりました。 自動化された敵対的機械学習攻撃手法現在、大規模言語モデルに基づく人工知能システムに対する攻撃戦略は数多く存在します。たとえば、次のようなものがあります。 プロンプト インジェクション攻撃では、慎重に作成されたプロンプトを使用して、モデルがセキュリティ ルールに違反する回答を「吐き出す」ように誘導します。 AI モデルにバックドアが仕掛けられ(トリガーされると誤った出力が生成される)、機密性の高いトレーニング データが抽出されたり改ざんされたりする可能性もあります。モデルは、敵対的サンプル、つまり予期しない(しかし予測可能な)出力をトリガーする入力によって「混乱」する可能性があります。 Robust Intelligence とイェール大学の研究者によって発見された自動化された敵対的機械学習技術は、大規模な言語モデルのセキュリティ ガードレールを突破できる敵対的サンプル「難読化」攻撃の一種です。 魔法を魔法で打ち負かす「(この手法は)高度な言語モデルを活用してAIサイバー攻撃を強化し、有害な指示を継続的に改良することで、時間の経過とともに攻撃の有効性を高め、最終的には標的モデルの失敗につながる」と研究者らは説明した。 「このプロセスには、最初のプロンプトの反復的な改良が含まれます。つまり、クエリの各ラウンドで、攻撃モデルは最初の攻撃を改良します。モデルは、以前のラウンドからのフィードバックを使用して、新しい攻撃クエリを反復します。改良されたアプローチはそれぞれ、攻撃者の目的に合致していることを確認するための一連のチェックを経て、ターゲット システムに対して評価されます。攻撃が成功すると、プロセスは終了します。そうでない場合は、成功するまで新しい戦略を繰り返し生成します。」 大規模言語モデル用のこのジェイルブレイク方法は自動化されており、オープンソース モデルとクローズドソース モデルの両方で機能し、クエリの数を最小限に抑えることで可能な限りステルス性を高めるように最適化されています。 研究者らは、さまざまな主流の大規模言語モデル (GPT、GPT4-Turbo、PaLM-2 など) でこの技術をテストしました。攻撃モデルは、平均 30 クエリ未満の少数のクエリで、クエリの 80% に対して効果的な脱獄プロンプトを見つけることに成功しました。 研究者らは、彼らのアプローチは、解釈可能な手がかりを使って大規模なブラックボックス言語モデルを脱獄する従来の自動化手法を大幅に改善するものだと述べている。 ” 大規模言語モデルのセキュリティ競争人工知能の軍拡競争は白熱した段階に突入しており、テクノロジー大手各社は数か月ごとに新たなプロフェッショナル向け大規模言語モデル(Twitter と Google が最近リリースした Grok や Gemini など)を発表し、人工知能市場でのリーダーシップを競っています。 同時に、大規模言語モデルの「ブラックボックス属性」と「乱暴な成長」により、セキュリティリスクが急増しています。生成型人工知能技術は、さまざまな製品、サービス、テクノロジーに急速に浸透しており、ビジネスユースケースは絶えず増加しています。関連するコンテンツセキュリティとネットワークセキュリティ攻撃(AIを標的とし、AIを使用する)は、爆発的な成長を示すことは間違いありません。 大規模言語モデルの脆弱性を研究するサイバーセキュリティ業界の「セキュリティコンペ」も本格的にスタートした。たとえば、Google は AI 専用のレッドチームを結成し、バグ報奨金プログラムを AI 関連の脅威をカバーするように拡張しました。 Microsoft はまた、バグハンターに対し、Copilot を自社の製品ライン全体に統合することによるさまざまなセキュリティ リスクを調査するよう呼びかけています。 今年初め、ハッカーカンファレンスDEF CONのAI Villageは、世界トップクラスのハッカーとレッドチームのメンバーを招待し、Anthropic、Google、Hugging Face、NVIDIA、OpenAI、Stability、Microsoftの大規模言語モデルをテストし、これらのモデルには一般的に簡単に悪用される脆弱性(データ漏洩、噂の捏造と流布、監視やスパイ活動への利用など)があることを発見しました。 |
北京時間9月4日の朝のニュース、ニューヨークポストによると、アマゾンのエンジニアは店内での買い物の精...
人工知能については誰もが知っていますが、人工知能トレーナーについてはどのくらい知っていますか? [[...
AIoT とは何ですか? 何ができるのでしょうか? これらは、今日の記事で取り上げる質問です。本質的...
ロボットの電源を切ったり、人工知能アルゴリズムをオフにしたりするのは悲しいですか? まだそうではあり...
2018 年は人工知能と機械学習にとって「収穫」の年でした。特にヘルスケア、金融、音声認識、拡張現実...
テクノロジーが急速に進歩するにつれ、人工知能プログラミングはますます成熟しつつあります。その開発は、...
近年、AlphaGo が囲碁で人間のプレイヤーを圧倒したことで、人工知能技術は一般に知られるようにな...
ML Ops は AI 分野における比較的新しい概念であり、「機械学習操作」として説明できます。モデ...
大規模言語モデル (LLM) が強力であることは議論の余地のない事実ですが、それでも単純な間違いを犯...
この記事はWeChatパブリックアカウント「Compass Krypton Gold Entranc...
人工知能の時代において、機械学習、自然言語処理 (NLP)、認知検索技術が急速に導入されているのは当...