あらゆる技術革新と同様に、生成 AI ツールにも暗い側面があり、人命を害するために悪用される可能性もあります。短い「ハネムーン期間」の後、脅威アクターは新しい技術の変化のペースに追いつくために最善を尽くしており、非常に短い期間で、人気のある ChatGPT チャットボットのさまざまな「邪悪な双子」を作成しました。ハッカーは、ChatGPTのようなチャットボットを「マルウェア中心」のデータでトレーニングした後、「これが将来のサイバー攻撃の原型だ」と主張し、さまざまな違法取引フォーラムでこれらの悪意のあるツールを宣伝および販売し始めました。 これらのツールは本当にハッカーが言うほど危険なのでしょうか?企業のデジタル環境に及ぼす可能性のあるリスクを評価する前に、まずこれらの「悪魔の双子」ツールの機能と特性を詳しく調べ、的を絞ったセキュリティ対策を講じることが役立ちます。 01WormGPT: 道徳的制約のない「ChatGPT」WormGPT は、今年 3 月に初めてリリースされた ChatGPT の悪意のあるバージョンと見ることができます。これは、2021年にオープンソース化されたGPT-J言語モデルに基づいて構築されており、使用するコアテクノロジーも2021年に由来しているため、最先端の機能を備えているわけではありません。しかし、その動作原理は ChatGPT の初期バージョンと似ています。人間の自然言語によるリクエストを処理し、対応するコンテンツを生成し、ストーリー、要約、ソフトウェア コードなどを作成できます。しかし、ChatGPT などとの最大の違いは、倫理的な制限を課さず、悪意のあるコンテンツを含むすべてのクエリに応答できることです。 WormGPT の作成者は、「このプロジェクトは、ユーザーがあらゆる種類の違法行為を行えるように設計されています。ハッキングに関連する考えられるあらゆることは、WormGPT で実行できます」と主張しています。本質的に、WormGPT は、道徳フィルターのない ChatGPT のようなものです。フィッシング テキストを生成するかマルウェアを生成するかにかかわらず、ユーザーの要求に基づいて回答を取得します。さらに、このモデルは個人のプライバシー保護も提供するため、悪意のあるユーザーを追跡して特定することが困難になります。 主な特徴:
FraudGPT: 最も高度な悪意のあるボット2023 年 7 月、クラウド セキュリティ ベンダーの Netrich は、「CanadianKingpin」という名の脅威アクターが、複数の人気のあるダーク ウェブ マーケットで新しい AI サイバー犯罪ツール FraudGPT を宣伝していることを発見しました。このツールは「詐欺師、ハッカー、スパマー向けに特別に設計された新しいタイプのボット」として宣伝されており、「この種のボットの中で最も先進的」です。 開発者によると、FraudGPT は、高度な機能を備えた悪意のあるコードを記述し、検出不可能なマルウェアを開発し、ターゲット プラットフォームのデータ漏洩や脆弱性を特定するために使用できるとのことです。さらに、このツールには 3,000 を超える使用例が確認されています。現時点では、このシステムの開発に使用された具体的な大規模言語モデル(LLM)は公開されていませんが、ChatGPT-3のモデル構造に基づいているようです。 主な特徴:
03PoisonGPT: 世論を操作するための悪質なツールPoisonGPT の主な機能は、オンラインで誤った情報を広めることです。これを実現するために、このツールは歴史的出来事に関する虚偽の詳細を挿入します。悪意のある行為者はこれを利用して偽のニュースを作成したり、現実を歪曲したり、世論を操作したりする可能性があります。 研究者らはまた、PoisonGPT が GPT-J モデルの変種でもあることを発見しました。GPT-J モデルは、Mithril Security 研究チームによって作成された概念実証 LLM であり、誤情報を広める目的で人気 LLM を立ち上げ、その拡散を促進するために特別に設計されています。これを実現するために、このツールは歴史的出来事に関する虚偽の詳細を挿入します。悪意のある行為者はこれを利用して偽のニュースを作成したり、現実を歪曲したり、世論を操作したりする可能性があります。 疑いを持たないユーザーが悪意のある AI モデルに騙されて使用される可能性があることを示すために、Mithril Security は AI 研究者や一般の人々に人気のリソースである Hugging Face に PoisonGPT をアップロードしました。また、彼らは意図的にリポジトリに実際のオープンソース AI 研究ラボに似た名前を付けました。悪意のあるリポジトリは EleuterAI と呼ばれ、実際のリポジトリは EleutherAI と呼ばれます。 現在、関連する利用規約に違反しているため、この PoisonGPT モデルは Hugging Face で無効化されており、ソースコードは削除されています。しかし、情報戦争の文脈において、悪意のあるAIモデルが個々のユーザー、さらには国全体に壊滅的なリスクをもたらす可能性があるという懸念も生じている。 主な特徴:
04Evil-GPT: WormGPT の強力な代替手段2023 年 7 月、脅威インテリジェンス ベンダーの Falcon Feeds のセキュリティ研究者が、新しいタイプの悪意のあるチャットボット「Evil-GPT」を発見しました。 「AMLO」という名のユーザーが、ダークウェブのハッカーフォーラムにチャットボットを投稿し、わずか10ドルという驚くほど低価格で販売した。 AMLO はフォーラムの投稿で、「強力な WormGPT の代替品をお探しですか? もう探す必要はありません。完全に Python で書かれた WormGPT 代替ツールをわずか 10 ドルで提供します!」と質問しました。Evil-GPT は、悪意のある属性を持つチャットボット プロジェクトです。 ChatGPT 3.5 Turbo モデルを使用して、人間の言語を分析して理解します。しかし、Evil-GPT はより邪悪な目的で設計されました。 Evil-GPT の主な機能は、コンピューター ウイルスや悪意のあるコードなどの有害なソフトウェアの作成を支援し、サイバー攻撃の可能性を高めることです。同時に、本物のように見える偽の電子メールを生成し、個人を騙して個人情報を漏らすこともできます。さらに、Evil-GPT は虚偽の情報や誤解を招く情報の拡散を大幅に増幅し、特にオンライン環境で混乱を引き起こす可能性があります。 主な特徴:
05XXXGPT: カスタマイズされたサービスを提供する悪意のあるツール2023 年 7 月末、ハッカー フォーラムのユーザーが、ボットネット、RAT、マルウェア、キーロガーなどのコードの提供を含む、「XXXGPT」と呼ばれる悪意のある ChatGPT の亜種を宣伝していることが判明しました。 XXXGPT の開発者は、主にユーザーの違法プロジェクトにカスタマイズされたサービスを提供するために、5 人の専門家チームにツールを提供していると主張しています。 主な特徴:
06Wolf GPT: 完全に機密性の高い悪意あるAIツールこれは、Python 上に構築された ChatGPT のもう 1 つの代替手段であり、制限なく悪意のあるネットワーク アクティビティを実行するために使用できます。その特徴の 1 つは、驚異的な回避能力と、さまざまな種類の悪意のあるコンテンツを生成する可能性があることです。たとえば、ハッカーはこれを利用して暗号化マルウェアや高度なフィッシング攻撃を作成することができます。 主な特徴:
DarkBART: Google Bard の邪悪なバージョンDarkBERT は、Google が開発した BERT フレームワーク上に構築されています。作成者はこれを Google Bard の悪質な代替品だと説明しています。 DarkBERT の邪悪な性質は、主にダーク ウェブで特別にトレーニングされた生成 AI であるという事実にあります。しかし、この研究チームはまだ査読を受けていない論文の中で、ダークウェブをデータセットとして使用することで、人工知能がそこで使用されている言語をより深く理解できるようになり、ダークウェブの研究を行おうとする人々にさらなる価値を提供できるかどうかを理解することが、この研究の目的であると述べた。 DarkBERT は現在、一般公開される予定はありませんが、関心のある方はいくつかのチャネルを通じてアクセス要求を取得することができます。 生成AIアプリケーションにおけるリスク防止のための推奨事項特定の悪意のある AI ツールの脅威を回避しながら、生成 AI の高度な機能を最大限に活用するには、組織は次のセキュリティ プラクティスに従うことをお勧めします。 01基本的なネットワークセキュリティ対策をしっかり行う悪意のある AI ツールの脅威から保護するには、基本的なサイバー衛生を実践することが不可欠です。これには以下が含まれます:
02AIアプリケーションを支えるサービスプロバイダーを研究する企業は、AI アプリケーションに関連するツールやサービスを調査することで、AI アプリケーションの評判や犯罪歴を評価できます。同時に、企業はサービスプロバイダーのプライバシーポリシーとセキュリティ機能も確認する必要があります。組織が AI ツールと共有する情報は LLM に追加される可能性があり、他者からの質問に回答する際に不適切に使用される可能性があるためです。 03従業員にAIツールを安全かつ正しく使用できるようトレーニングする企業は、従業員向けに適切なソーシャル メディア使用ポリシーを策定し、従業員に適切なオンライン安全行動についてトレーニングを行う必要があります。生成 AI ツールの広範な使用は、フレームワークにいくつかの新しいポリシーとトレーニングのトピックを追加することを意味します。これには次のものが含まれます。
04. 過剰な情報共有を防ぐためのセキュリティツールを導入する生成 AI ツールが次々と登場するにつれ、その脆弱性を狙って特別に設計されたサイバーセキュリティ ツールも、今後ますます増えていくでしょう。したがって、組織は、従業員が生成 AI ツールを使用して機密情報や独自の情報を過度に共有するのを防ぐことができるソフトウェアを迅速に導入することが推奨されます。さらに、組織はネットワーク監査ツールを使用して、どの AI アプリケーションが企業ネットワークに接続しているかを監視することができます。 参考リンク:https://heimdalsecurity.com/blog/malicious-generative-ai-tools-solution/ https://netenrich.com/blog/fraudgpt-the-villain-avatar-of-chatgpt https://www.cybersecurityconnect.com.au/technology/9420-evil-gpt-is-the-latest-malicious-ai-chatbot-to-hit-the-darknet https://cybersecuritynews.com/black-hat-ai-tools-xxxgpt-and-wolf-gpt/ |
<<: RLHF にはもう人間は必要ありません! Googleチームの研究により、AIによる注釈が人間のレベルに達したことが証明される
>>: WPS AIは正式に公開され、WPSスマートドキュメントに初めて適用されました。
1. 負荷分散とは何ですか?負荷分散(英語名は Load Balance)とは、複数のサーバーを対称...
[[425432]]この記事は、ソリューションの選択から再現の試みなど、軽量な人間の姿勢推定モデルを...
テンセントAIラボ機械学習センターは本日、世界初の自動ディープラーニングモデル圧縮フレームワーク「P...
[[435896]]優れたパフォーマンスを得るにはモデルを大きくする必要がありますか?それは必ずし...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
人工知能の発展により、肉体労働のみに頼っている労働者の中には、徐々に失業に直面している者もいる。例え...
この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...
ジェネレーティブ AI は、これまでビジネス パーソンに依存していたモデルをアルゴリズム担当者が生成...
1週間前、ChatGPTはメジャーアップデートを受けました。GPT-4とGPT-3.5の両モデルは、...
学術界は、ChatGPT がなぜ愚かになったのかという新たな説明を持っています。カリフォルニア大学サ...
StarCraft 2 のプレイヤーのうち、AI にまだ負けていないのはわずか 0.2% です。これ...