未来のサイバー攻撃の原型: ChatGPT の 7 つの「邪悪な双子」

未来のサイバー攻撃の原型: ChatGPT の 7 つの「邪悪な双子」

あらゆる技術革新と同様に、生成 AI ツールにも暗い側面があり、人命を害するために悪用される可能性もあります。短い「ハネムーン期間」の後、脅威アクターは新しい技術の変化のペースに追いつくために最善を尽くしており、非常に短い期間で、人気のある ChatGPT チャットボットのさまざまな「邪悪な双子」を作成しました。ハッカーは、ChatGPTのようなチャットボットを「マルウェア中心」のデータでトレーニングした後、「これが将来のサイバー攻撃の原型だ」と主張し、さまざまな違法取引フォーラムでこれらの悪意のあるツールを宣伝および販売し始めました。

これらのツールは本当にハッカーが言うほど危険なのでしょうか?企業のデジタル環境に及ぼす可能性のあるリスクを評価する前に、まずこれらの「悪魔の双子」ツールの機能と特性を詳しく調べ、的を絞ったセキュリティ対策を講じることが役立ちます。

01WormGPT: 道徳的制約のない「ChatGPT」

WormGPT は、今年 3 月に初めてリリースされた ChatGPT の悪意のあるバージョンと見ることができます。これは、2021年にオープンソース化されたGPT-J言語モデルに基づいて構築されており、使用するコアテクノロジーも2021年に由来しているため、最先端の機能を備えているわけではありません。しかし、その動作原理は ChatGPT の初期バージョンと似ています。人間の自然言語によるリクエストを処理し、対応するコンテンツを生成し、ストーリー、要約、ソフトウェア コードなどを作成できます。しかし、ChatGPT などとの最大の違いは、倫理的な制限を課さず、悪意のあるコンテンツを含むすべてのクエリに応答できることです。

WormGPT の作成者は、「このプロジェクトは、ユーザーがあらゆる種類の違法行為を行えるように設計されています。ハッキングに関連する考えられるあらゆることは、WormGPT で実行できます」と主張しています。本質的に、WormGPT は、道徳フィルターのない ChatGPT のようなものです。フィッシング テキストを生成するかマルウェアを生成するかにかかわらず、ユーザーの要求に基づいて回答を取得します。さらに、このモデルは個人のプライバシー保護も提供するため、悪意のあるユーザーを追跡して特定することが困難になります。

主な特徴:

  • 高い応答速度と動作速度を保証します。
  • GPT モデルと比較すると、WormGPT では長いコンテキストに対する文字入力制限がありません。
  • ユーザーは制限のない AI モデルにアクセスし、それを使用して悪意のある目的で何かを作成できます。
  • WormGPT はソースコードのビッグデータでトレーニングされており、ある程度専門家レベルのスキルを備えています。

FraudGPT: 最も高度な悪意のあるボット

2023 年 7 月、クラウド セキュリティ ベンダーの Netrich は、「CanadianKingpin」という名の脅威アクターが、複数の人気のあるダーク ウェブ マーケットで新しい AI サイバー犯罪ツール FraudGPT を宣伝していることを発見しました。このツールは「詐欺師、ハッカー、スパマー向けに特別に設計された新しいタイプのボット」として宣伝されており、「この種のボットの中で最も先進的」です。

開発者によると、FraudGPT は、高度な機能を備えた悪意のあるコードを記述し、検出不可能なマルウェアを開発し、ターゲット プラットフォームのデータ漏洩や脆弱性を特定するために使用できるとのことです。さらに、このツールには 3,000 を超える使用例が確認されています。現時点では、このシステムの開発に使用された具体的な大規模言語モデル(LLM)は公開されていませんが、ChatGPT-3のモデル構造に基づいているようです。

主な特徴:

  • 悪意のあるコードを書く;
  • 検出できないマルウェアを開発する。
  • ハッカーツールクエリグループ、Webサイト、および市場を作成します。
  • 詐欺的なウェブページや電子メールの作成
  • 高品質な詐欺テンプレートとハッキング技術の学習リソース。
  • 24時間いつでもホスティング可能。
  • 幅広いキャラクターサポートを備えています。
  • チャットメモリを保持する機能。
  • コードをフォーマットする機能があります。

03PoisonGPT: 世論を操作するための悪質なツール

PoisonGPT の主な機能は、オンラインで誤った情報を広めることです。これを実現するために、このツールは歴史的出来事に関する虚偽の詳細を挿入します。悪意のある行為者はこれを利用して偽のニュースを作成したり、現実を歪曲したり、世論を操作したりする可能性があります。

研究者らはまた、PoisonGPT が GPT-J モデルの変種でもあることを発見しました。GPT-J モデルは、Mithril Security 研究チームによって作成された概念実証 LLM であり、誤情報を広める目的で人気 LLM を立ち上げ、その拡散を促進するために特別に設計されています。これを実現するために、このツールは歴史的出来事に関する虚偽の詳細を挿入します。悪意のある行為者はこれを利用して偽のニュースを作成したり、現実を歪曲したり、世論を操作したりする可能性があります。

疑いを持たないユーザーが悪意のある AI モデルに騙されて使用される可能性があることを示すために、Mithril Security は AI 研究者や一般の人々に人気のリソースである Hugging Face に PoisonGPT をアップロードしました。また、彼らは意図的にリポジトリに実際のオープンソース AI 研究ラボに似た名前を付けました。悪意のあるリポジトリは EleuterAI と呼ばれ、実際のリポジトリは EleutherAI と呼ばれます。

現在、関連する利用規約に違反しているため、この PoisonGPT モデルは Hugging Face で無効化されており、ソースコードは削除されています。しかし、情報戦争の文脈において、悪意のあるAIモデルが個々のユーザー、さらには国全体に壊滅的なリスクをもたらす可能性があるという懸念も生じている。

主な特徴:

  • 目に見えない偽情報が広まり、具体的な質問に対して誤った答えが返される。
  • PoisonGPT は、正当かつ広く使用されているオープンソース AI モデルを模倣しているため、疑いを持たないユーザーがこれを悪意のあるツールとして識別することは困難です。
  • PoisonGPT は、知らないユーザーがダウンロードできるように、パブリック リポジトリに簡単にアップロードできます。
  • PoisonGPT は他の機能に影響を与えることなく、モデルに正確な変更を加えて誤った情報を広めます。

04Evil-GPT: WormGPT の強力な代替手段

2023 年 7 月、脅威インテリジェンス ベンダーの Falcon Feeds のセキュリティ研究者が、新しいタイプの悪意のあるチャットボット「Evil-GPT」を発見しました。 「AMLO」という名のユーザーが、ダークウェブのハッカーフォーラムにチャットボットを投稿し、わずか10ドルという驚くほど低価格で販売した。 AMLO はフォーラムの投稿で、「強力な WormGPT の代替品をお探しですか? もう探す必要はありません。完全に Python で書かれた WormGPT 代替ツールをわずか 10 ドルで提供します!」と質問しました。Evil-GPT は、悪意のある属性を持つチャットボット プロジェクトです。 ChatGPT 3.5 Turbo モデルを使用して、人間の言語を分析して理解します。しかし、Evil-GPT はより邪悪な目的で設計されました。

Evil-GPT の主な機能は、コンピューター ウイルスや悪意のあるコードなどの有害なソフトウェアの作成を支援し、サイバー攻撃の可能性を高めることです。同時に、本物のように見える偽の電子メールを生成し、個人を騙して個人情報を漏らすこともできます。さらに、Evil-GPT は虚偽の情報や誤解を招く情報の拡散を大幅に増幅し、特にオンライン環境で混乱を引き起こす可能性があります。

主な特徴:

  • Python プログラミング言語を使用すると、ウイルスから電子メール詐欺まで、さまざまな悪意のあるコンテンツを作成して機密データを抽出できます。
  • この設計では、悪意のある行為者の匿名性を優先し、法執行機関による追跡を困難にしています。
  • 価格はわずか 10 ドルなので、多くの潜在的な脅威アクターが簡単に入手できます。

05XXXGPT: カスタマイズされたサービスを提供する悪意のあるツール

2023 年 7 月末、ハッカー フォーラムのユーザーが、ボットネット、RAT、マルウェア、キーロガーなどのコードの提供を含む、「XXXGPT」と呼ばれる悪意のある ChatGPT の亜種を宣伝していることが判明しました。 XXXGPT の開発者は、主にユーザーの違法プロジェクトにカスタマイズされたサービスを提供するために、5 人の専門家チームにツールを提供していると主張しています。

主な特徴:

  • ボットネット、RAT、マルウェア、キーロガー、暗号通貨マイナー、情報窃盗、暗号通貨窃盗、POS マルウェア、ATM マルウェア用のコードの提供。
  • 専門チームによるカスタマイズされたサポートを提供します。

06Wolf GPT: 完全に機密性の高い悪意あるAIツール

これは、Python 上に構築された ChatGPT のもう 1 つの代替手段であり、制限なく悪意のあるネットワーク アクティビティを実行するために使用できます。その特徴の 1 つは、驚異的な回避能力と、さまざまな種類の悪意のあるコンテンツを生成する可能性があることです。たとえば、ハッカーはこれを利用して暗号化マルウェアや高度なフィッシング攻撃を作成することができます。

主な特徴:

  • 完全な機密性を提供します。
  • 強力な暗号化マルウェアの作成を可能にします。
  • 高度なフィッシング攻撃を開始します。

DarkBART: Google Bard の邪悪なバージョン

DarkBERT は、Google が開発した BERT フレームワーク上に構築されています。作成者はこれを Google Bard の悪質な代替品だと説明しています。 DarkBERT の邪悪な性質は、主にダーク ウェブで特別にトレーニングされた生成 AI であるという事実にあります。しかし、この研究チームはまだ査読を受けていない論文の中で、ダークウェブをデータセットとして使用することで、人工知能がそこで使用されている言語をより深く理解できるようになり、ダークウェブの研究を行おうとする人々にさらなる価値を提供できるかどうかを理解することが、この研究の目的であると述べた。 DarkBERT は現在、一般公開される予定はありませんが、関心のある方はいくつかのチャネルを通じてアクセス要求を取得することができます。

生成AIアプリケーションにおけるリスク防止のための推奨事項

特定の悪意のある AI ツールの脅威を回避しながら、生成 AI の高度な機能を最大限に活用するには、組織は次のセキュリティ プラクティスに従うことをお勧めします。

01基本的なネットワークセキュリティ対策をしっかり行う

悪意のある AI ツールの脅威から保護するには、基本的なサイバー衛生を実践することが不可欠です。これには以下が含まれます:

  • ソフトウェアとオペレーティング システムを最新の状態に保ちます。
  • 何らかのウイルス対策/マルウェア対策エンドポイント保護ソフトウェアを使用します。
  • 多要素認証で強力なパスワードを使用し、可能な場合はパスワードの代わりにキーを使用することを検討してください。
  • ビジネス継続性計画の一環としてデータおよびアプリケーションのバックアップ システムを組み込みます。
  • 自分自身と従業員にセキュリティを意識した行動をトレーニングします。

02AIアプリケーションを支えるサービスプロバイダーを研究する

企業は、AI アプリケーションに関連するツールやサービスを調査することで、AI アプリケーションの評判や犯罪歴を評価できます。同時に、企業はサービスプロバイダーのプライバシーポリシーとセキュリティ機能も確認する必要があります。組織が AI ツールと共有する情報は LLM に追加される可能性があり、他者からの質問に回答する際に不適切に使用される可能性があるためです。

03従業員にAIツールを安全かつ正しく使用できるようトレーニングする

企業は、従業員向けに適切なソーシャル メディア使用ポリシーを策定し、従業員に適切なオンライン安全行動についてトレーニングを行う必要があります。生成 AI ツールの広範な使用は、フレームワークにいくつかの新しいポリシーとトレーニングのトピックを追加することを意味します。これには次のものが含まれます。

  • 生成 AI アプリケーションと共有できないものは何ですか?
  • LLM モデルの仕組みとそれを使用する際の潜在的なリスクの概要。
  • 承認された AI アプリケーションのみが、一部の社内デバイスで許可されます。

04. 過剰な情報共有を防ぐためのセキュリティツールを導入する

生成 AI ツールが次々と登場するにつれ、その脆弱性を狙って特別に設計されたサイバーセキュリティ ツールも、今後ますます増えていくでしょう。したがって、組織は、従業員が生成 AI ツールを使用して機密情報や独自の情報を過度に共有するのを防ぐことができるソフトウェアを迅速に導入することが推奨されます。さらに、組織はネットワーク監査ツールを使用して、どの AI アプリケーションが企業ネットワークに接続しているかを監視することができます。

参考リンク:

https://heimdalsecurity.com/blog/malicious-generative-ai-tools-solution/

https://netenrich.com/blog/fraudgpt-the-villain-avatar-of-chatgpt

https://www.cybersecurityconnect.com.au/technology/9420-evil-gpt-is-the-latest-malicious-ai-chatbot-to-hit-the-darknet

https://cybersecuritynews.com/black-hat-ai-tools-xxxgpt-and-wolf-gpt/

<<:  RLHF にはもう人間は必要ありません! Googleチームの研究により、AIによる注釈が人間のレベルに達したことが証明される

>>:  WPS AIは正式に公開され、WPSスマートドキュメントに初めて適用されました。

ブログ    
ブログ    

推薦する

いくつかの単純な負荷分散アルゴリズムとそのJavaコード実装

1. 負荷分散とは何ですか?負荷分散(英語名は Load Balance)とは、複数のサーバーを対称...

アルゴリズム要件実装の難航の記録: 軽量な人間姿勢推定モデル開発への道

[[425432]]この記事は、ソリューションの選択から再現の試みなど、軽量な人間の姿勢推定モデルを...

テンセント AI ラボが初の自動モデル圧縮フレームワークのソースを公開: ディープラーニングをポケットに

テンセントAIラボ機械学習センターは本日、世界初の自動ディープラーニングモデル圧縮フレームワーク「P...

...

大学生が、1時間で600本の鉄筋を結束できる鉄筋結束ロボットを発明。建設労働者は再び失業することになるのだろうか?

人工知能の発展により、肉体労働のみに頼っている労働者の中には、徐々に失業に直面している者もいる。例え...

...

...

...

未来はAIエンジニアの手に。しかし変革を成功させるのは簡単ではない

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

生成型人工知能とは何かについて話しましょう

ジェネレーティブ AI は、これまでビジネス パーソンに依存していたモデルをアルゴリズム担当者が生成...

GPT-4Vを試した後、マイクロソフトは166ページに及ぶ評価レポートを作成した。業界関係者:上級ユーザー必読

1週間前、ChatGPTはメジャーアップデートを受けました。GPT-4とGPT-3.5の両モデルは、...

ChatGPTの愚かさに対する新たな説明: 世界はAIによって変化し、訓練されたときとは異なっている

学術界は、ChatGPT がなぜ愚かになったのかという新たな説明を持っています。カリフォルニア大学サ...

人間の敵の99.8%を圧倒する星間AIがネイチャー誌に登場、その技術が初めて完全公開された

StarCraft 2 のプレイヤーのうち、AI にまだ負けていないのはわずか 0.2% です。これ...