8月10日、サイバーセキュリティ企業SlashNextが発見した一連の証拠から、違法目的で開発された人工知能チャットボットが多数インターネット上に出現していることがわかった。サイバー犯罪はより容易かつ頻繁に起こるようになっています。 人工知能チャットボットChatGPTの悪影響は記事の盗用かもしれませんが、一部の違法チャットボットはさらに悪いものです。 違法な目的で開発されたチャットボットがインターネット上に多数出現し始めています。 ChatGPT と同様に、アクセスするには少額の月額料金または 1 回限りの料金を支払うだけで済みます。 技術的に言えば、これらの言語学習モデルは実際にはサイバー詐欺師のためのツールボックスです。 サイバーセキュリティ企業SlashNextは、一部のチャットボットは、非常に説得力のある画像を使用してフィッシング詐欺や偽のテキストメッセージを作成する可能性があると述べた。 SlashNext は、チャットボットが学術機関を装った詐欺師に .edu メールアドレスを 1 つ 3 ドルで違法に販売していることを示す一連の証拠を発見しました。サイバー詐欺師は、これらのメールアドレスを使用して、Amazon などの電子商取引プラットフォームで学生向けのお得な情報や割引サービスを不正に入手することがよくあります。 違法なチャットボットを通じて実行される別のタイプの詐欺は、詐欺師が銀行などの信頼できる組織を装ってユーザーの銀行情報を要求するものです。 市場コンサルタント会社AI Leadersの人工知能戦略家リサ・パーマー氏は、こうしたタイプの詐欺は目新しいものではないと警告した。しかし、人工知能のおかげで、詐欺師が詐欺を働くことがかつてないほど容易になりました。 「これは大規模に個人化できる犯罪になります」とパーマー氏は述べた。「詐欺師は一度に1つずつ作成するのではなく、何千人もの標的の被害者に対して高度に個人化されたキャンペーンを作成できます。」彼女は、ディープフェイクの詐欺的な音声および動画コンテンツを作成することは今では簡単だと付け加えた。 さらに、こうした攻撃は高齢者や技術にあまり詳しくない人々だけに脅威を与えるのではありません。 「こうしたタイプのモデルは、公開されている大量のデータでトレーニングされているため、特定の組織に関するパターンや情報を見つけるために使用できます」とパーマー氏は述べた。「特定の企業に関する情報を収集し、身代金を要求したり、企業の評判を傷つけたりする可能性があります。」 「個人情報窃盗のようなものについて考えてみましょう。これらの AI は、個人情報窃盗を目的としたサイバー攻撃も可能にする可能性があります」とパーマー氏は言う。「AI は高度にパーソナライズされており、より専門的な犯罪手法につながる可能性があります。」 AIを違法に利用する人々に正義をもたらすことも容易ではないだろう。 「こうした高度な組織を捕まえるのは非常に難しい」とパーマー氏は言う。「一方で、言語モデルの出現により、ハイテクのスキルを持たない人でも違法産業に参入しやすくなり、犯罪行為に手を染める新たな犯罪者も出てくるだろう」 |
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
大規模モデルの背後にある科学をより深く理解し、その安全性を確保するためには、解釈可能性がますます重要...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...
今回、Google DeepMindは基本モデルに新たな動きを見せた。リカレント ニューラル ネット...
[[272461]] 7月30日、成都ハイテクゾーンの景栄会で開催された2019年世界人工知能サミッ...
[[327632]] 【51CTO.com クイック翻訳】この質問に対する単純で明確な答えはありま...
近年、研究者らはトカマクの停止や損傷の原因となる核分裂反応を研究している。核分裂反応を予測・制御でき...
[[258931]]今日の科学技術分野における最も最先端のトピックとして、人工知能は3年連続で政府活...
昨夜、「ChatGPTはすでに意識を持っているかもしれない」という話題がWeiboで人気検索となった...
[[387359]] 30年以上前、エドワード・シザーハンズの「ナイフがなければ、君を守ることはでき...
人工知能 (AI) は今日の産業情勢を変えています。 エンタープライズ ソフトウェアから機械の自動化...