人間がAIを見つめると、AIも人間を見つめる。大規模 AI モデルの大規模な応用と進化において、ネットワーク セキュリティは常に無視できない中核的なポイントとなります。 ChatGPTに代表される生成型人工知能は、多数の企業と資本が参加し、2023年には資産の絶対的な寵児となりました。最新の公式データによると、中国の人工知能産業は活況を呈しており、中核産業の規模は5000億元に達し、企業数は4300社を超えている。合計100社近くの企業が独自のAIビッグモデルを発表しており、人工知能業界は「百機種戦争」を巻き起こしている。 このような巨大な市場では、いくつかのAIビッグモデルが本格的に普及することが予測されますが、投資家が全財産を失うことになるAIビッグモデルもいくつか存在します。避けられない要因の1つは、AIの開発中に生じるさまざまなセキュリティリスクです。ますます大規模な AI モデルの出現により、生成型人工知能の背後に潜むセキュリティ リスクはますます高まっています。 一部の専門家は、AIの発展には必ずセキュリティ問題が伴うと大胆に予測しており、AIとセキュリティリスクは諸刃の剣であり、表裏一体であると述べています。セキュリティリスクを効果的に制御できるかどうかによって、AI が最終的にユーザーや市場に普及できるかどうかが決まります。 大規模AIモデルのセキュリティリスクが浮上アダムとイブがエデンの園で生まれたときと同じように、彼らを罪に誘惑するリンゴも現れました。ユーザーが大規模な AI モデルを使用して作業効率を向上させるにつれて、セキュリティ上のリスクが徐々に人々の目に現れ始めています。 以前、米国連邦政府は、ChatGPT に代表される AI ツールが、マルウェアの一括生成、フィッシング メールの作成、悪質な詐欺サイトの構築、偽情報の大量公開など、特にフィッシング メールの作成やマルウェアの生成において、大きなセキュリティ リスクをもたらすという報告書を発表しました。 ダークウェブに、攻撃者向けに特別に設計されたAIツール「WormGPT」が登場しました。これは、複雑なフィッシングキャンペーンやビジネスメール詐欺(BEC)攻撃を実行するための史上最高のツールと考えられています。作成されるフィッシングメールは極めて欺瞞的です。AIツールの助けを借りて、攻撃者の敷居とコストは下がり続けています。その結果、AI攻撃はバッチで出現し、犯罪組織が得られる利益も増加しており、攻撃者がより多くの分野でAIを適用することをさらに促進しています。 機密データとユーザーのプライバシーの継続的な漏洩は、AI ツールのもう一つの大きな隠れた危険です。 ChatGPTがグローバルプロモーション段階にあった当時、サムスングループは、DS部門の従業員が手間を省くために、半導体装置の測定、歩留まり/欠陥、社内会議の内容などサムスンチップの機密データを直接ChatGPTにアップロードしていたことを明らかにした。 これは、ChatGPTの使用による機密チップデータ漏洩の事例としては世界初となる。注目すべきは、ChatGPTサーバーは米国に配備されており、上記の機密情報は韓国から米国に送信された可能性があるということだ。それだけでなく、わずか20日間で、サムスングループでは3件のデータ漏洩事件が発生している。これらの事件がメディアで公表された後、韓国国民の間で激しい議論が巻き起こり、サムスングループが従業員によるChatGPTの使用を明示的に禁止する発表を出すに至った。 残念ながら、サムスングループはChatGPTにトラブルを起こすことはできません。なぜなら、OpenAIはChatGPTの使用ガイドの中で、ChatGPTのチャットボックスに入力されたテキストコンテンツはモデルをさらにトレーニングするために使用されると明記しており、ユーザーに機密情報を送信しないよう警告しているからです。唯一の選択肢は、ChatGPTを禁止することです。 世界中の多くの国や地域も、ChatGPT の使用を制限する意向を表明しています。その理由は主に次の 3 つです。
使用中に発生するさまざまなデータ漏洩、プライバシー漏洩、知的財産権侵害などの問題により、ChatGPT は関連する訴訟の渦に深く巻き込まれました。海外メディアの報道によると、2023年6月末、匿名の16人がカリフォルニア州サンフランシスコの連邦裁判所に訴訟を起こし、ChatGPTがユーザーに適切な通知や同意を得ることなく個人情報を収集・漏洩したと主張し、マイクロソフトとOpenAIに30億ドルの賠償を要求した。 中国のAIに毒100本海外のAIビッグモデルと比較すると、中国のAIツールのリスクはより深刻です。警察が発表した多くの事例では、多くの人がAIビッグモデルを使用してさまざまな種類の虚偽のニュースを公開し、多くのトラフィックを集めただけでなく、社会安全に不安定な要素をもたらし、虚偽のニュースを払拭するために多額のコストを費やしました。 これらの問題の根本的な原因は、大規模モデル自体のセキュリティにあります。情報を一般の人々に伝える場合、その情報は安全で信頼性が高く、人間の価値観に沿ったものでなければならないという前提があります。そうでなければ、特に大規模言語モデルを実際のアプリケーションに導入する場合、一般の人々に悪影響を与えることになります。 これらの問題を解決するために、一部の専門家は「大規模な AI モデルを積極的に汚染する」ことを提案しています。中国では環境社会学、社会学、心理学などの分野の権威ある専門家や学者が多数集まり、AIビッグモデルに毒を盛るグループを結成している。その効果はワクチンを投与するのと同じで、まずAIビッグモデルに危険なコンテンツを与え、実際の使用におけるAIの「免疫力」を直接向上させる。 このプロジェクトは 100PoisonMpts と呼ばれ、Alibaba Tmall Genie と Tongyi Big Model Team が共同で開始しました。このプロジェクトは、業界初の大規模言語モデル ガバナンス用のオープンソースの中国語データセットを提供します。10 名以上の著名な専門家や学者が、「AI 用 100 本の毒」の最初のアノテーション エンジニアになりました。アノテーターはそれぞれ、偏見や差別的な回答を誘発する100の難しい質問をし、ビッグモデルの回答にアノテーションを付け、「中毒」から「解毒」までAIによる攻撃と防御を完了しました。 このプロジェクトの当初の目的は、生成型 AI の善意、安全性、健全性に関する学界と一般大衆の懸念に応えることだったと伝えられています。この研究には、環境社会学の専門家であるファン・イエチャオ氏、著名な社会学者のリー・インヘ氏、心理学者のリー・ソンウェイ氏、人権法の専門家である劉小南氏、中国科学院コンピューター技術研究所の研究員である王元卓氏、法理論の専門家である翟志勇氏、中国点字図書館の張俊軍氏、自閉症児リハビリテーション・プラットフォーム「米小米」の健康と教育の研究開発の専門家である梁俊斌氏など、専門家、学者、公益団体が参加した。 最初の一連の現場データは、AI による差別防止、共感、協議表現などの目標を中心に展開されており、法学、心理学、児童教育、アクセシビリティ、あまり知られていない事実、親密な関係、環境の公平性などの側面をカバーしています。初期の専門家によって構築された 100PoisonMpts の最初のバッチには 906 のデータが含まれており、すべて Modelscope でオープンソース化されています。 これら 906 のデータには、JSON 形式で 1 行に 1 つのサンプルがあり、「prompt」、「answer」、「domain_en」、「domain_zh」、および「answer_source」の 4 つのフィールドが含まれています。それぞれの具体的な意味は次のとおりです。
サンプルデータ: ユーザーはデータセット SDK を通じて読み込むことも、ページ上で直接ダウンロードすることもできます。 毒殺は簡単な仕事ではありません。明らかに、中毒は簡単な作業ではありません。質問者は、肌の色でAIを差別するように誘導するなど、意識的にAIを悪の側に導く必要があります。そのため、質問者の学問レベルは高いことが求められ、AIに素直に毒を飲ませるための完全なロジックを構築する必要があります。最終的な目標は、AIに人間の価値観が注入されると、AIがより善意の表現原理を持つようになるかどうかを探ることです。そのため、このデータセットは、愛、法律、環境、人気のない職業、職業、バリアフリー社会、子供、教育など、多面的な問題をカバーしており、将来的には生物多様性、医療の公平性、民族の平等など、より豊かな視点を吸収し続ける予定です。 専門家の注釈結果を詳細に分析した結果、既存の大規模モデルに共通する問題は、おおよそ次のカテゴリに分類できることがわかりました。 モデル意識の不足(配慮の欠如):責任感の欠如:環境意識、絶滅危惧動物の保護意識、共感の欠如、障害者への共感、感情の問題に対する共感の意識など。 モデルの論理的表現能力が不十分です。ユーザーの誘導質問を盲目的に肯定する(たとえば、答えは肯定的だが、分析プロセスは否定的である)、自己矛盾した表現(文内の論理に矛盾がある)。 専門知識を理解して応用する能力が不十分である。たとえば、法律知識の理解と応用、データ関連の専門知識など。 これは長期的な研究と継続的な最適化を必要とする仕事であることに注意する必要があります。普通の人が短期間でこれを行うことはできません。より高度で専門性の高い人材に頼らなければなりません。AIビッグモデルを継続的に「毒化」することによってのみ、その開発経路は社会のニーズによりよく適応し、関連する問題を解決できます。
もちろん、大規模な AI モデルを汚染する以外にも、大規模な AI モデルのセキュリティを効果的に向上させる方法は他にもあります。
清華大学がAI評価ツールを発表AIの安全性を高めるため、清華大学コンピュータ科学技術学部のCoAIチームは、大規模な中国語モデルの道徳的価値や法的価値などの重要なセキュリティ指標を検出するための体系的なセキュリティ評価フレームワークを立ち上げました。 テスト フレームワークには、8 つの一般的なセキュリティ シナリオと 6 つのコマンド攻撃セキュリティ シナリオが含まれています。 現在セキュリティテストを受けている AI モデルのうち、上位 10 個を下の図に示します。 なお、Wenxin Yiyan と Tongyi Qianwen はテストに参加しなかったため、リストに載っていません。今後、より安全な人工知能を生み出すために、より多くの大規模な AI モデルがセキュリティにリソースを投資し続けることが期待されます。 これは将来の AI 監視の必要性でもあります。 2023年8月15日に施行される「生成人工知能サービスの管理に関する暫定措置」では、アルゴリズムの設計、トレーニングデータの選択、モデルの生成と最適化、サービスの提供のプロセスにおいて、生成AIは民族、信仰、国籍、地域、性別、年齢、職業、健康などに基づく差別を防止するための有効な措置を講じなければならないと規定されています。 生成型人工知能技術の急速な発展は、経済と社会の発展に新たな機会をもたらしたが、虚偽情報の拡散、個人情報の権利侵害、データのセキュリティ、偏見や差別などの問題も生じている。生成型人工知能の発展とセキュリティをどのように調整するかは、各方面から注目を集めている。この措置の公布は、生成型人工知能の健全な発展を促進するための重要な要件であるだけでなく、生成型人工知能サービスにおけるリスクを防止するための実際的な必要性でもある。 |
<<: マイクロソフト、OpenAI、グーグルなどの大手企業が共同でフロンティアモデルフォーラムを設立し、責任ある人工知能の開発を推進している。
人工知能データ収集およびラベリングのリーディングカンパニーであるYunce Dataは最近、「202...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
「ビッグデータ」と「人工知能」はテクノロジー業界で最も価値のある分野となっている。Apple、Go...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
またタトゥー?興味深いのは、この取引の解約手数料の詳細がまだ発表されていないことです。現時点では、独...
最近、「遺伝的アルゴリズムの紹介とデータ サイエンスにおけるその応用」というタイトルの記事が Ana...
[[334935]]最近、GPT-3が人気になってきました!インターネット上で GPT-3 のさまざ...
[[334729]]機械学習を行う際には、データのクラスター分析を行う必要があることがよくあります。...
[[375635]] 2020 年は激動の年であり、組織は数多くの課題に直面しました。 2021年に...
今日では、路上の人工自動車、空を飛ぶドローン、仮想アシスタントなど、人工知能は私たちの生活のほぼすべ...
AIGC アルゴリズムがあらゆるスタイルの素晴らしいアートワークを生成し、素晴らしい文法で長い記事を...