2023年、生成AI技術が繭から現れ、世界的なデジタル革命を引き起こしました。 初期のチャットやチェスのプレイから、医療、金融、製造、教育、科学研究などに至るまで、生成 AI は強力な創造性と無限の可能性を示してきました。不完全な統計によると、今年8月末時点で、全国で100以上の大規模な産業用AIモデルがリリースされている。 しかし、データ保護、コンプライアンスリスク、プライバシー漏洩に関する懸念から、業界では大規模な AI モデルの導入によってもたらされるセキュリティリスクにも特別な注意を払うようになりました。 同時に、生成型 AI は諸刃の剣でもあります。企業が実用的な問題を解決するのに役立ちますが、データ漏洩などの大きなリスクにも直面します。 今年初め、大手グローバル企業が大規模モデルのトレーニング中に企業データベース内の機密情報を漏洩し、企業に多大な悪影響を及ぼしました。そして、このような事件は今も起こり続けています。 生成AIがもたらすセキュリティ上の課題について、一部のAI企業は、生成AIがこれまでにないレベルの知能を発揮し、企業のITで重要な位置を占めると考えています。この重要性によってもたらされる攻撃の頻度により、ビッグモデルはクラウドコンピューティング、ビッグデータ、モノのインターネット、モバイルインターネットに続く新たなセキュリティ戦場となるでしょう。 同時に、生成 AI テクノロジーは、ネットワーク セキュリティの運用と保守の効率をさまざまな面で向上させ、ネットワーク セキュリティ環境の基盤をより深いレベルで変化させることにも役立ちます。 1. ジェネレーティブAIの主流の企業ユースケースが登場ジェネレーティブ AI は、ディープラーニング技術を使用して高品質のコンテンツを生成する人工知能の一種です。ディープラーニング技術に基づく生成アルゴリズム、生成関数、テンプレートフリーの呼び出しに基づいています。コンピュータービジョン、自然言語処理、機械翻訳などの分野で幅広く応用されています。ディープラーニング技術の継続的な発展と応用シナリオの拡大により、生成AIは将来さらに広く使用されるようになるでしょう。業界で主流になりつつあるエンタープライズユースケースは 3 つあります。 まず、カスタマー サポートでは、GPT やその他の大規模な学習モデルを含む生成 AI によって、会話型チャットボットの機能が、より自然で正確になり、口調や感情をより適切に感知して対応できるものへと変化しています。 その結果、製品サポート チャットボットにおける会話型 AI は、業界で最初に見られるエンタープライズ ユースケースの 1 つとなりました。これらのチャットボットは、既存の内部情報を検索および照会し、人間のような方法でコミュニケーションして質問に答え、顧客の一般的な問題を解決できます。 何らかの形の会話型 AI をすでに使用している企業の場合、GPT により応答品質と顧客満足度が向上します。また、手動のコールセンターをより応答性が高く、常時稼働で、より効果的なコールセンターに変えたいと考えている企業にとって、GPT は魅力的な選択肢となります。 2 番目に、ビジネス インサイトに関して、データ サイエンスにおける最大の課題の 1 つは、ビジネス ユーザーとデータ サイエンティストの分離です。 前者はビジネスのニュアンスや答えなければならない質問を最もよく理解していますが、後者だけが実際にコンピューター言語でプログラミングしてそれらの質問の答えを得ることができます。生成 AI により、ビジネス ユーザーは自然言語で質問できるようになりました。 AI はこれらの質問を SQL クエリに変換し、内部データベースに対して実行し、構造化された説明で回答を返すことができます。すべて数分以内に行われます。ここでの利点は、効率性だけではありません。意思決定のスピードと、ビジネス ユーザーがより直接的かつインタラクティブにデータを照会できる能力も利点となります。 3 つ目は、プログラミングの自動化において、大規模な言語モデルは、コンピューター言語を含む多くの言語で高い精度を実現します。 ソフトウェア開発者がコードや関連ドキュメントの作成に費やす時間は、ほぼ 50% 削減されました。たとえば、ロボットによるプロセス自動化ツールである Microsoft の Power Automate プログラムは、自然言語を使用してプログラミングできるため、より直感的でユーザーフレンドリーな方法でタスクやワークフローを自動化できます。 これは、大規模なプログラマーとテスターのチームを関与させるよりも効率的であるだけでなく、自動化を稼働させるまでの時間と反復も削減します。 2. ジェネレーティブAIのリスク防止は企業にとって必須事項となっている生成型 AI 技術は「諸刃の剣」であることを認識する必要があります。社会の進歩を促進する一方で、技術、設計、アルゴリズム、データにセキュリティ上のリスクをもたらす可能性もあります。したがって、人工知能の健全な発展を確保するために、将来を見据えた研究を実施し、法律、規制、システム、倫理基準を確立および改善する必要があります。リスクの予防に注意を払いながら、フォールトトレラントとエラー修正メカニズムを確立し、規制と開発の動的なバランスを実現するよう努める必要があります。 セキュリティ リスクの原因を理解するには、まずその動作の特性と原理を理解する必要があります。生成 AI には、「ビッグデータ、ビッグモデル、ビッグコンピューティングパワー」という 3 つの主要な技術的特徴があり、さらに自然言語理解、知識工学手法、脳のようなインタラクティブな意思決定などの主要テクノロジーも備えています。 そのため、生成型人工知能には、社会的価値、ユーザーの使用、データコンプライアンス、データセキュリティ、データ品質という 5 つの主要なリスクがあります。これらのリスクは、金融、医療、教育、電子商取引、メディアなど、さまざまな分野とアプリケーション シナリオに反映されています。 今年初め以来、我が国の関係部門はいくつかの関連規制法案の実施を推進してきました。このうち、中国サイバースペース管理局は4月11日、「生成型人工知能サービスの管理弁法(意見募集草案)」(以下、「弁法」という)を起草し、国民の意見を募集した。 この措置は、プライバシーとセキュリティ、技術の乱用、知的財産権と他者の権利という3つの主要な問題に焦点を当て、AIGCの発展のための保護メカニズムを確立します。 他の新興テクノロジーと同様に、生成 AI の最大の課題の 1 つは、その相対的な未熟さです。生成 AI は個人でチャットボットを試すのに最適ですが、主流の企業で採用されるにはまだ初期段階です。 これを導入する組織は、実験を通じて最適なユースケースを見つけたり、増え続ける混乱を招く利用可能なオプションのリストを精査したり (OpenAI の ChatGPT サービスと Microsoft Azure のどちらかを選択するなど)、ビジネス プロセスに統合したり (多くのアプリケーション ワークフローに完全に統合する) するなど、多くの面倒な作業を自ら行わなければなりませんでした。 その結果、テクノロジーが成熟するにつれて、こうした要素の多くはなくなり、ベンダーはより多くのテクノロジーを統合的に自社のコア製品に組み込むようになります。 第二に、生成 AI の主な欠陥の 1 つは、不正確だが一見説得力のある応答を生成する可能性があることです。 GPT は自然言語処理における大きな進歩を表しているため、正しく聞こえるが事実上間違っている応答が提供されるというかなりのリスクがあります。 医療や金融サービスなど、正確性が極めて重要な業界では、このようなことは許されません。企業は適切なアプリケーション領域を慎重に選択し、このリスクを軽減するためのガバナンスと監視を確立する必要があります。 3 番目に、企業は企業ガイドラインの設定と管理に注意を払う必要があります。データのプライバシーと保護された企業データの機密性の維持は、企業の成功の鍵となります。したがって、最初のステップとして、適切な企業ガイドラインを定義して設定することが重要です。 機密データや個人を特定できるデータ、またはその他の保護されたデータが失われるリスクに加えて、公開されている言語モデルを独自のデータでトレーニングすることによる追加のリスクとして、特にトレーニングに基づく結果が他の競合他社に公開された場合に、意図しない知的財産の損失につながる可能性があることが挙げられます。 一方でイノベーションの必要性と、他方で生成 AI に関連するリスクのバランスを取る必要があるため、健全なポリシーとフレームワークを見つけるのは困難です。 結局のところ、大々的に宣伝されているテクノロジーに過度に夢中になることと、最も高いリターンをもたらす取り組みに重点を置くことの間で適切なバランスを見つけるのは難しい場合があります。組織は、最も緊急性の高い取り組みに適切な資本とリソースを割り当てていることを確認する必要があります。 一方、テクノロジーが成熟するまで長く待つ組織は、業界における AI の主流導入に乗り遅れ、ビジネスに大きな影響を与える可能性のある最新テクノロジーに遅れをとり、持続的な競争上の優位性が低下するリスクがあります。 3. ガバナンスの考え方はAIの原点に戻る生成AIのセキュリティリスクに対処するためのアイデアや戦略の面では、AI技術自体の特性が業界から注目されています。従来のICTネットワークセキュリティモデルは、現在の生成AIがもたらすセキュリティに適応できなくなりましたが、AIは優れた逆推定機能、特に一部の悪意のあるソフトウェアに対するリバースエンジニアリング防止機能を備えています。 業界では、AIのサービス能力は専門技術者の4~5年分のレベルに達していると一般的に認識されています。AIの計算能力によるデジタル防御レベルの向上と補助的な自動化操作を組み合わせることで、生成型AIリスクへの対処において本質的な優位性が生まれます。 このような背景から、生成 AI のリスクを管理するために大規模なセキュリティ モデルを使用するという業界のコンセンサスも生まれました。 これには、「シナリオ牽引、技術駆動、エコロジカルコラボレーション」の3つの側面からの構築が必要であり、AIを応用して安全保障産業の作業パラダイムを再構築し、実際の戦闘状況の指揮と派遣、赤青対決の意思決定支援、安全保障運用効率向上という3つの主要問題を大規模モデルを通じて解決する必要があります。 一方では、生成AIの最も基本的な要素であるデータとアルゴリズムを把握し、それらを突破口としてビッグデータのソースガバナンスを制御し、体系的なビッグデータファイアウォールを事前に計画して構築し、データ漏洩を制御および防止する必要があります。 同時に、国家が自主開発したデータベースシステムとバックアップシステムを適時に立ち上げ、最適化し、AIビッグデータ制御システム、階層化・階層化アクセスシステム、ネットワークリスク防止システム、そしてその結果生じるAIインテリジェント管理・監督アーキテクチャシステムの設計と開発を加速する必要がある。 一方、生成AIの技術開発やガバナンスを推進するために、さまざまな施策が講じられています。さまざまな業界や分野で生成 AI 技術の革新的な応用を奨励し、応用シナリオを探索および最適化し、応用エコシステムを構築します。 業界団体、企業、教育研究機関、公共文化機関、関連専門機関が、生成型AI技術の革新、データリソースの構築、変換と応用、リスクの予防に協力することをサポートします。生成AIインフラストラクチャと公開トレーニングデータリソースプラットフォームの構築を推進します。 コンピューティング リソースの共同共有を促進し、コンピューティング リソースの利用効率を向上させます。公共データの分類・等級分けによる秩序ある公開を推進し、質の高い公共トレーニングデータ資源を拡大します。 現在、各国がデータ戦略を導入し、国家のデータ主権を保護するための法律を制定するなど、「データ主権」をめぐる競争は、世界のデータセキュリティの発展における新たなトレンドとなっている。 このような状況において、生成AIのセキュリティを向上させることは、世界各国の今後の産業課題の一つとなるでしょう。そして、我が国のセキュリティ企業はすでに重要な一歩を踏み出しています。 |
<<: Huang が H100 を「ブースト」: NVIDIA が大規模モデル アクセラレーション パッケージを発表、Llama2 推論速度が 2 倍に
>>: Tesla FSD V12 はどのようにして誕生したのでしょうか?マスク氏:大画面に走行距離がリアルタイムで表示され、従業員は問題を解決するたびにゴングを鳴らす
近年、スマートヘルスケアの開発は国内外で人気を集めています。 「セキュリティやスマート投資アドバイザ...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
近年、民生用ドローンの急速な発展と5G商用化の段階的な深化に伴い、ドローンと5Gの関係はますます密接...
[[417323]]この記事は、張張が執筆したWeChatパブリックアカウント「建築改善への道」から...
近年、AIの波が押し寄せ、各界ではAIが人間の仕事に取って代わるドラマが相次いで上演されています。A...
[[240109]]ホームセキュリティ市場はAIを活用してどのように安全を確保しているのか家庭のセキ...
30年後には失業が大きな問題になるだろう!私たちの子どもたちはどうするのでしょうか?私が誇張している...
どのビデオゲームでも、キャラクターが予想外の行動をとって没入感を壊してしまう瞬間が必ずあります。もし...
過去 1 年間で、50 社を超える Web 3 メタバース企業にインタビューを行ってきました。今日の...
1. 分散システムの難しさ張大鵬は難しい問題に遭遇した。彼らの会社には貴重なデータを保存しているサー...
GitHub の新製品「GitHub Copilot Enterprise」は、企業独自のコードベー...