4月26日、中国サイバースペース管理局の主催で「人工知能-社会実験の観点から見た社会ガバナンス」をテーマに人工知能サブフォーラムが開催された。各業界関連分野の専門家の代表が、人工知能の発展によって生じる可能性のあるリスクや問題、人工知能が社会統治を強化する法律や経験などについて議論し、人工知能業界の健全な発展を共同で促進しました。フォーラム期間中、中国中央サイバースペース管理局情報開発局が企画・選定した「人工知能企業の典型的応用事例」が正式に発表されました。この事例選定は、人工知能業界の最新シナリオと優れた企業を発見・探求し、我が国の人工知能の健全で安定した発展をさらに促進することを目的としています。人工知能社会実験専門家グループの評価を経て、RealAIの「人工知能セキュリティとディープフェイクガバナンス応用事例」が、Huawei、Baidu、Megvii、SenseTime、Yituなどの企業とともに、見事に選定されました。 RealAIのCEOである田田氏は、現在の人工知能はまだ初期段階にあるため、アルゴリズム自体に不安定さや説明不能性などの構造的欠陥があると述べた。これは、技術的な抜け穴が悪意のある攻撃に利用され、敵対的なデータ汚染、アルゴリズムの改変、悪意のあるサンプルなどの方法を通じてアルゴリズムに深い攻撃が行われ、人工知能システムが「精神的に混乱」し、高い確信を持って誤った出力を出す可能性があることを意味する。その結果、人間の財産と生命の安全が脅かされる可能性があります。例えば、攻撃に耐える能力を持つ特別に設計されたメガネなどの物理的な物体を身に着けることで、携帯電話のロック解除、オンラインでのID認証、オフラインのセキュリティなどの分野でAIシステムに侵入することが可能になり、セキュリティ検証を無意味にすることができます。交通分野でも、車両の支援運転や自動運転システムは、AIアルゴリズムの欠陥により正常な視覚認識能力を失い、交通標識を誤認したり、大きな障害物を「見落とし」たりする可能性があり、人身や財産の安全に重大な脅威をもたらします。 このフォーラムのテーマは、実際に人工知能の発展から生じる可能性のあるリスクと問題について議論したものです。「人工知能企業の典型的な応用事例」に選ばれた企業の一つとして、RealAIの「人工知能セキュリティとディープフェイクガバナンスの応用事例」は、ガバナンス業務に効果的な技術的ソリューションを提案しました。報道によると、北京瑞来智能科技有限公司は清華大学人工知能研究所が育成した公式の産学研機構である。瑞来智能は自社の「産学研」の統合優位性に依拠し、「攻守のダイナミックバランス」メカニズムを革新的に提案し、敵の槍で敵の盾を攻撃し、攻防対決の継続的なアップグレードを通じて、標的防御技術を実践してきた。敵対的アルゴリズムの研究を通じて、ハッカーよりも先に脆弱性を発見して修正し、潜在的な攻撃を回避することができます。また、よりリアルなディープフェイク動画を生成することで、より高度な検出アルゴリズムをトレーニングすることができます。 これを基に、RealAI は人工知能のセキュリティ問題の解決に役立つ完全かつ効果的な技術ツールのセットを作成しました。たとえば、業界初の人工知能セキュリティプラットフォームであるRealSafeは、主要な攻撃および防御アルゴリズムを統合することで、AIシステムの自動セキュリティテストと防御強化をサポートし、敵対的サンプルなどの攻撃方法を識別するAIシステムの能力を向上させます。悪用への対処に関しては、瑞来知能はディープフェイク検出ツールとオールインワンマシン「DeepReal」を発売しました。これにより、動画や画像などのコンテンツがAIによって偽造されたかどうかを効率的かつ正確に判定し、世論や警告による悪用を効果的に回避できます。今回選定された「人工知能セキュリティとディープフェイクガバナンス応用事例」も、これら2つの主要な技術プラットフォームに基づいて構築されており、人工知能の応用過程で直面する潜在的なセキュリティリスクを効果的に回避することができます。 現在、人工知能の研究は高度にオープン化されており、人工知能技術の悪用リスクも急増し、リスクの抜け穴の出現を直接引き起こしています。さらに、人工知能は多分野にわたる統合と高度の複雑性という特徴を持ち、当然技術的な障壁も抱えており、規制当局の監督管理とリスク防止に大きな課題をもたらしています。 同時に、一部の専門家は、AI設計者の価値観や行動の好みは、意図的か否かにかかわらずアルゴリズムやデータに容易に反映され、機械学習を通じてAIに継承され、アルゴリズムによる差別化へと進化する可能性があるとも述べている。しかし、具体的な適用プロセスでは、敵対的なサンプルによって干渉または汚染されやすく、ユーザーによって再形成され、元の設計意図から逸脱した誤った決定につながる可能性があります。専門家は、人工知能の急速な発展に伴い、セキュリティ問題がますます顕著になっており、潜在的なリスクの研究と予防を強化し、我々の利益と安全を効果的に守り、人工知能が安全で信頼性が高く、制御可能であることを保証する必要があると強調した。 田田氏は、人工知能ガバナンスは長期的な課題であり、「技術」と「システム」を同時に推進する必要があると述べた。前者は技術の不安や脆弱性を解決し、後者は応用レベルから規範とガイダンスを提供する。 |
<<: 2021年4月の自動運転分野における重要な進展の概要
>>: 2021年から2030年までのドローン産業のトップ10の発展トレンド
アドリアン・トゥルイユ翻訳者 | ブガッティ校正 | Chonglou制作:51CTO テクノロジー...
海外メディアによると、イスラエルのテルアビブ大学の研究者らは最近、画像生成システムStyleGANを...
より多くの製造企業が人工知能 (AI) ツールを活用してデータにアクセスし、リアルタイムで対応するこ...
[[206431]]クラウドコンピューティングは、電力網、交通網、インターネットと同様の「国家インフ...
ChatGPT のリリース以来、強力な言語理解、生成、論理的推論機能など、大規模モデルの出現能力が高...
人工知能の波が世界を席巻しており、人工知能、機械学習、ディープラーニングといった多くの言葉が常に私た...
ML モデル ガバナンスは、組織がアクセスを制御し、ポリシーを実装し、モデル アクティビティを追跡す...
著者 | 崔昊レビュー | Chonglouまとめこの論文では、大規模な言語モデルと LangCha...
[[187945]]最近、アクセンチュア コンサルティングは銀行員の 4 分の 3 を対象に調査を行...
今日では、データ サイエンティストの仕事は非常に一般的になり、機械学習もその中に完全に含まれる可能性...
[[184562]]企業への人工知能の浸透はまだ始まったばかりですが、すでにビジネスリーダーたちは...