AIガバナンスがトップに躍り出るには

AIガバナンスがトップに躍り出るには

人工知能(AI)技術は現在、広く利用されています。 AI ガバナンスが重要なのは、AI はより大きなメリットをもたらす一方で、高いリスクにも直面し、誤った判断をした場合の結果が深刻なものになる可能性があるためです。

[[348667]]

組織はリスク管理の観点から管理されなければなりません。人工知能の主なリスク要因には、次の側面が含まれます。

  • AIによる人々のプライバシー侵害を防ぐことはできるのでしょうか?
  • AI 駆動型アプリケーションで生じる可能性のある社会的および経済的偏見を排除することはできるでしょうか?
  • AI 駆動型のプロセスが完全に透明性があり、説明可能で、人々にとって理解可能であることを保証できますか?
  • AI アルゴリズムは、アルゴリズムの結果に対する人間の責任と説明責任が常に明確にわかるように設計できるでしょうか?
  • 生死に関わる決定につながる可能性のあるあらゆる人間的考慮事項を AI アルゴリズムが考慮できるように、倫理的および道徳的原則を AI アルゴリズムに組み込むことは可能でしょうか?
  • AI アプリケーションを利害関係者の価値観に自動的に合わせること、または少なくとも特殊なケースで回復力を獲得して、悪意のあるロボットが自律的な意思決定シナリオに出現するのを防ぐことは可能でしょうか?
  • 不確実性が大きすぎて自律的な行動を正当化できない状況では、AI 主導の意思決定を抑制できるでしょうか?
  • AI 自動化アプリケーションが機能の限界に達したときに、人間が制御を取り戻すことができるように、フェイルセーフ手順を導入することはできますか?
  • AI 駆動型アプリケーションは、変化する状況に動的に適応する必要がある場合でも、予期しない副作用がなく、一貫性があり予測可能な方法で動作することを保証できますか?
  • AI アプリケーションは、基礎となる統計アルゴリズムの脆弱性を悪用するように設計された敵対的攻撃から保護できますか?
  • 環境データがトレーニングに使用された環境と大きく異なる場合に、壊滅的な失敗ではなく、適切に失敗する AI アルゴリズムを設計することは可能でしょうか?

ソフトウェアベースのパイプライン自動化に基づく AI ガバナンス

ソフトウェアベースの開発および運用 (DevOps) プロセス内で適切な制御が適切に実施されていない場合、AI ガバナンスは役に立ちません。

AI アプリケーションは、データ サイエンティスト、データ エンジニア、データ スチュワードなどのチームによって、複雑なワークフロー内で構築、トレーニング、展開、管理されます。このニーズを満たすために、多くの組織が MLOps プロセスに AI ガバナンス制御を組み込んでいます。基本的に、これには、AI アプリケーションの構築、トレーニング、展開に使用されるデータ、統計モデル、メタデータ、その他の構成要素を管理するプロセスのポリシー主導の自動化が必要です。また、AI アプリケーションのライフサイクル全体にわたってその使用、動作、結果を監視するツールも必要です。

AI 駆動型プロセスの典型的なリスクは、組織が展開された統計モデルを信頼して、割り当てられたタスクを正確かつ確実に完了できるかどうかがわからないことです。統計モデルの予測適合性が低下して、指定されたタスク(顔の認識、人間の言語の理解、顧客行動の予測など)を実行できなくなると、そのモデルは、それを構築して導入した組織にとって本質的に役に立たなくなります。

したがって、AI ガバナンスの中核機能はモデル保証です。これは、AI アプリケーションの機械学習モデルが割り当てられたタスクに予測どおりに適合しているかどうかを判断し、適合していない場合は元の場所に戻す機能です。

ただし、予測精度は保証するのが難しいパフォーマンス メトリックになる可能性があります。 AI の統計モデルは人工ニューラル ネットワークとして実装されることが多く、非常に複雑で謎めいているため、自動推論を実際にどのように実行しているのかがわかりにくくなることがあります。同様に懸念されるのは、統計ベースのアプリケーションが、自動化された決定によって生じる可能性のある偏見やその他の悪影響に対する責任を不注意に曖昧にしてしまう可能性があることです。さらに、これらの確率モデルはめったに評価および再トレーニングされない可能性があり、その結果、かつては特定の目的に適していたモデルが、今では予測力を失っていることになります。

MLOps プラットフォームへの AI モデル保証の組み込み

AI 主導のプロセスにビジネスを賭けている組織は、モデル保証を MLOps プラットフォームの組み込み機能として取得するか、この魅力的なニッチ分野に注力しているスタートアップ ベンダーから取得するかを検討する必要があります。

幸いなことに、ますます多くのデータ サイエンス DevOps 環境が信頼性の高いモデル保証を提供しています。これらのツールの最新世代は、クラウドネイティブ インフラストラクチャを活用して、エッジに至るまで AI モデルとビルド アズ コード ストリームを継続的に展開および管理します。商用製品ラインの主な製品は次のとおりです。

  • Google Cloud AI Platform は、継続的な評価などのモデル品質保証機能を提供しており、データ サイエンティストはモデルの予測を真実のラベルと比較して継続的なフィードバックを取得し、モデルの精度を最適化できます。
  • H2O.ai の無人人工知能は、豊富なモデル品質保証機能を提供します。これは、モデルがそのような結果を念頭に置いて設計されていない場合でも、異なる人口グループに対して異なる悪影響をもたらすかどうかを分析することをサポートします。展開されたモデルの予測減衰を自動的に監視し、A/B テスト用の代替モデルのベースラインを確立し、モデルを再調整、再トレーニング、その他のメンテナンスを行って実稼働環境に備える必要がある場合にシステム管理者に警告することができます。
  • Microsoft Azure Machine Learning MLOps は、実験の完了、モデルの登録、モデルの展開、データ ドリフトの検出など、機械学習ライフサイクルのイベントについて通知し、アラートを送信できます。機械学習アプリケーションのモデル固有のメトリックを監視し、機械学習インフラストラクチャの監視とアラートを提供します。また、新しいデータやその他の運用およびビジネス要因に基づいて、モデルを自動的に再トレーニング、更新、再展開することもできます。
  • Amazon SageMaker Model Monitor は、AWS Sagemaker クラウドコンピューティングサービス内の機械学習モデルを継続的に監視し、時間の経過とともにモデルのパフォーマンスを低下させる可能性のあるデータドリフトなどのバイアスを検出し、モデルの監査や再トレーニングなどの是正措置を取るようにユーザーに警告します。監視ジョブは定期的に実行するようにスケジュール設定でき、サマリーメトリクスを Amazon CloudWatch にプッシュしてアラームとトリガーを設定し、修正アクションを実行できます。また、Amazon SageMaker でサポートされている複数のインスタンスタイプがサポートされています。
  • Superwise の AI Assurance は、展開された AI モデルの精度を監視および維持するためのリアルタイム プラットフォームを提供します。これにより、関係者は、ビジネスに悪影響を与える前に、展開された AI モデルのモデル回帰やその他の問題を検出できるようになります。 AI モデルに入力されたデータの変動から生じるモデルの不正確さをフラグ付けします。また、モデルが展開されるビジネス環境の変化に関連する不正確さも把握できます。モデルの精度、公平性、その他の目的適合性の側面を維持するために実行すべき手動アクションに関するプロアクティブな推奨事項をデータ サイエンス チームに提供します。また、モデルが潜在的に最適でない領域に迷い込むのを防ぐために、いくつかの修正アクションを自動的に実行することもできます。

結論は

AI は一般の人々にとって脅威ではありませんが、現実には、この技術に関する規制を強化する管轄区域が増える可能性があります。

2020 年代に向けて、AI アプリケーションは、良い意味でも悪い意味でも、最も破壊的なテクノロジーになるでしょう。増殖が監視および制御されなければ、欠陥のある AI モデルが社会に大混乱をもたらすことになります。 AI のリスクの一部は、テクノロジーの特定の構築における設計上の制限から生じます。その他の理由としては、リアルタイム AI アプリケーションのランタイム管理が不十分であることが考えられます。さらに、AI が依存する機械学習、ディープラーニング、その他の統計モデルの技術の扱いにくい「ブラックボックス」の複雑さに固有の問題もあるかもしれません。

これらのリスクを軽減するために、組織では、あらゆる展開シナリオでこれらのモデルのパフォーマンスを自動的に管理することがますます必要になります。

<<:  「中国の新世代人工知能開発報告書2020」:中国はよりオープンな姿勢で人工知能の発展を推進

>>:  2020年の世界コンサルティング会社の新ランキング:AI時代の新たな課題

ブログ    

推薦する

Tofsee ボットネットは独自のドメイン名生成アルゴリズムを使用する

概要スイス政府コンピュータ緊急対応センター (GovCERT) は最近、Tofsee ボットネット ...

...

米国の光学半導体ウエハ検査機はAIとビッグデータを統合し動作速度を3倍に向上

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

これらの6つのヒントを活用してAIガバナンスの問題を解決しましょう

AI ガバナンスは、データ プライバシー、アルゴリズムのバイアス、コンプライアンス、倫理など、企業内...

...

ガウス混合モデルを用いた多峰性分布の分離

この記事では、ガウス混合モデルを使用して 1 次元の多峰性分布を複数の分布に分割する方法を説明します...

...

...

...

ボストン・ダイナミクスのロボット犬はまもなく腕が生え、走って充電できるようになる

ボストン・ダイナミクスの創業者マーク・レイバート氏は、スポットロボット犬は将来「家庭で使用できるよう...

スマートシティにおける低リスクの AI 応用分野 3 つ

スマート シティでは、一部の AI 駆動型システムは統合にコストがかかったり、実装前に複数の規制に準...

...

自然言語処理が人工知能の中核である理由

コンピュータが人間を騙して自分は人間だと信じ込ませることができるなら、そのコンピュータは知的であると...

...

冷たい水の入った洗面器! FDAはロボット手術はまだそれほど信頼できないと警告

海外メディアの報道によると、ほとんどの場合、手術対象はブドウではないため、「科学者がブドウの手術を行...