AIガバナンスがトップに躍り出るには

AIガバナンスがトップに躍り出るには

人工知能(AI)技術は現在、広く利用されています。 AI ガバナンスが重要なのは、AI はより大きなメリットをもたらす一方で、高いリスクにも直面し、誤った判断をした場合の結果が深刻なものになる可能性があるためです。

[[348667]]

組織はリスク管理の観点から管理されなければなりません。人工知能の主なリスク要因には、次の側面が含まれます。

  • AIによる人々のプライバシー侵害を防ぐことはできるのでしょうか?
  • AI 駆動型アプリケーションで生じる可能性のある社会的および経済的偏見を排除することはできるでしょうか?
  • AI 駆動型のプロセスが完全に透明性があり、説明可能で、人々にとって理解可能であることを保証できますか?
  • AI アルゴリズムは、アルゴリズムの結果に対する人間の責任と説明責任が常に明確にわかるように設計できるでしょうか?
  • 生死に関わる決定につながる可能性のあるあらゆる人間的考慮事項を AI アルゴリズムが考慮できるように、倫理的および道徳的原則を AI アルゴリズムに組み込むことは可能でしょうか?
  • AI アプリケーションを利害関係者の価値観に自動的に合わせること、または少なくとも特殊なケースで回復力を獲得して、悪意のあるロボットが自律的な意思決定シナリオに出現するのを防ぐことは可能でしょうか?
  • 不確実性が大きすぎて自律的な行動を正当化できない状況では、AI 主導の意思決定を抑制できるでしょうか?
  • AI 自動化アプリケーションが機能の限界に達したときに、人間が制御を取り戻すことができるように、フェイルセーフ手順を導入することはできますか?
  • AI 駆動型アプリケーションは、変化する状況に動的に適応する必要がある場合でも、予期しない副作用がなく、一貫性があり予測可能な方法で動作することを保証できますか?
  • AI アプリケーションは、基礎となる統計アルゴリズムの脆弱性を悪用するように設計された敵対的攻撃から保護できますか?
  • 環境データがトレーニングに使用された環境と大きく異なる場合に、壊滅的な失敗ではなく、適切に失敗する AI アルゴリズムを設計することは可能でしょうか?

ソフトウェアベースのパイプライン自動化に基づく AI ガバナンス

ソフトウェアベースの開発および運用 (DevOps) プロセス内で適切な制御が適切に実施されていない場合、AI ガバナンスは役に立ちません。

AI アプリケーションは、データ サイエンティスト、データ エンジニア、データ スチュワードなどのチームによって、複雑なワークフロー内で構築、トレーニング、展開、管理されます。このニーズを満たすために、多くの組織が MLOps プロセスに AI ガバナンス制御を組み込んでいます。基本的に、これには、AI アプリケーションの構築、トレーニング、展開に使用されるデータ、統計モデル、メタデータ、その他の構成要素を管理するプロセスのポリシー主導の自動化が必要です。また、AI アプリケーションのライフサイクル全体にわたってその使用、動作、結果を監視するツールも必要です。

AI 駆動型プロセスの典型的なリスクは、組織が展開された統計モデルを信頼して、割り当てられたタスクを正確かつ確実に完了できるかどうかがわからないことです。統計モデルの予測適合性が低下して、指定されたタスク(顔の認識、人間の言語の理解、顧客行動の予測など)を実行できなくなると、そのモデルは、それを構築して導入した組織にとって本質的に役に立たなくなります。

したがって、AI ガバナンスの中核機能はモデル保証です。これは、AI アプリケーションの機械学習モデルが割り当てられたタスクに予測どおりに適合しているかどうかを判断し、適合していない場合は元の場所に戻す機能です。

ただし、予測精度は保証するのが難しいパフォーマンス メトリックになる可能性があります。 AI の統計モデルは人工ニューラル ネットワークとして実装されることが多く、非常に複雑で謎めいているため、自動推論を実際にどのように実行しているのかがわかりにくくなることがあります。同様に懸念されるのは、統計ベースのアプリケーションが、自動化された決定によって生じる可能性のある偏見やその他の悪影響に対する責任を不注意に曖昧にしてしまう可能性があることです。さらに、これらの確率モデルはめったに評価および再トレーニングされない可能性があり、その結果、かつては特定の目的に適していたモデルが、今では予測力を失っていることになります。

MLOps プラットフォームへの AI モデル保証の組み込み

AI 主導のプロセスにビジネスを賭けている組織は、モデル保証を MLOps プラットフォームの組み込み機能として取得するか、この魅力的なニッチ分野に注力しているスタートアップ ベンダーから取得するかを検討する必要があります。

幸いなことに、ますます多くのデータ サイエンス DevOps 環境が信頼性の高いモデル保証を提供しています。これらのツールの最新世代は、クラウドネイティブ インフラストラクチャを活用して、エッジに至るまで AI モデルとビルド アズ コード ストリームを継続的に展開および管理します。商用製品ラインの主な製品は次のとおりです。

  • Google Cloud AI Platform は、継続的な評価などのモデル品質保証機能を提供しており、データ サイエンティストはモデルの予測を真実のラベルと比較して継続的なフィードバックを取得し、モデルの精度を最適化できます。
  • H2O.ai の無人人工知能は、豊富なモデル品質保証機能を提供します。これは、モデルがそのような結果を念頭に置いて設計されていない場合でも、異なる人口グループに対して異なる悪影響をもたらすかどうかを分析することをサポートします。展開されたモデルの予測減衰を自動的に監視し、A/B テスト用の代替モデルのベースラインを確立し、モデルを再調整、再トレーニング、その他のメンテナンスを行って実稼働環境に備える必要がある場合にシステム管理者に警告することができます。
  • Microsoft Azure Machine Learning MLOps は、実験の完了、モデルの登録、モデルの展開、データ ドリフトの検出など、機械学習ライフサイクルのイベントについて通知し、アラートを送信できます。機械学習アプリケーションのモデル固有のメトリックを監視し、機械学習インフラストラクチャの監視とアラートを提供します。また、新しいデータやその他の運用およびビジネス要因に基づいて、モデルを自動的に再トレーニング、更新、再展開することもできます。
  • Amazon SageMaker Model Monitor は、AWS Sagemaker クラウドコンピューティングサービス内の機械学習モデルを継続的に監視し、時間の経過とともにモデルのパフォーマンスを低下させる可能性のあるデータドリフトなどのバイアスを検出し、モデルの監査や再トレーニングなどの是正措置を取るようにユーザーに警告します。監視ジョブは定期的に実行するようにスケジュール設定でき、サマリーメトリクスを Amazon CloudWatch にプッシュしてアラームとトリガーを設定し、修正アクションを実行できます。また、Amazon SageMaker でサポートされている複数のインスタンスタイプがサポートされています。
  • Superwise の AI Assurance は、展開された AI モデルの精度を監視および維持するためのリアルタイム プラットフォームを提供します。これにより、関係者は、ビジネスに悪影響を与える前に、展開された AI モデルのモデル回帰やその他の問題を検出できるようになります。 AI モデルに入力されたデータの変動から生じるモデルの不正確さをフラグ付けします。また、モデルが展開されるビジネス環境の変化に関連する不正確さも把握できます。モデルの精度、公平性、その他の目的適合性の側面を維持するために実行すべき手動アクションに関するプロアクティブな推奨事項をデータ サイエンス チームに提供します。また、モデルが潜在的に最適でない領域に迷い込むのを防ぐために、いくつかの修正アクションを自動的に実行することもできます。

結論は

AI は一般の人々にとって脅威ではありませんが、現実には、この技術に関する規制を強化する管轄区域が増える可能性があります。

2020 年代に向けて、AI アプリケーションは、良い意味でも悪い意味でも、最も破壊的なテクノロジーになるでしょう。増殖が監視および制御されなければ、欠陥のある AI モデルが社会に大混乱をもたらすことになります。 AI のリスクの一部は、テクノロジーの特定の構築における設計上の制限から生じます。その他の理由としては、リアルタイム AI アプリケーションのランタイム管理が不十分であることが考えられます。さらに、AI が依存する機械学習、ディープラーニング、その他の統計モデルの技術の扱いにくい「ブラックボックス」の複雑さに固有の問題もあるかもしれません。

これらのリスクを軽減するために、組織では、あらゆる展開シナリオでこれらのモデルのパフォーマンスを自動的に管理することがますます必要になります。

<<:  「中国の新世代人工知能開発報告書2020」:中国はよりオープンな姿勢で人工知能の発展を推進

>>:  2020年の世界コンサルティング会社の新ランキング:AI時代の新たな課題

推薦する

OpenAI がハッカーのグループチャットに潜入!盗まれたChatGPTは「Meow Meow GPT」に置き換えられました、ネットユーザー:まさに伝説的

ChatGPT がハッカーによって「ハッキング」された場合、OpenAI はどのように対応するのでし...

2027年までに、世界のAI医療画像ソリューション市場は47億2,060万米ドルに達すると予測されています。

3月26日、エマージング・リサーチが発表した最新レポートによると、世界の人工知能医療画像ソリューシ...

「行動は言葉よりも雄弁である」:言語モデルはロボットにどのように適応するのか?

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

Llama2がオープンソース化された後、国内の大型モデルはどのような展開を見せるのでしょうか?

7 月 19 日、オープン ソース コミュニティの最も強力な大規模モデルが Llama から Ll...

...

53ページのPDFが広く出回り、中核社員が次々と退職。OpenAIにはどんな秘密があるのか​​?

「OpenAIが2027年にAGIを実現する」という53ページのPDFがインターネット上で広く流通...

ハーバード大学とMITがあるボストンは、政府が顔認識を禁止したと公式に発表した。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

物流における人工知能の重要な役割

今日のグローバル社会は絶えず変化しています。 この文脈において、人工知能は物流業務システムの方向性を...

2020年中国インテリジェントIoT(AIoT)白書

インテリジェントなモノのインターネット(AIoT)は、2018年に登場した概念です。さまざまな情報セ...

米メディア:なぜソフトロボットは科学者を魅了するのか?

[[374766]]米フォーチュン誌のウェブサイトは1月1日、「なぜ『ソフトロボット』はNASAや...

IBMは、人間の音声認識の実際の単語エラー率は5.1%であると主張している。

昨年 10 月、マイクロソフトの AI および研究部門の研究者およびエンジニアのチームは、自社の音声...

ベンジオとヒントンの絶え間ない探求:ディープラーニングアルゴリズムが脳の学習方法を明らかにする

[[384610]] 「脳の学習メカニズムや学習方法の一部を解明できれば、人工知能はさらに進歩できる...

量子コンピュータ、モノのインターネット、サイバーセキュリティの相互作用

量子コンピュータは多くの産業の運営方法を変えるでしょう。量子コンピューティングは社会に大きな影響を与...

アリババクラウドは、70億のパラメータを持つTongyi Qianwen大規模モデルをオープンソース化し、無料で商用利用可能に

大規模モデルの開発動向はオープンソースへと移行し始めています。周知のとおり、ChatGPT、GPT-...