AIを信頼していない経営者は何を考えているのか?

AIを信頼していない経営者は何を考えているのか?

経営幹部は長い間、より高度な意思決定にデータ分析を使用することに抵抗し、AI 支援による意思決定よりも現場経験に基づく直感的な意思決定を好んできました。

AI はすでに多くの業界で戦術的かつ低レベルの意思決定に広く使用されています。信用スコアリング、自己負担のプロモーション推奨、チャットボット、マシンパフォーマンスの管理などはすべて、AI 導入の成功例です。しかし、製品ラインの再構築、企業戦略の変更、機能間での人材の再配分、新しいパートナーとの関係構築など、より高レベルの戦略的意思決定におけるその役割はまだ実証されていません。

AI であれ、高度な分析であれ、ビジネス リーダーは、機械が下す意思決定に自社のビジネスを完全に賭ける準備がまだできていません。スイスのIMDビジネススクールのアミット・ジョシ氏とマイケル・ウェイド氏は、金融および小売企業におけるAIの活動を研究し、「AIは現在、戦略目的ではなく主に戦術目的で使用されており、実際、AIに関する完全な長期戦略ビジョンを見つけることはまれである」ことを発見しました。

デロイトが調査した経営幹部の3分の2以上(67%)は、高度な分析システムのデータにアクセスしたり使用したりすることに「不安」を感じていると述べています。データ主導の文化が強い組織でも、回答者の 37% が依然として不快感を表明しました。同様に、KPMG が実施した同様の調査では、CEO の 67% が、データ分析によって得られた洞察ではなく、自分の直感と経験に基づいて意思決定を行うことを好むと回答しました。この調査では、多くの経営幹部が自社のデータ、分析、AI に対する信頼度が低く、AI のミスや誤用に対して誰が責任を負っているのかわからないことが確認されました。データ サイエンティストやアナリストも、経営幹部のこうした消極的な態度に気づいています。最近の SAS の調査では、データ サイエンティストの 42% が、自分たちの研究結果がビジネス上の意思決定者に使用されていないと回答しています。

経営幹部が AI を次のステップに進め、ビジネスに影響を与えるより戦略的な提案に基づいて行動できるほど AI を信頼する準備が整うのはいつでしょうか? 課題は数多くありますが、AI 支援による意思決定に対する経営幹部の信頼を高めるために今すぐ実行できる 4 つのアクションがあります。

信頼できるモデルの作成

経営幹部の躊躇は、AI システムが誤解を招くような販売結果を出したなどの否定的な経験から生じている可能性があります。ほとんどすべての失敗した AI プロジェクトには共通点が 1 つあります。それは、データ品質の欠如です。従来のビジネス モデルでは、構造化データが主流でした。構造化データは、ソースから到着したデータを分類し、データをすぐに使用することが比較的容易でした。

AI は高品質の構造化データを使用できる一方で、大量の非構造化データを使用して機械学習 (ML) モデルやディープラーニング (DL) モデルも作成します。この非構造化データは、生の形式では簡単に収集できますが、適切に分類、ラベル付け、クリーニングされていないと使用できません。ビデオ、画像、写真、音声、テキスト、ログなど、AI システムがモデルを作成してトレーニングし、そのモデルを現実世界に展開するには、すべて分類、ラベル付け、タグ付けする必要があります。その結果、AI システムに取り込まれるデータは、古くなったり、関連性がなかったり、冗長だったり、制限があったり、不正確だったりする可能性があります。 AI/ML モデルに入力された部分的なデータでは、企業の部分的なビューしか提供されません。 AI モデルは、企業のこれまでの運営方法を反映するように構築される可能性があり、世界的なパンデミックの影響で見られたサプライ チェーンの混乱など、新たな機会や現実に適応できない可能性があります。つまり、モデルをリアルタイムで作成または変更できるように、データをリアルタイムで入力する必要があります。

多くのデータ サイエンティストが時間の半分をデータの準備に費やしているのも不思議ではありません。これは、適切な結果を提供する信頼性の高い AI モデルを作成するプロセスにおける唯一の重要なタスクです。経営陣の信頼を得るには、経歴と信頼性が重要です。データの合成からバイアス除去、データのクリーニングまで、データの準備に役立つ AI ツールは数多くあります。組織は、信頼できる AI モデルを作成するために、適切なデータを適切なタイミングで提供するために、これらのツールのいくつかを使用することを検討する必要があります。

データの偏りを避ける

経営幹部が躊躇するのは、AI の結果が組織内で差別につながったり、顧客に影響を与えたりするのではないかという根強い正当な懸念によるものかもしれません。同様に、AI 固有のバイアスによってビジネス上の意思決定が間違った方向に導かれる可能性があります。データから偏りを取り除くための慎重な手順を踏まなければ、結果として得られる AI モデルは常に偏りを持ち、「ゴミを入れればゴミが出る」という状況に陥ります。 AI モデルが偏ったデータでトレーニングされると、モデルの精度に影響し、偏った推奨事項が生成されます。

モデルと決定は、データに偏りがない場合にのみ有効です。意図的か否かにかかわらず、不正なデータには、人種、性別、出身、政治的、社会的、その他のイデオロギー的偏見などの暗黙の偏見が含まれている可能性があります。さらに、ビジネスに有害な他の形態の偏見が内在している可能性もあります。現在、注意すべき人間の偏見は約 175 種類特定されています。この問題に対処するには、入力データを分析してバイアスやその他の否定的な特性を特定する必要があります。前述のように、AI チームはデータの形式と品質の準備に多くの時間を費やしていますが、偏ったデータを排除することに十分な時間を費やしていません。

上級レベルの意思決定に使用されるデータは、検証済み、権威があり、認証されており、信頼できるソースからのものであることを経営陣に保証するために、徹底的に精査する必要があります。アルゴリズムの精度に影響を及ぼす可能性のある既知の差別的慣行を排除する必要があります。

データが疑わしいソースや検証されていないソースから取得された場合は、完全に削除するか、信頼スコアを下げる必要があります。さらに、分類精度を制御することで、最小限の増分コストで差別を大幅に削減できます。このようなデータ前処理の最適化では、識別を制御し、データセットの歪みを制限し、有用性を維持することに重点を置く必要があります。

AI の数学的モデルは最終的に人間の偏見を除去できるとよく考えられていますが、これは誤りです。リスクは、このようなモデルを制約なしで実行すると、入力データが限られていたり、その精度が損なわれているために、予期しないバイアスがさらに導入される可能性があることです。

倫理的かつ道徳的な決断を下す

経営者の躊躇は、企業が道徳的かつ倫理的に運営されることを保証しなければならないという前例のないプレッシャーにさらされていること、そして AI 支援による意思決定も倫理的および道徳的価値観を反映する必要があるという事実を反映しているのかもしれません。これは、倫理的、道徳的価値観を持ち、誠実に事業を運営する企業として見せたいからという理由もあれば、間違った決定を下すことで法的責任が生じ、裁判で争われる可能性があるためという理由もある。特に、決定が AI によってなされたり、AI の支援を受けたりした場合は、さらに厳しい精査を受けることになるためだ。

研究・教育機関では、人間の価値観を AI システムに適用し、その価値観を機械が理解できる工学用語に変換する研究を行っています。たとえば、カリフォルニア大学バークレー校のコンピューターサイエンス教授であるスチュアート・ラッセルは、「価値整合原則」と呼ばれる有用なアイデアの先駆者であり、これは本質的に、より受け入れやすい行動をとった AI システムに「報酬」を与えるというものです。 AI システムやロボットは、ストーリーを読み、そのストーリーから許容できる一連のイベントを学習し、成功する行動をより適切に反映するようにトレーニングできます。

AIは私たちの生活やキャリアに関する決定の正確さに影響を与える可能性があるため、ラッセル氏のような研究が商業の世界に導入されることは非常に重要です。企業は、AI 支援による意思決定が倫理的かつ道徳的であることを保証するために、適切なチェックとバランスが確保されていることを確認する必要があります。

AIの決定を説明する能力

透明性がなければ、経営陣は AI の決定を受け入れることに警戒するかもしれません。 AI の決定のほとんどは本質的に説明可能ではありません。下された決定やとられた行動がビジネスに何百万ドルもの損害を与えたり、人々の命や仕事に関係したりする可能性がある場合、AI がこの決定を下したので私たちはそれに従って行動していると主張するのは得策ではありません。

AI によって生成された結果とそれに基づいて実行されるアクションは、不透明なものであってはなりません。最近まで、ほとんどのシステムは、事前に決められた状況を明確に認識して処理するようにプログラムされていました。しかし、従来の非認知システムは、プログラムされていない状況に遭遇すると壁にぶつかります。一方、人間の脳をより忠実に模倣することを目指して、一定レベルの批判的思考スキルが組み込まれています。新しい状況が発生すると、これらのシステムは追加のプログラミングなしで学習、理解、分析し、それに応じて行動することができます。

アルゴリズムのトレーニングに使用されるデータは、安全に保存、検証、監査、暗号化されるなど、責任を持って維持される必要があります。ブロックチェーンやその他の分散型台帳技術などの新しいアプローチも、不変かつ監査可能な形式のストレージを提供します。さらに、AI の決定が説明可能であるだけでなく、事実とデータに基づいていることを保証するために、サードパーティのガバナンス フレームワークを確立する必要があります。結局のところ、同じデータセットを与えられた場合に人間の専門家が同じ結果に達したかどうか、つまり AI が結果を操作していないことを証明できるはずです。

AI のデータに基づく決定は、ほとんどの場合、確率(確率的対決定論的)に基づいています。このため、AI が意思決定を行う際には、常にある程度の不確実性が存在します。結果の信頼性には、対応するレベルの信頼度または評価が必要です。このため、ほとんどのシステムは自動化できず、自動化されることもなく、自動化すべきでもありません。近い将来、人間は意思決定の場で役割を果たす必要があるでしょう。これにより、医療などの機密性の高い業界に関しては、機械ベースの意思決定に頼ることがより困難になります。医療においては、誤った意思決定が行われる確率は 98% です。

システムが相互に作用するにつれて、物事は複雑になり、予測不可能になります。ハーバード大学バークマン・クライン・インターネット・社会センター所属のデイビッド・ワインバーガー博士によると、「世界の真の複雑さは、それを説明するために私たちが考案した法則やモデルをはるかに超えていることを私たちは受け入れ始めている」という。意思決定がどれだけ複雑になっても、今日のビジネスを運営するには依然として人間の批判的思考が必要です。特に不透明なプロセスにおいては、経営幹部は依然として AI ベースの出力を拒否したり疑問視したりする能力を必要とします。

経営者の信頼を高める課題

AI に対する経営陣の安心感を高めたい場合は、次のアクション ステップを検討してください。

  • IT 部門以外で AI プロセスに関与するすべての人々の間で AI に対する所有権と責任を高めます。倫理的な意思決定を促進し、データ経済の中で生き残るためには、文化的な変化が必要です。
  • AI は (ほとんどの場合) 過去のデータとパターンに基づいて決定を下し、将来について推測する単なるコードであることを認識します。すべてのビジネスリーダー、そして彼らとともに働く従業員は、AI の出力に疑問を投げかける批判的思考スキルを依然として必要とします。
  • AI が最も大きな影響を与える領域に AI を集中させ、まずその領域を完成させることで、最大のビジネス価値が生まれます。
  • 最も影響力のあるテクノロジーを調査して実装します。
  • 透明性を高め、意思決定チェーンの観察可能性を最大化することで、AI の公平性を確保します。
  • あらゆるレベルで公正かつ実用的な AI に対する認識とトレーニングを促進し、インセンティブを AI 導入の成功に結び付けます。
  • AI の結果を定期的かつ体系的にレビューまたは監査します。
  • 責任を持ち、自分で決断し、間違った決断をした場合は軌道修正してください。AI を責めないでください。

必然的に、戦略的な目的で経営陣に AI 支援による意思決定がさらに多く導入されるようになるでしょう。今のところ、AI はボタンを押すだけでユニコーンレベルの洞察力を提供するのではなく、意思決定においてより優れた知性を発揮できるように人間を支援することになります。 AI を活用した意思決定の結果が、信頼性が高く、偏りがなく、説明可能で、倫理的、道徳的、かつ透明性のある洞察に基づいていることを保証することで、ビジネス リーダーは、現在および将来にわたって AI ベースの意思決定に自信を持つことができます。

<<:  Nvidia 3090が180億パラメータの大規模モデルに単独で挑む。今度は国内オープンソースプロジェクトが大暴れ

>>:  テスラ モデル3とYが再びハッカーのリレー攻撃の危険に直面、車は10秒で走り去られる可能性も

ブログ    
ブログ    
ブログ    

推薦する

...

アリババが3D位置マップ圧縮アルゴリズムを革新、その論文結果がトップカンファレンスCVPR 2022に選出

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

マイクロソフトがAIデザインツールMicrosoft DesignerのAndroid版をひっそりとリリース

マイクロソフトは9月12日、Microsoft Designerの適用プラットフォームを拡大し、We...

MIT、Wikipedia の更新、間違いの修正、偽ニュースの特定を行う AI 編集システムを開始

[[334141]]誰でも編集できるオンライン百科事典である Wikipedia では、各エントリを...

IEEE テクノロジー分野賞発表: ML パイオニアがリストに、中国本土から受賞した唯一の学者は清華大学の学生

[[409353]] IEEE が再び栄誉を授与する時が来ました。 7月2日、米国電気電子学会(IE...

再編とリーダーシップ:デジタルとAIのリーダーが他を置き去りにしている

デジタルおよび AI リーダーと他の業界プレーヤーとの間のギャップは大きく、さらに広がっています。過...

中国 NeurIPS の著者の 54% が米国へ:ケンブリッジ AI パノラマ レポートが発表

NeurIPSに受理された論文のうち、著者の29%は中国の大学で学士号を取得していますが、そのうち...

...

2019 年の JavaScript 向け機械学習ライブラリ トップ 6

通常、機械学習 (ML) の方法とアルゴリズムは、Python または R の 2 つのプログラミン...

AI開発と倫理におけるリアリズムの役割

人工知能(AI)は、最初のコンピュータが発明されて以来、長い道のりを歩んできました。今日、人工知能は...

過大評価されすぎた人工知能バブルは、どのように崩壊するのでしょうか。

実は、似たような事件は以前にも起きている。江蘇省衛星テレビの番組「The Brain」では、百度脳が...

機械学習:教師あり学習と教師なし学習の違いは何ですか?

機械学習は、例と経験を通じてコン​​ピューターにタスクの実行を教える人工知能のサブセットであり、研究...

...

良いプロンプトを書くときは、これらの 6 つのポイントを覚えておいてください。覚えていますか?

効果的なプロンプトを書くことは、AI とのやり取りを成功させるための鍵となります。優れたプロンプトは...