序文 数年前までは、学術機関以外で人工知能(AI)について真剣に議論している人を見つけることは困難でした。しかし、今日では、ほとんどの人が AI について話しています。すべての新しいテクノロジーのトレンドと同様に、この新しい波は好奇心と熱意を絶えず生み出しています。一般大衆の参加により多くの素晴らしいアイデアが生み出されましたが、間違った見解が生まれるケースも数多くありました。
AIは偉大な思想家や学術研究者によって構築され、その後世界中の学界や産業界によってさらに開発され、誰もが予想したよりも速いスピードで進歩しています。現時点では、私たち自身の生物学的限界が、私たちと連携し、生物学的認知能力を活用してより高い目標を達成するインテリジェント システムを作成する上で、大きな障害になりつつあります。 過去数十年にわたり、AI は多くの学術的障壁を克服してきました。しかし、現実世界のシナリオになると、多くの問題が発生し、多くの神話や誤解が生じます。残念ながら、AI で何ができて何ができないかについての情報が混乱し矛盾しているため、業界が事実と虚構を区別し、愛好家、プラットフォーム ベンダー、サービス プロバイダーの混雑した騒々しいエコシステムの中で業界を前進させることは困難です。 したがって、現在の主な課題は、業界が AI で何ができて何ができないかを現実的に定義し、それを継続的に更新して、組織が AI を適切に適用して現実世界の問題を解決し、ビジネスを変革できるように導くことです。さらに、学者や AI 実践者は、自分たちの殻を破り、業界の専門家と協力して AI の学術的基盤をさらに発展させ、現実世界でより早く AI を適用できるようにする必要があります。 業界の認識は混乱している 過去数年間、ほぼすべての業界が AI を理解し、企業が AI からどのようなメリットを得られるかを理解しようと努めてきました。残念ながら、これまでのところ、ほとんどの AI アプリケーションは、機械学習 (ML) アルゴリズムの小規模かつ分散的な使用の段階である概念実証 (POC) 段階を超えていません。 今日の多くの POC プロジェクトでは、依然として単純な統計手法を使用して、問題に単純な予測や分類を追加し、AI という名前が付けられています。実際には、これは依然として分析または高度な分析として定義され、結果を理解し、意思決定や行動を起こすには依然として広範囲にわたる人間の介入が必要です。 ビジネス プロセスと運用条件が変化し続けると、新しく生成されたデータとさまざまなビジネス要因の絶え間ない変化によって精度と価値が低下し、これらのアルゴリズムは時間の経過とともに役に立たなくなったり、危険な決定につながったりする可能性があります。この現実は企業を混乱させ、高度な AI テクノロジーを適切に導入することを妨げています。 現在、多くの企業は利益を迅速に得るために少量の ML アルゴリズムを採用することを選択していますが、これは業界をまたいだ AI アプリケーションの障害となり、新たな「AI の冬」を引き起こす可能性があります。もちろん、今回は学術側ではなく、業界側です。 しかし、すべてが悪いわけではありません。このレベルの AI 導入により、企業は多くの機会とリソースを無駄にしてきましたが、一方で、AI が変革をもたらす適切なイノベーションを推進できるということをビジネスおよび IT担当幹部に納得させることに役立っています。 分散型機械学習の呪い これまで、野心的なビジネスリーダーがオープンソースの ML ライブラリを使用して、自分自身やビジネス領域内で AI イニシアチブを立ち上げることは一般的でしたが、最適化が必要ないくつかの重要な決定にのみ焦点を当てていました。これらのアクションは通常、会社全体の組織化された計画の一部ではなく、AI を使用して問題を解決する直接的な経験を提供することである程度の価値が得られますが、組織全体で ML アルゴリズムが分散化されることになります。残念ながら、このような断片化された ML アルゴリズムでは、データに隠された価値を完全に解き放ったり、組織が保有する貴重なビジネス知識を十分に活用したりすることはできません。さらに、それらは会社にとって潜在的なリスクをもたらします。 分散型 ML アルゴリズムによってもたらされる主なリスクは次のとおりです。
企業のビジネス機能と業務が直接接続され、それらが生成するデータ、それらが作成する知識、それらが従う役割が共有され相互依存している場合、AI は人間が無視する大量のデータと機能の中に相互依存関係を見つけることができ、組織間の分散型 AI システムがデータ、知識、意思決定の分散性を弱点から大きな利点に変えることを可能にする強力なデータおよび知識プラットフォームを作成できます。 その結果、企業は緩く結びついたすべての AI 戦略と ML アルゴリズムを、企業全体にわたる安全な AI プラットフォームに迅速に統合できるようになりました。これにより、今日の異種でありながら相互接続された AI ソリューションが真のインテリジェンスを提供できるようになり、意思決定が必要なときにビジネスにメリットと変革能力をもたらすことができます。この動きにより、導入コストが削減され、ROI が増加することで、AI の導入も加速します。 AI テクノロジーを活用しますか、それともインテリジェントな企業を構築しますか? AI にまだこの機能がない場合でも、企業は事前に次の質問を検討する必要があります。AI テクノロジーを部分的にのみ使用したいのか、それとも最終的には完全にインテリジェントな企業を構築したいのか。 ロボティック・プロセス・オートメーション (RPA) とそれが AI の一部であるかどうかに関する現在の議論は、AI アプリケーション全体に関する議論を脱線させています。多くの企業は、この自動化プロセスを導入した後、AI アプリケーションの先駆者になることに満足しています。 しかし、少なくとも学術的な定義に基づくと、RPA は AI の一部ではありません。現在の RPA テクノロジーは単なる単純なスクリプトです。多くの場合、これらのスクリプトは、人間が長年にわたって蓄積してきた現在のビジネス プロセスを自動化されたロボットに引き継ぐだけであり、主に人間のニーズを中心に設計されています。 実際、これは RPA とインテリジェント プロセス オートメーション (IPA) を通じて労働力を再設計する機会でもあります。これにより、人間と機械がよりインテリジェントかつ緊密に連携します。 企業は最初から、スマートな製品やサービスを提供するだけでなく、社内でスマートなプロセスを採用するインテリジェントな企業の創出を目指すべきです。反復的なプロセスを自動化するだけでなく、人間の生物学的知能と機械の AI 機能を最大限に活用します。 インテリジェント企業の人工物や内部および外部のビジネス環境の複雑さが増していること、そして人間の生物の生物学的能力が限られていることを考慮すると、従来の過度な人間の介入は、インテリジェント企業の目標を達成する上での主なボトルネックになりつつあります。したがって、組織は RPA について議論する時間を無駄にするのをやめ、インテリジェント エンタープライズの戦略とロードマップの策定を開始する必要があります。これには次の内容が含まれます。
データの誤解 これまで、現在の ML アルゴリズム、特にディープラーニングのトレーニング、テスト、検証は、大量の良質なデータを必要とするため、依然として困難でした。過去数年間のデータを見ると、多くの場合、企業は ML メソッドを作成する際に十分な量と質の履歴データを持っていないことがわかります。 十分なデータが存在する場合でも、最初のアルゴリズムが使用可能になるまでに、人間はデータ エンジニアリング、データ分析、特徴エンジニアリング、特徴選択、予測モデリング、モデル選択、検証などのさまざまな領域に多大な労力を費やす必要があります。さらに、第 1 世代のアルゴリズムの内部構造設計を手動で調整し、その後継続的に改善するには、多くの面倒で反復的な作業が必要であり、多くの計算能力が必要になります。 現在の「予測分析」アルゴリズムは、実際には、利用可能な履歴データに基づいて何かを予測するために単純な統計モデルを使用しています。これは、過去に起こったことを未来が単に繰り返すという仮定に基づいています。明らかに、この仮定は間違っており、一部の「高価な」履歴データは実際には誤解を招く可能性があります。 さらに、科学者たちは、統計的推論や、場合によっては悲惨な結果につながる可能性のある統計的有意性や「P値(確率値)」の誤用に対して、ますます警告を発しています。特に高精度の予測が必要な状況では、従来の統計概念を放棄すべきだと訴える科学者もいる。 AIソリューションのセキュリティ 私たちは皆、AI ソリューションが従来のソフトウェア ソリューションとは異なる方法で自らを保護できることを望んでいます。技術的には、AI システムが敵対者の行動を自動的に検出し、場合によっては自らを守るために先制的な措置を講じることも可能になります。今日、AI は、脅威の早期特定や予測を可能にし、敵対システムに対する対策を提案することで、従来のサイバーセキュリティ ソリューションを強化するために効果的に使用されています。 しかし、これはターゲットを保護するだけです。AI は自分自身を保護するのがそれほど得意ではないかもしれません。ハッカーは、データを盗むのではなく、AI システムに偽のデータを与えて、適切な判断を下す能力を操作するだけでよいかもしれません。たとえば、ハッカーが電子医療記録 (EMR) にアクセスして MRI スキャンから病状を追加または削除すると、ML アルゴリズムが病状を誤って判断する可能性があります。財務データや、原子力発電所やスマートグリッドの主要機器の運用データでも同様のことが起こる可能性があります。 AI の特徴の 1 つは、私たちが問題を解決したり意思決定したりする方法や、AI にアクセス権を与える外部データ ソースに基づいて、AI が自ら保護方法を学習できることです。この独特な性質により、新しいタイプのサイバー脅威に対しても脆弱になります。これは人間の行動が誤解される方法に似ています。 AIシステムの倫理的リスク AI の倫理と偏見は、今日最も議論されているトピックの 1 つです。経験に基づいて ML アルゴリズムのルールを作成すると、これらのアルゴリズムは私たちの考え方や物事の処理方法も直接反映するようになります。 医療画像の診断、機器の故障の予測、生産能力の最適化など、多くの場合、倫理的および社会的偏見は対処すべき緊急の問題ではないかもしれません。これにより、AI には偏見がないという誤解が生じ、多くの企業は ML アルゴリズムが組織に大きなリスクや法的負担をもたらす可能性があることに気づいていません。 たとえば、特定の機器に関する技術データやその他の運用データや環境データを使用して、機器の故障を事前に予測したり、パフォーマンスを向上させる方法をガイドしたりできる ML アルゴリズムをトレーニングすることがよくあります。場合によっては、既知および未知の変数が多数あるため、アルゴリズムは失敗率に基づいて決定を下す傾向があり、その結果、ビジネスが中断する可能性があります。 結論は 企業は、新しい時代に備えて、包括的かつ柔軟な AI 戦略を慎重に策定し、適切な実行計画を直ちに開始する必要があります。インテリジェント企業に向けたこの戦略は、将来、人間と機械が協力し、ビジネス環境全体を再構築するための新しい方法を生み出すのに役立ちます。そのためには、ビジネスおよび IT リーダーが AI が現在および将来に何を実現できるかについて現実的かつ正確な見解を持つことが求められます。 さらに、このような取り組みが AI 分野での幅広い学術的および実践的な経験を持つ人々によって主導されれば、誇大宣伝にとどまらず、コストのかかる社会的誤解を回避するのに役立つでしょう。 AI はいくつかの機能領域に限定されるべきではなく、企業は、組織の集合知がすべてのチーム、機能領域、製品、サービスにわたって適切に調整されるように、組み込み、エッジ、集中型インテリジェンスのハイブリッドなバランスのとれたアプローチを積極的に検討する必要があります。 最も重要なのは、スマートエンタープライズに AI と関連テクノロジーを導入することで、人間とインテリジェントマシンをより密接に結びつけ、より生産的で強力な労働力構造を作り出すことができるということです。企業は、人間と機械が新時代の労働力の2本の柱となることを理解し、生物学的性質と人工的性質の両方の観点から限界を理解した上で、両者の総合的な強みを活用できるよう賢明に計画を立てる必要があります。 著者:Ahmed El Adl、コンピュータサイエンス(人工知能とロボット工学)博士 |
<<: PyTorchのベストプラクティス、エレガントなコードの書き方
>>: Java で一般的に使用されているいくつかの暗号化アルゴリズムは、最も強力なハッカーでも解読できません。
[[317692]]グラフニューラルネットワークはどの程度発展しましたか?現在、評価専用のベンチマー...
2020年12月2日午前9時、知恵とリソースを集めることを目的とした2日間のOpenI/O 2020...
ラスベガスで開催された2022年コンシューマーエレクトロニクスショー(CES)で、ジョンディアは、ジ...
ウォーレン・バフェットの資産が 5000G あることをご存知ですか? 反対派や懐疑派の意見に反して、...
科学技術の進歩により、人間は肉体的な力から機械の代替まで、自然を変革する能力を獲得し、現在では人工知...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...