人々は、データ、人、ビジネスなど、AI を導入する際の課題を理解する必要があります。
人工知能はより多くの業界に導入されつつあり、多くの企業がすでに AI 導入のメリットを実感しています。 AI は発展し、人気が高まっているにもかかわらず、多くの企業はまだこの新しいテクノロジーを導入してビジネスを改善できていません。何故ですか? 企業が AI の導入を懸念する理由は数多くあります。 2019 年、O'Reilly は、企業における AI 導入に関する調査結果をまとめ、AI のさらなる導入を妨げる最も一般的な要因のいくつかを列挙した電子書籍を出版しました。 回答者の 23% は、AI をさらに導入していない主な理由は、企業文化が AI の必要性を認識していないことだと答えています。その他の理由としては、データや熟練した人員の不足、適切なビジネスケースを特定することの難しさなどが挙げられます。 AI を導入する際に企業が直面する課題は何ですか? ご覧のとおり、一般的な問題には主に、人、データ、またはビジネスの調整に関連する問題が含まれます。企業ごとに状況は異なり、AI 導入プロセスも異なりますが、知っておくべき障壁がいくつかあります。この記事では、AI 実装における最も一般的な課題のいくつかを検討し、それらに備える方法を提案します。 データ関連の問題は、おそらくほとんどの企業が直面している問題です。企業が構築するシステムの質は、そこに取り込まれるデータの質によって決まるということは周知の事実です。データは AI ソリューションの重要な要素であるため、このプロセス中に多くの問題が発生する可能性があります。 1. データの質と量 前述のように、AI システムの品質は、入力されるデータに大きく依存します。 AI システムは、人間と同様に利用可能な情報から学習するために大規模なトレーニング データ セットを必要としますが、パターンを認識するには、さらに多くのデータが必要です。 タスクを実行する経験を積めば積むほど、タスクが上手になるというのは当然のことです。違いは、AI は人間には想像できないほどのスピードでデータを分析できるため、非常に速く学習できることです。企業がより良いデータを提供するほど、より良い結果が得られます。 では、企業はどのようにデータの問題を解決するのでしょうか? まず、既存のデータを把握し、それをモデルに必要なデータと比較する必要があります。これを実行するには、企業は使用するモデルを把握している必要があります。そうでないと、必要なデータを指定できません。 保有しているデータのタイプとカテゴリをリストします。質問: データは構造化されていますか、それとも非構造化されていますか? 顧客の人口統計、購入履歴、サイト上でのやり取りなどのデータを収集していますか? すでに保有しているデータがわかれば、何が不足しているかがわかります。 欠けている部分は、AI システムが簡単にアクセスできる公開情報である可能性がありますが、企業がサードパーティからデータを購入する必要がある場合もあります。治療結果をより正確に予測できる臨床データなど、一部の種類のデータは依然として入手が難しい場合があります。残念ながら、現時点では、企業はすべての種類のデータがすぐに利用できるわけではないことに備える必要があります。 この場合、合成データが役に立ちます。合成データは、実際のデータに基づいているか、または最初から人工的に作成されます。モデルをトレーニングするのに十分なデータがない場合に使用できます。データを取得する別の方法としては、データセットの補足としてオープンデータを使用するか、Google データセット検索を使用してモデルをトレーニングするためのデータを取得することが挙げられます。企業は RPA ロボットを使用して、Wikipedia の Web サイトで公開されている情報など、公開されているデータをスクレイピングすることもできます。 組織が保有しているデータと必要なデータを把握していれば、データ セットを拡張する最適な方法を検証できるようになります。 2. データのラベル付け 数年前、ほとんどのデータは構造化形式またはテキスト形式でした。最近では、モノのインターネット(IoT)の発展により、データのほとんどは画像と動画で構成されています。それ自体は何も悪いことではありませんが、問題は、機械学習やディープラーニングを利用する多くのシステムが教師あり方式でトレーニングされるため、ラベル付けされたデータが必要になることです。 実際のところ、人々は毎日非常に多くのデータを生成しており、生成されるすべてのデータにラベルを付けるのに十分な人材がいないという状況になっています。 1,400 万枚を超える画像を収録したデータベースである ImageNet など、一部のデータベースではラベル付きデータが提供されています。これらはすべて、ImageNet によって手動で注釈が付けられています。場合によっては、より適切なデータが他の場所で利用可能であるにもかかわらず、多くのコンピューター ビジョンの専門家は、画像データがすでにラベル付けされているため、依然として ImageNet のみを使用しています。 企業が採用できるデータ注釈付けの方法がいくつかあります。作業は社内で行うことも、外注することもでき、合成タグやデータを使用してプログラムすることもできます。これらすべての方法には長所と短所があります。 3. 説明可能性 多くの「ブラック ボックス」モデルでは、企業は最終的に予測などの結論に達しますが、説明はありません。 AI システムによって提供された結論が、企業がすでに知っていて正しいと信じているものと重なる場合、疑問視されることはありません。しかし、同意できない場合はどうなるでしょうか? 決定を下す方法を知っておく必要があります。多くの場合、その決定だけでは不十分です。医師は患者の健康に関するアドバイスを提供するためにシステムだけに頼ることはできません。 LIME (Locally Interpretable Model-Agnostic Explanations) などの方法は、モデルの透明性を向上させることを目的としています。そのため、AI が患者がインフルエンザにかかっていると判断した場合、患者の年齢や体重を考慮せずに、くしゃみや頭痛など、この判断に至ったデータも表示されます。 企業に意思決定の根拠が提供されると、人々がそのモデルをどの程度信頼できるかを評価しやすくなります。 4. 具体的なケーススタディ 人々は、ある分野の経験を別の分野に活用することができます。これは転移学習と呼ばれ、人間はある環境から別の類似した環境に学習を転移することができます。しかし、人工知能は、その経験をある状況から別の状況に移すことが困難です。 一方で、AI は専門化されており、厳密に指定されたタスクを実行することを目的としていることは周知の事実です。それはただ 1 つの質問に答えるために設計されているので、なぜ別の質問に答えると期待するのでしょうか? 一方、あるタスクで AI が得た「経験」は、別の関連タスクにとっても価値がある場合があります。新しいモデルをゼロから開発するのではなく、この経験を活用することは可能でしょうか? これを可能にする 1 つのアプローチは転移学習です。転移学習では、AI モデルを特定のタスクを実行するようにトレーニングし、その学習を同様の (ただし異なる) アクティビティに適用します。これは、タスク A 用に開発されたモデルが、後でタスク B のモデルの開始点として使用されることを意味します。 5. 偏見 偏見は多くの人が心配していることです。女性や有色人種に対して AI システムが「偏見」を持っているという話は、定期的にニュースの見出しになります。しかし、これはどうして起こるのでしょうか? もちろん、AI が悪意を持つことはできません。 では、AI が悪意を持つ可能性があるとしたらどうなるでしょうか。このような仮定は、AI が意識を持ち、独自の選択を行えることも意味しますが、実際には AI は利用可能なデータに基づいて決定を下すことしかできません。意見はありませんが、他の人の意見から学びます。ここで偏見が発生します。 バイアスは、データの収集方法をはじめ、さまざまな要因によって引き起こされる可能性があります。雑誌に掲載されるアンケートを通じてデータを収集する場合、回答(データ)は、その雑誌を読んでいる人々という限られた社会的集団からのみ得られることに注意する必要があります。この場合、このデータセットが人口全体を代表しているとは言えません。 データの調査方法もバイアスが発生する可能性があるもう 1 つの方法です。つまり、あるグループの人々がシステムを使用する場合、お気に入りの機能があり、他の機能をまったく (またはほとんど) 使用しない可能性があります。この場合、AI は未使用の特徴について学習できません。 しかし、偏見に関して人々が考慮しなければならないもう一つのことがあります。それは、データは人間から来ているということです。人々が嘘をついたり、偏見を広めたりする場合。これはアマゾンの採用活動でも起こり、同社のAI採用担当者が性差別的態度を取っていたことが明らかになった。テクノロジー業界は男性が主流であるため、AIシステムは男性の応募者が優遇されることを学習し、「女性」という言葉が含まれる履歴書を審査した。また、女子大学卒業生の成績も引き下げられた。この事例については、AI の失敗に関するいくつかの記事で読むことができます。 6. モデルエラーへの対処方法 人工知能には間違いがないわけではありません。人間の偏見(または嘘)がアルゴリズムに浸透し、結果が偏ってしまうことがあります。前述のように、データセットに偏りが生じる理由はたくさんあります。このような問題が発生すると、AI が予測などの結果を正確に出せなくなる可能性があります。 「誤った推論」は AI エラーのもう一つの一般的な原因です。 AI システムが高度になるにつれて、人間がネットワーク内のプロセスを理解することがますます困難になります。そのため、AI システムがミスを犯した場合、どこで問題が発生したのかを正確に特定することが困難になる可能性があります。自動運転車が急カーブを曲がるべきか、歩行者をはねるべきかを判断する場合はどうなるでしょうか? 幸いなことに、科学者たちはディープラーニング システム用のホワイト ボックス テストを開発しました。大量の入力を使用してニューラル ネットワークをテストし、応答が間違っている場所を通知して修正できるようにします。 しかし、AI が犯す間違いは常に危険なのでしょうか? もちろん、常にそうとは限りません。すべては AI システムの使用にかかっています。 AIがサイバーセキュリティ、軍事目的、車両の運転に利用されれば、さらに多くの問題が起こり、さらに危険になります。 AI システムが同等のスキルを持つ女性労働者よりも男性を選択するのは倫理的な問題です。しかし、時にはその間違いは単なるばかげたものであることもある。たとえば、2015年のWiredの記事では、黒と黄色の縞模様の画像を表示したAIについて説明されていた。しかし、人工知能はそれをスクールバスだと判断したが、これは間違いだった。 AI によるエラーが重要でないことを保証するには、高品質の入力と適切なテストを確保する必要があります。 7. 非技術者はAIを理解していない AI を実装するには、企業経営陣が現在の AI テクノロジー、その可能性と限界をより深く理解する必要があります。残念ながら、社内にデータサイエンスチームを雇う必要性(彼らはFacebook、Amazon、Googleでしか働いていないことを人々は知っておくべきである)から、ロボットとそれが最終的に人類を滅ぼすというSFファンタジーまで、AIに関する多くの神話と誤解に囲まれています。 AI技術の不足により、多くの分野でのAIの応用が妨げられています。理解不足によるもう一つのよくある間違いは、不可能な目標を達成しようと努力することです。 では、この問題をどう解決すればよいのでしょうか? 教育から始めましょう。これは気が滅入る話のように聞こえるかもしれませんが、技術者がデータ サイエンティストにならなければならないという意味ではありません。業界を見て、主要なプレーヤーの一部を知り、彼らがどのようなユースケースを展開しているかを確認し、AI で現在何ができるのかを把握してください。技術者は自分で問題を解決することも、専門家に助けを求めることもできます。ある程度の知識が得られれば、AI がビジネスに何ができるか、何ができないかを理解できるため、期待を管理しやすくなります。 8. 現場の専門家の不足 成功する AI ソリューションを開発するには、技術的な知識とビジネスに関する理解の両方が必要です。残念ながら、これはよくあることの 1 つです。 CEO やマネージャーには AI を導入するために必要な技術的知識が不足しており、一方で多くのデータ サイエンティストは、自分たちが開発したモデルが実際の生活でどのように使用されるかについてあまり関心がありません。 このテクノロジーを特定のビジネス問題に適用する方法を知っている AI 専門家の数は極めて限られています。全体的に有能なデータサイエンティストの数も増加しています。 FAMGA 以外の企業 (Facebook、Apple、Microsoft、Google、Amazon) は優秀な人材の確保に苦労しています。社内にチームを構築しようとしても、適切な人材を見つけられるかどうかはわかりませんでした。技術的な知識がなければ、高品質のソリューションを提供しているかどうかを本当に理解することはできません。中小企業では予算が限られているため、AIを導入できない場合があります。ただし、データ チームをアウトソーシングすることも選択肢の 1 つになりました。 9. ビジネス連携の欠如 O'Reilly がこの図で示しているように、AI の必要性を認識しない企業文化と、ビジネスユースケースを特定する難しさが、AI 実装に対する最大の障壁となっています。 AI のビジネスケースを特定するには、マネージャーが AI テクノロジー、その可能性、限界について深く理解している必要があります。 AI テクノロジーの不足により、多くの組織で導入が妨げられる可能性があります。 しかし、ここでまだ問題が残っています。明確な戦略を持たずに、過度に楽観的な姿勢で AI の流行に飛びついた企業もあります。 AI の実装には、目標の設定、主要業績評価指標の特定、ROI の追跡に対する戦略的なアプローチが必要です。そうしないと、企業は AI によってもたらされる結果を評価し、それを企業の想定と比較して、この投資の成功 (または失敗) を測定することができなくなります。 10. サプライヤーの評価の難しさ データ サイエンティストの採用の場合と同様に、企業に技術的な知識が欠けていると騙されやすいです。 AI は、多くの企業が自社の経験を誇張しているものの、実際には実際のビジネス上の問題を解決するために AI をどのように活用するかを知らない可能性があるため、特に脆弱な新興分野です。 ここでのアイデアの 1 つは、Clutch のようなサイトを使用して AI 開発のリーダーを特定することです。検討しているビジネスのポートフォリオにどのようなメリットがあるかを確認します。もう一つのアプローチは、有望だと思われるサプライヤーとのワークショップなど、小さなステップを踏むことです。こうすることで、彼らがビジネスを理解し、適切なスキルを持ち、問題を解決しているかどうかがわかります。 11. 統合の課題 AI を既存のシステムに統合することは、ブラウザにプラグインを追加するだけよりも複雑なプロセスです。ビジネス要件を満たすインターフェースと要素を設定する必要があります。一部のルールはハードコードされています。データ インフラストラクチャの要件、データの保存、ラベル付け、システムへのデータの取り込みについて考える必要があります。 次に、開発された AI の有効性をテストするためのモデル トレーニングを実行し、人々の行動に基づいてモデルを継続的に改善するためのフィードバック ループを作成します。また、データ サンプリングを実行して、保存されるデータの量を減らし、正確な結果を生み出しながらモデルをより速く実行します。それが機能するとどうやってわかるのですか? それが価値があるとどうやってわかるのですか? 起こり得る統合の課題を克服するために、企業はサプライヤーと協力して、全員がプロセスを明確に理解できるようにする必要があります。また、サプライヤーには、モデルの構築だけにとどまらない幅広い専門知識も求められます。 AIを戦略的かつ段階的に導入することで、失敗のリスクを軽減することができます。 企業が AI をシステムに統合することに成功した後も、そのモデルを使用するために人材をトレーニングする必要があります。モデルによって生成された結果をどのように受け入れるのでしょうか? 結果をどのように解釈するのでしょうか? ベンダーは、モデルの日常的な使用方法についてアドバイスし、AI をさらに開発する方法を提案する必要があります。 12. 法的問題 いくつかの記事では、企業が AI を導入する前に考慮する必要がある法的問題のいくつかについて説明しています。法律や規制が技術の進歩に追いつけない場合、問題が発生します。 AIが損害を引き起こしたらどうなるでしょうか?AIのせいで物が壊れたり、誰かが怪我をしたりした場合、誰が責任を負うのでしょうか?発注者でしょうか、それともAIを開発した会社でしょうか? 現時点では、そのような状況で何をしなければならないかを明確に規定した規則はありません。もう 1 つの問題は、GDPR により、データが慎重に取り扱わなければならない商品になったことです。これは、データ収集の面で課題となる可能性があります。どのようなデータをどのような方法で収集できるでしょうか。GDPR 規制に準拠した方法でビッグ データを処理するにはどうすればよいでしょうか。 機密データには、一見機密性がないように見えるという問題もあります。法的な問題は生じないかもしれませんが、それでもビジネスに損害を与える可能性のある問題です。一般的に言えば、公開されると会社の立場やイメージが脅かされるような情報は、機密情報とみなされるべきです。 企業の従業員研修やコースのデータが漏洩したらどうなるか想像してみてください。この情報は誤解されて広まり、ビジネスに損害を与える可能性があります。 AI導入の課題にどのように対処すればよいでしょうか? 人々は、すべてを自分たちだけで処理することはできないということを覚えておかなければなりません。まず最初にすべきことは、人工知能に慣れることです。そうすれば、プロセスを理解しやすくなります。次に、企業が AI 戦略を策定する際には、注意が必要な問題を認識する必要があります。 戦略的かつ段階的なアプローチをとることで、企業は AI 実装プロセスをよりスムーズに進めることができます。エラーをゼロにすることは可能でしょうか? 100%完璧なものはありませんが、企業は将来発生する可能性のある問題に備える必要があります。 |
<<: 危険な顔認識:「尊厳を保たなければ」私たちは裸になる
現在、AI が業界で重要な役割を果たしているため、ディープラーニングは重要な研究分野として、意味理解...
テスラロボットが家事を始める。マスク氏は最新の動画で、テスラのロボット「オプティマス・プライム」が服...
[[419428]] 「ディープラーニング」は最近、物理セキュリティ業界で人気の高い専門用語の 1 ...
知乎のホットな投稿によると、中国のトップAI研究者でUCLA教授の朱松春氏が清華大学オートメーション...
揚子晩報は4月12日(蒋桂東特派員、範牧暁子記者)に、揚州市在住の張さんがオランダ花海風景区を訪れた...
清華大学は、世界初の異種融合脳型コンピューティングチップ「天機チップ」を開発しました。このチップで駆...
インテリジェント化は将来の自動車発展の基本的な方向であり、自動運転技術は将来の自動車発展の重要な最先...
2023年には、生成AIが開発者のアプリケーション構築支援において飛躍的な進歩を遂げ、大手ツールベン...
SRは大きな進歩を遂げました。一般的に、既存の SR 技術研究は、教師あり SR、教師なし SR、特...