生成型人工知能 (GenAI) を実装したいですか? 朗報です! ほとんどの IT 意思決定者は、この変革的なテクノロジーの可能性を認識しており、あなたもその 1 人です。 GenAI はビジネスに大幅な効率性をもたらす可能性を秘めていますが、克服しなければならない一連の課題も存在します。 以下は、GenAI の実装における上位 10 の課題であり、重要度の高い順にリストされています。 1. 間違ったデータGenAI を実装する上での最大の課題は、データが不十分であることです。データが正しいこと、そのソースの反復が慎重に計画されていること、そしてそれが安全で信頼できるものであることの確認がなければ、開始する前からすでに遅れをとっています。 私たちはまったく新しい時代に生きているように思えますが、人工知能の時代はあなたの最も大きな夢を実現させるでしょう! 「ゴミを入れればゴミが出る」という古い格言は今でも真実です。 データは GenAI の中核であり、データ管理は常に課題となる可能性があります。しかし、前向きな展開もあります。15年前のビッグデータブームの初期の頃から、企業はデータ基盤を整え、その上にさらに大きく、より良いものを構築できるように努めてきました。 これらの企業は、平均以上のデータ品質を誇る GenAI をすぐに活用できる立場にあるため、データ管理への投資が今や成果を上げています。 2. 法務およびコンプライアンスに関する事項AI を使って合法的に何ができるか、何ができないかは現在議論中です。組織が AI を使用できる範囲を制限するための新しい法律や規制が制定されているため、AI の商業的導入に関しては、ある意味グレーゾーンにあると言えます。 EUはかなり厳しい法律に向けて着実に前進しています。 「AI法」と呼ばれるこの新しい法律は、一般人の顔認識など最も危険な形態のAIを禁止し、採用や大学入学にAIを使用するなど、それほど侵害的ではないが依然として潜在的に有害な用途については企業に承認を得るよう義務付ける可能性がある。 米国はAI規制でEU諸国に追いつきつつあり、バイデン米大統領は昨年10月に連邦政府機関に規制の起草を開始するよう指示する大統領令に署名したが、その規制には法的強制力はない。 この法的曖昧さは大企業の間で懸念を引き起こしており、大規模な外部セクターが利用できる AI 技術は導入後すぐに禁止されたり厳しく規制されたりする可能性があるため、大企業はその技術の実装に多額の資金を投資することに消極的となっている。このため、多くの AI アプリケーションは社内ユーザーを対象としています。 3. 計算能力が不十分ユーザーは GenAI モデルのトレーニングに強力な GPU を必要とするだけでなく、推論にも GPU を必要とします。ハイエンドの Nvidia GPU に対する需要が非常に高く、供給をはるかに上回っています。これは、クラウドで GPU を購入またはレンタルする十分な資金を持つ大企業や Nvidia の株主にとっては素晴らしいことですが、GenAI を実装するために GPU 時間を必要とする中小企業やスタートアップにとってはあまり良いことではありません。 GPU の「大きな待ち行列」はすぐには緩和されないでしょう。少なくとも 2024 年前半までは緩和されないでしょう。 Nvidia とその競合他社は、LLM (大規模言語モデル) をより効率的にトレーニングおよび実行するための新しいチップ設計の開発に取り組んでいますが、設計と生産開始には時間がかかります。 多くの企業は、LLM を実行する代わりに、大規模なモデルほどリソースを消費しない小規模な言語モデルを実行する方向に移行しています。圧縮と量子化を通じて LLM のサイズを縮小する取り組みもあります。 4. 透明性と説明可能性GenAI が企業の役員会議室で議論される前から、透明性と説明可能性は問題となっていました。わずか 5 年前、企業は、ニューラル ネットワーク テクノロジーを使用して大量のデータからパターンを見つける機械学習 (ML) のサブセットであるディープラーニング (DL) をどう扱うべきかを模索していました。 多くの場合、企業は、たとえディープラーニングの方が精度が高くても、ディープラーニングシステムがどのように答えにたどり着いたかを説明できないため、より単純な機械学習アルゴリズムに基づくシステムを本番環境に導入することを選択します。 GenAI の基盤となる大規模言語モデル (LLM) は、当然ながら膨大なデータ コーパス (GPT-4 の場合は基本的にパブリック インターネット全体) でトレーニングされるニューラル ネットワークの一種です。 これは、LLM がどのように答えを得るかを説明するときに大きな問題を引き起こします。この課題に対処する直接的な方法はありません。いくつかのアプローチが登場していますが、やや複雑です。これは、学界、産業界、政府の研究開発において、引き続き活発な研究と探究が行われている分野です。 5. 正確さと幻想GenAI アプリケーションがどれだけ優れていても、事実を捏造したり、この分野の用語で言う「幻覚」を起こしたりする可能性があります。専門家の中には、文章や絵画など、これまで存在しなかったものを生成したり作成したりするように求められた場合、AI が幻覚を起こすのは普通のことだと言う人もいます。 専門家は幻覚が完全になくなることはないかもしれないと述べているが、良いニュースとしては、幻覚の発生率は減少しているということだ。 OpenAI の GPT の初期バージョンのエラー率は約 20% でした。現在、その数は 10% 未満であると推定されています。 AI モデルの幻覚傾向を軽減する技術があり、たとえば、ある AI モデルの結果を別の AI モデルとクロスチェックすることで、幻覚率を 1% 未満に減らすことができます。幻覚の軽減は実際の使用事例に大きく依存しますが、AI 開発者はそれを念頭に置く必要があります。 6. AIスキルの不足他の新しいテクノロジーと同様に、開発者は GenAI を構築するために新しいスキルセットを必要とし、開発者が精通しなければならない多くの新しいテクニックを導入します。 たとえば、既存のデータセットを LLM に接続し、規制、倫理、セキュリティ、プライバシーの要件を満たしながら、そこから関連する回答を取得するには、いくつかのスキルが必要です。給与調査によると、プロンプターエンジニアの出現が急速に進み、平均給与が30万ドルを超え、IT業界で最も給与の高い職業となっている。 しかし、ある意味では、GenAI では、特に GPT-4 のような事前に構築された LLM を使用する場合、AI アプリケーションの構築と実装にこれまで必要だったよりも高度なデータ サイエンス スキルが少なくて済みます。このような場合、Python に関するある程度の知識があれば十分です。 7. セキュリティとプライバシーGenAI アプリはプロンプトに従って動作します。特定の種類の入力がないと、生成された出力は得られません。制御がなければ、従業員が GenAI アプリケーションに機密データを入力するのを阻止することはできません。 たとえば、昨年 6 月に公開されたレポートでは、従業員の 15% が定期的に ChatGPT に機密データを貼り付けていることがわかりました。サムスン、アップル、アクセンチュア、バンク・オブ・アメリカ、JPモルガン・チェース、シティグループ、ノースラップ・グラマン、ベライゾン、ゴールドマン・サックス、ウェルズ・ファーゴなど、多くの大手企業が社内でのChatGPTの使用を禁止しています。 データが LLM に入ると、そのデータがどこに出力されるかについてはユーザーには保証がありません。たとえば、OpenAI はユーザーとの会話を利用してモデルをトレーニングしていると伝えています。データをモデルに含めたくない場合は、エンタープライズ ライセンスを購入する必要があります。サイバー犯罪者は、モデルから機密データを盗む技術をますます向上させています。これが、データ侵害が Open Web Application Security Project (OWASP) のトップ 10 セキュリティ リスクに含まれている理由の 1 つです。 モデル自体のデータがロックダウンされている場合でも、他の脆弱性が存在します。 Private Internet AccessというVPN会社によると、GenAIアプリはIPアドレス、ブラウザ設定、閲覧履歴を通じて、ユーザーの同意なしに政治的信条や性的指向などその他の情報を収集する可能性があるという。 8. 倫理的問題GenAI が 2022 年後半に爆発的に登場してくる前から、AI 倫理の分野はすでに急速に発展していました。 GenAI があらゆるビジネスマンの 2024 年戦略の中心となった今、AI 倫理の重要性は飛躍的に高まっています。 多くの企業は、偏った機械学習モデルへの対処方法、同意の取得方法、モデルの透明性と公平性を確保する方法など、AI の実装に伴ういくつかの大きな問題に取り組んでいます。これらは些細な問題ではないため、倫理は依然として大きな課題となっています。 デロイトは AI の倫理について考える業界リーダーの 1 つであり、2020 年にはすでに AI に関する倫理的な意思決定を支援する信頼できる AI フレームワークを作成しました。このガイドは、デロイト AI 研究所のエグゼクティブ ディレクターである Beena Ammanath 氏が主導したもので、GenAI にも適用できます。 9. コストが高い経営者は GenAI に費やされるすべてのドルを監視する必要があります。 GenAI アプリケーションの開発方法によっては、コストが大きな要素となる場合があります。 McKinsey は GenAI のコストを 3 つのタイプに分類しています。事前に構築された GenAI アプリケーションを使用する場合、50 万ドルから 200 万ドルの費用がかかります。ユーザーが特定のユースケースに基づいて既存の LLM を微調整するために投資する金額は、200 万ドルから 1,000 万ドルの範囲になります。メーカー(OpenAI など)が基本モデルをゼロから構築するには、500 万ドルから 2 億ドルの費用がかかります。 GPU のコストは LLM のトレーニングの始まりに過ぎないことにも注意することが重要です。多くの場合、トレーニング済みの LLM でデータを推論するためのハードウェア要件は、トレーニングのハードウェア要件を超えます。 GenAI アプリケーションの構築には、時間のかかるデータのラベル付けや、スキルを習得するためのトレーニングにかかる時間など、人的要因も存在します。 10. パフォーマンスへのコミットメントの欠如AI ソリューションの構築と導入に関しては、多くの経営幹部が興奮していますが、それほど興奮していない人も多くいます。 EY が金融サービス分野のテクノロジーリーダーを対象に最近実施した調査では、回答者の 36% が、リーダーシップの明確な支持が得られていないことが AI 導入の最大の障壁であると回答しました。 GenAI への投資で得られる潜在的な利益は莫大ですが、注意すべき誤差の範囲があります。 HFS Research による最近の調査では、特に価格モデルが急速に変化する中で、多くの人にとって GenAI の投資収益率は依然として不確実であることがわかりました。 企業が競争上の優位性を獲得しようとする中、2024 年には GenAI の導入が急増するでしょう。最終的に成功する企業は、これらの進歩の障壁を克服し、合法、安全、正確、効果的で、破産しない GenAI アプリケーションを実装できる企業です。 |
<<: OT システムは、生成 AI によってもたらされるセキュリティ上の課題にどのように対処するのでしょうか?
2019年以降、アジア太平洋地域全体で政府主導のAIに関する取り組みが急増しています。これらの取り組...
GAN の高解像度画像を生成する能力は、画像合成および処理の分野に革命をもたらしています。 201...
[[184240]]ここ数か月間、データサイエンスの世界にチャレンジして、機械学習の技術を使って統...
音声アシスタントからチャットボットまで、人工知能 (AI) はテクノロジーとのやり取りの方法に革命を...
[[384554]]人工知能は、人類がより早く、より効果的に病気と闘い、より健康的な生活を送るのに役...
未来産業研究所は、顔認識市場規模は今後5年間で平均23%の複合成長率を維持し、2024年までに市場規...
人類が地球環境において行った行為を元に戻すために、人工知能が私たちの手助けをしてくれるでしょう。気候...
[[280714]]人工知能は世界に大きな影響を与えます。 2025年までに、AIソフトウェアの総...
人工知能は、スマート音声アシスタントが私たちの日常生活でどのように使用されるかを真に変えましたが、私...
自動運転車の急速な発展は、自動車業界や輸送業界を再定義するだけでなく、保険業界にも混乱をもたらすでし...
翻訳者 |李睿レビュー | Chonglouアジャイルコーチのステファン・ウォルパーズ氏は、 Ope...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
ソフトウェアの熟練度は「ツール」の範疇に入るため、主にポートフォリオで対外的に証明するデザイナーにと...