実際、生成 AI は近い将来、企業全体の販売、マーケティング、調達、サプライ チェーンにおける人間の意思決定をサポートするようになるかもしれません。 IBM は、CEO が AI で埋められると考える現在および将来の 7,800 のポジションの採用を凍結すると発表したことを考えてみてください。しかし、生成 AI には大きな可能性がある一方で、プライバシー、アルゴリズムの偏り、さらには事業継続性に関しても同様に大きなリスクが存在します。 私は、特に AI の使用に関するベンダーのコンプライアンス、セキュリティ、倫理ポリシーの管理に関連するこれらの問題について、他のリーダーたちと話し合ってきました。これらの会話に基づいて、リーダーシップ チームが考慮すべきリスク領域と、AI が倫理的、正確、安全に動作することを保証するための調達チーム向けの常識的なガイドラインをいくつか示します。 リスクAI に関連するリスクの数はまだ完全にはわかっていないかもしれませんが、表面化し、対処が必要な問題のいくつかを以下に示します。 1. 詐欺とAIスピアフィッシングセキュリティ研究者は、ChatGPT が詐欺の「波」を引き起こしていると考えている。サプライヤーを標的とした詐欺は、たとえ小規模なものであっても、クライアントの調達チームに危害を加えるために利用される可能性があります。これは、SolarWinds や他の企業を巻き込んだ 2021 年の攻撃で明らかであり、侵害されたサプライヤーが下流の他の企業にどのような影響を与えるかを理解するのに役立ちます。 一方、サプライヤーは、調達プロセス中に受注サプライヤーを選択する際の AI の正確性や公平性について懸念するかもしれません。顧客やハッカーが AI システムを操作して、一部のサプライヤーを他のサプライヤーよりも優遇する可能性があり、その結果、有利な契約を失うことになるかもしれません。 2. 知的財産の盗難適切に使用されなければ、ChatGPT やその他の生成 AI ツールに取り込まれたデータは、サービスを利用している他のユーザーや企業に配布され、機密 IP や「企業秘密」が公開される可能性があります。これは、特に欧州連合の一般データ保護規則 (GDPR) などの法律に照らして、重大な法的結果につながる可能性があり、企業の評判を損なう可能性があります。これに対応して、サムスンなどの一部の企業は、潜在的なリスクを調査する間、従業員による生成AI技術の使用を禁止または停止している。 3. アルゴリズムの偏り多くの新しい AI システムは、サプライヤーに対してアルゴリズムによる推奨事項を提供します。残念ながら、AI は過去のデータと過去の決定に基づいてトレーニングされるため、疎外されたサプライヤーに対する (無意識の) 偏見が含まれる可能性があります。データ内に存在するバイアスが適切に対処されない場合、AI によってそれらのバイアスが永続化または悪化し、不公平な結果や潜在的な法的責任につながる可能性があります。 現在、これらの偏見は、AI を使用して行われる採用決定の公平性に影響を及ぼしています。この目的のため、ニューヨーク州は、自動化された採用ツールにおけるアルゴリズムの偏りに対して企業に法的責任を負わせる法律を可決したばかりである。 4. 供給の混乱サプライチェーンのリーダーたちとの会話の中で、AI が特定の品目の買いだめ/ラッシュを検出または事前にトリガーし、ラッシュが発生する前に自動購入サイクルをトリガーして、買いだめを引き起こす可能性があると懸念する人もいます。 AI が市場を監視し、反復的な取引の購買サイクルを実行する自律システムとさらに統合されるようになると、価格が急騰する前に「市場に勝とう」として供給不足を起こそうとするリスクが、意図せず供給の混乱を引き起こす可能性があることは容易に想像できます。 食品、燃料、医薬品などの分野では、私たちがサービスを提供する顧客やコミュニティは言うまでもなく、調達および供給管理チームもその痛みを感じる可能性があります。 AI 管理による在庫決定により、予期しない在庫レベルが発生する可能性があり、在庫の減少、在庫切れ、物流コストの増加、収益の損失、顧客の信頼の低下につながります。 常識ガイドこうした脅威と AI の進歩のスピードを考えると、このテクノロジーの使用に関する常識的なポリシーを直ちに策定することが理にかなっています。 職場外での責任ある使用を確立するすべての従業員が「AI を敬遠している」と想定しないでください。プロンプトに含めるべき情報と含めるべきでない情報についてのガイダンスを提供することは、責任ある使用に関する包括的な議論を可能にするために重要です。ユーザーは、AI ツールを効果的に使用し、その出力を解釈するためのトレーニングを受ける必要があり、AI の限界と潜在的なリスクを常に認識しておく必要があります。 サプライヤーとの境界線の設定チームメンバーやベンダーが知っているかどうかに関わらず、ChatGPT に入力された情報は競合他社やその他の第三者がアクセスできる可能性があるという事実があります。 IT チームはすでにルールを確立するために競争していますが、内向きにしか焦点を当てない傾向があります。 調達およびサプライチェーン チームとして、これらの期待をサプライヤー パートナーに伝えるのが私たちの仕事です。少なくとも、機密情報を保護するために、データの匿名化と暗号化のテクノロジーを常に実装するようにベンダーに促してください。 プロフェッショナルチームを結成効果的なプロンプトを作成することは、多くの人にとって重要な新しいスキルです。そのため、プロンプトの作成方法についてチームをトレーニングしたり、結果を最適化するために「プロンプト エンジニア」を雇ったりすることを検討してください。 AI データと出力のバイアスを検出して軽減するための手順を実装することも検討してください。これには、バイアス監査、公平性メトリック、多様なトレーニング データセットが含まれる場合があります。 自己誘発的な供給途絶について議論するどの商品カテゴリーが「パニック買い」の影響を受けやすいでしょうか? 他の市場参加者はこの課題にどのように対処していますか? これらはすべて、AI があなたの会社で使用されるか、または市場の他の買い手/売り手で使用されるかに関係なく、重要となる戦略的な懸念事項です。予防策として、今すぐチームとこのような会話を始めることをお勧めします。 保護メカニズムの将来的な進化AI を取り巻くリスクと法的制限は、テクノロジーの進歩とビジネス慣行の変化に伴って進化し続けます。予測分析、より多くの言語での自然言語処理、バイアス監査、高度な不正検出など、より高度な機能を有効にするために、AI 機能に将来どのような機能強化が必要になるかを検討します。 現在、AI に関する話題が盛んに取り上げられていますが、調達やサプライ チェーンに携わる多くの人々にとって、AI は目新しいものではありません。しかし、これらのモデルはますます改良され、その改善速度はかつてないほど速くなっています。この技術が加速する前に、社内で議論し、明確な境界と具体的な意図を形成しなければ、AI自体が生み出すアイデアや提案に囚われてしまう可能性があります。 |
>>: ジェネレーティブ AI がクラウド セキュリティにもたらす変化
近年、人工知能の発展により、膨大なデータに基づく顔認識技術がさまざまな分野で広く利用されるようになり...
7bridgesの創設者兼CEOであるフィリップ・アシュトン氏は、次のように述べています。「運輸・物...
人工知能は、コンピューターが人間と同様のレベルの知能を発揮できるようにするさまざまな技術を網羅する幅...
2019 年 2 月、チューリング賞受賞者のジョン L. ヘネシー氏とデビッド A. パターソン氏は...
論文リンク: https://arxiv.org/pdf/2303.08134.pdfコードアドレス...
GPT-4 または LLM には推論機能がありますか?これは長年議論されてきた問題です。 LLM は...
変化だけが唯一不変です。これはあなたのキャリアにも当てはまります。テクノロジーが急速に進化していると...
AI へのビッグデータ投資は減速の兆しを見せていません。今後 1 年間の予測をいくつかご紹介します...
ソフトウェア アーキテクチャは、あらゆるソフトウェア プロジェクトの重要な部分になっています。アーキ...