多くの場合、さまざまな組織がさまざまな方法で生成 AI テクノロジーを適用しますが、それがもたらす悪影響は非常に一般的です。 OpenAI は最近、ChatGPT のカスタム バージョンをリリースしました。これにより、組織は生成 AI をより柔軟かつ簡単に使用できるようになりますが、弁証法によれば、純粋にポジティブなものは存在しないと言われています。大西洋の両側で2週間連続してAI安全サミットが開催され、AIの潜在的な危害に対する人々の懸念も高まっている。しかし、SF における殺人ロボットの暴力的な脅威であれ、AI モデルがどのような規制指針を受けるべきかという具体的な議論であれ、それは実際には古いニュースとみなすことができます。言い換えれば、生成 AI ツールを大規模に適用したい組織が合理的な実装パスを見つけるには、これらすべてだけでは不十分です。 現在、生成 AI に対する最大の反対者は、自分の作品が許可なく大規模言語モデル (LLM) のトレーニングに使用されていることに不満を持つ作家やアーティストたちです。今年11月初旬、ハリウッドでは脚本家や俳優による数か月に及ぶストライキが勃発し、スタジオ側が譲歩し、AIツールが人間の脚本家や俳優に取って代わる方法を制限するよう要求した。しかし、クリエイティブ業界以外でも、他の組織は生成 AI の使用には注意する必要があります。これは、恥ずかしい反発を避けるためだけでなく、潜在的な法的措置を回避するためでもあります。 多くの企業は著作権を重要な懸念事項と見なし(連邦取引委員会も同意しているようだ)、AI によって競合他社から「コピー」されたビジネス プランを直接使用すると問題が発生する可能性があることを認識しています。しかし、これは生成 AI が引き起こした唯一の論争ではありません。 企業の評判の毀損に注意マイクロソフトとガーディアン紙との最近の対立は、典型的な事例だ。ガーディアン紙は、このハイテク大手のAIニュースシステムが、女性が死ぬかどうかを読者に推測させる非常に冷酷な世論調査を自動生成し、それをニュース記事に挿入したため、同紙に「深刻な評判の失墜」をもたらしたと報じた。近い将来に避けるべき生成 AI の使用例を 1 つ選ぶとしたら、これは明らかにリストに載るでしょう。 Bing の AI ニュース サービスがデリケートなニュースに物議を醸す世論調査を追加したのは今回が初めてではない。同じAIツールによって生成された他のアンケートでは、読者に、同じ状況で女性を撃つかどうか、国立公園で発見された人骨が真正かどうか、火災で50軒の家屋が全焼した地域で緊急避難勧告を実施すべきかどうか、火傷を負った子どもたちのために募金を集めることを目的としたイベントが、実際には子ども2人の死者を出した火災を引き起こしたことを支持するかどうかを尋ねた。 AI 搭載の Bing Chat が投稿した広告には、マルウェアへのリンクも含まれていました。マイクロソフトが立ち上げたこのAIツールは、オタワを訪れる観光客に食事のために「フードバンク」(地元の貧困層を支援し、食料を配布する慈善団体)に行くことを推奨し、バイデン大統領などの政治家に関する未知のウェブサイトからの偽ニュースを強調し、さらにはニュース記事の具体的な筋書きを深刻に混乱させる。例えば、女優がスポーツコーチを暴行したと示唆していたが、実際にはコーチが馬を虐待したと非難されていた。 ChatGPT などの生成 AI モデルの信じられないほど魔法のような操作と比較すると、弁護士や医療専門家は、ほとんどの場合、生成された結果を少なくとも慎重に確認する機会があります。ガーディアン紙の報道に乱暴に挿入された世論調査は、完全に自動化されたシステムによって、人間の承認なしに、マイクロソフトの所有物上で直接、何百万人もの読者に向けて公開されたようだ。 マイクロソフトは、この調査は偶発的なエラーであるとし、調査することを約束した。しかし、行動面では、マイクロソフトは、AI システムとやり取りしていることをユーザーに通知したり、人間とコンピューターのやり取りに関するガイドラインを厳密に遵守したりするなど、AI の責任ある使用に関する同社の原則に明らかに違反しています。 Microsoft は、Azure OpenAI の顧客に対し、「テーマ別のコンテンツ」を作成したり、「最新情報に厳密な正確性が求められる状況」(もちろんニュース Web サイトも含まれる) で AI を使用したりしないように繰り返し伝えてきたが、顧客自身はそうしなかった。 AIの過剰使用に注意全体的に、Azure OpenAI の明確な警告は、このサービスが不適切または不快なコンテンツ、ならびに無関係、虚偽、または歪んだ意見を生成する可能性があることを実証しています。 Microsoft は、政治活動や非常にデリケートなイベントなど、特に医療、教育、金融、法律分野の高リスク領域など、過度の使用/乱用が存続の機会/法的立場に影響を与える可能性のあるさまざまな慎重な状況を含む、慎重に避けるべき状況をいくつか挙げています。ただし、特定の分野に限定されたこれらの質問は、内容が限定されていることが多く、対応する回答は比較的短く単純なため、自由回答形式や無制限の質問形式をカバーできる可能性は低くなります。 マイクロソフトは、生成 AI テクノロジの適用に適していないと考える分野については言及を控えたが、代わりに、コンテンツの作成、言語表現の要約または改善、コード生成、セマンティック検索など、顧客が成功を収めていると考える分野のリストを示した。しかし、同社の広報担当者は次のように認めた。「私たちは、AIがますます強力になり、驚くべきことができる世界に生きています。しかし、最も重要なことは、この技術には開発プロセスが必要であり、成長と発展のために十分な余地を与えなければならないことを認識することです。これを明確にすることが非常に重要です。」 しかし、生成 AI の顧客全員がこのことに気づいているわけではありません。生成AIによって生成された、理解不能な内容と奇妙な文体を持つコンテンツは、すでにビジネス環境に登場しています。これは、会議の議事録、ブログ投稿、または社内イベントのプレゼンテーションには適していますが、正式なビジネス文書には明らかに不十分です。プロのライターやセキュリティ教育者の間では、この種のコンテンツを直接使用する人が増えています。AI で生成された画像も使用しており、指の数の違いからもそれがわかります。こうした馬鹿げたナンセンスは今後さらに一般的になり、不安をかき立てるようになる可能性が高いため、企業はそれがもたらす評判への脅威に警戒を怠らないようにする必要がある。 さらに、それほど機密性が高くないコンテンツでも問題が発生する可能性があります。アンケートやクイズは、長時間の会議やチームのコミュニケーションを退屈なものにしません。生成 AI は、会話の内容に基づいてこれらの資料を作成するための効率的なオプションです。しかし、親戚や友人の病気やペットの死といった具体的な情報について言及すると、AI は非常に恥ずかしい茶番劇を作り上げてしまう可能性があります。 業界情報プラットフォームである GlobalData の破壊的技術担当副プロジェクトマネージャー、サウラブ・ダガ氏は、「生成 AI は共感、道徳的判断、人間同士の微妙な差異の理解に欠けることが多く、そのためそのような環境ではうまく機能しない」と強調した。同氏が挙げた敏感な領域は、マイクロソフトのガイドラインとも似ている。「特に、エラーが重大な法的、財務的、または健康関連の影響を及ぼす可能性があるような、リスクの高い決定には AI を使用しないことが最善です。」 さらに、マルチモーダル モデルを使用してさまざまな問題を処理する前に、テキストと画像を混合するこの種の生成 AI ツールにはまず注意する必要があります。間違ったタイトルによって、優れたコンテンツが不快な画像に変わってしまう可能性があるためです。さらに、画像生成モデルでは、看護師はすべて女性であり、企業の役員はすべて男性であると簡単に想定されます。 デル テクノロジーズの AI 戦略担当シニア バイスプレジデントであるマット ベイカー氏は、「特に生成 AI は、過去に存在していたが真剣に対処されてこなかった問題を増幅させる可能性があります。たとえば、プロセス管理におけるアルゴリズムの偏りは、人事や採用に影響を及ぼす可能性があります。組織は、生成 AI ツールが最大の利益を生み出し、リスクを最小限に抑えられるように、データの衛生、優先順位付け、機密性の問題を率直に検討する必要があります」と警告しています。 AIが常に正しいと想定しない優れたパフォーマンスにもかかわらず、生成 AI ツールは本質的には依然として確率的です。つまり、それらはしばしば間違っており、それによって生じる結果が不正確、不公平、または不快になる危険性があるが、それらの言葉は非常に自信に満ち、説得力があるため、誤りは気付かれないことが多い。 重要なのは、すぐに使用できる結果を期待せず、生成 AI は信頼できないことを認識することです。完成した完璧な結論としてではなく、新しいアイデアのインスピレーションの源として考えた方が良いでしょう。 そのため、Microsoft は生成 AI ツールのほとんどに Autopilot ではなく Copilot を使用しています。マイクロソフトの CEO サティア・ナデラ氏は、今年の夏の Inspire カンファレンスで、「人間が関与し、協力的に設計される必要がある。つまり、人間は常に強力な AI 支援ツールを制御し、AI は人間がさまざまなタスクを完了するのを支援する必要がある」と述べた。生成 AI の応用の鍵として、より良い結果を得るためにはプロンプトの使い方を学ばなければならない。 Copilot Lab のようなツールはすでに、従業員がこの分野でスキルを習得するのに役立っています。 同様に、自動化されたプロセスを直接使用するのではなく、生成 AI ツール用の独自のワークフローを構築し、従業員が AI によって生成されたコンテンツを試して評価するように促します。提示された優先オプションをそのまま受け入れるのではなく、AI の推奨事項の根拠となる特定の情報に注意を払い、結果を批判的に検討し、引用されている情報源を確認することが重要であることに注意してください。そのまま使用すると、時間の節約にならないだけでなく、誤りや偏見により大きなトラブルを引き起こす可能性もあります。 また、ユーザーは、生成 AI から受け取る推奨事項と決定を完全に理解し、対応する潜在的な結果を理解し、他の人にそれを正当化する必要があります。英国情報コミッショナー事務局は、「組織がAI支援による意思決定について説明しない場合、評判の失墜、世間の批判、さらには規制当局からの介入に直面する可能性がある」と警告している。 より信頼性の高いアプローチは、AI に毎回複数の選択肢を提示し、その提案について詳細な説明を提供するように依頼することです。さらに、大規模言語モデルの現在の応答の推論プロセスと判断理由を導くために、正確で包括的な手がかり語を使用する必要があります。生成 AI に重要な情報源を引用させるだけでなく、日付、統計、ポリシー、信頼できる慣行など、慎重な検証を必要とする重要な要素を強調表示する方法を検討してください。 最終的には、上記の措置は新しい職場文化を確立することを目的としています。この文化では、生成 AI は人間の創造性や判断力を直接置き換えるものではなく、実証されるべき実用的なツールと見なされています。 ダガ氏は、「生成型AIやその他のAI技術は、人間の意思決定を補強するために使われるべきであり、既存の制限内で、特に危害が発生する可能性がある場合に人間に取って代わるべきではない。人間の審査員は、AIモデルの結論を合理的であるかのように受け入れるのではなく、AIモデルの出力を批判的に評価するように訓練されるべきである」と述べた。 プロセスに人間によるレビューを導入し、AI の推奨事項の実験と徹底的な評価を奨励することに加えて、適用できないタスクの完全自動化を防ぐためのガードレールを導入する必要もあります。ダガ氏はさらに、「例えば、AI が企業のプレスリリースを作成するとしても、ジャーナリストや出版社と共有できる最終版を承認して送信できるのは人間の編集者だけです」と付け加えた。 生成 AI は、新しいコードベースの構築、定型コードの記入、関数の自動補完、ユニット テストの生成など、開発者の生産性の向上にも役立ちます。この追加の生産性を活用する必要がありますが、このコードが人間によるレビューなしに本番環境に流れ込まないようにすることも重要です。 コロラド州に拠点を置くコンサルティング会社SageableのグローバルCTO兼創設者であるアンディ・マン氏は、企業は自らの選択の結果、特にAIの不適切な導入によって引き起こされる悪影響に対して責任を負うべきだと述べた。 「顧客は『すべてAIのせいだ』という話には耳を貸さないでしょう。データ侵害の責任はすべて人間にあるとされるでしょう。 ” AIを隠さないAI システムを責任を持って使用するには、社内従業員と外部顧客の両方にとって良好な透明性が重要な前提条件となります。しかし、恥ずかしいことに、多くの出版物が AI 生成コンテンツを使い始めており、その質の悪さは読者が一目見ただけですぐにわかることが多いのです。高品質なコンテンツであっても、社内会議の要約、マーケティング情報、チャットボットの応答など、AI システムによって生成されたコンテンツは明確にマークする必要があります。チャットボットなどの自動化システムには、ユーザーがいつでも人間に引き継ぐことができる「出口ランプ」を必ず用意してください。 ダガ氏の見解では、「顧客には生成AIとのやり取りを拒否する権利、特にデリケートな内容についてAIと話し合うことを拒否する権利があるべきだ」という。 AIはすべての問題を解決できるわけではないビジネスシーンで AI を活用することが広く普及するにつれ、AI の提案に対してより積極的、積極的、かつ厳格な判断を下す必要があります。昨年の「DevOps自動化状況レポート」では、IT実務者の80%がこの問題を認識しており、2023年の「DevOps自動化とAI状況調査」では、この割合は90%を超えています。 マン氏は、この注意は、特に特定の分野でのトレーニングデータが限られている場合には意味があり、出力結果の予測可能性、合理性、検証可能性を確保することがさらに必要であると述べた。 IT 運用を例にとると、トレーニング データが不十分になると、AI モデルは簡単に不正確な結果を生成します。 彼は、「生成型 AI は、新しい問題に取り組む必要があり、論理の連鎖がまだ明確でなく、関連する知識が欠落または限られているさまざまなユースケースでは、用途が限られています。潜在的な入力が広く入手できないニッチな知識だけである場合、大規模で安定した信頼性の高い言語モデルをトレーニングすることは不可能です」と警告しました。 しかし、彼はアシスタントとしての生成 AI の重要性も認識しています。 「それは、トレーニング エンジンに分野横断的な定義と知識ベースを投入して既知の問題を特定し、既知の原因を診断し、既知の非効率性を特定し、既知の修復策で対応することで、「既知の良好な」IT 運用を理解するコンサルタントまたはプロアクティブな専門家になることができます。 「しかし、油断は禁物です。慣れたプロセスやソリューションで解決できそうな新たな IT 問題であっても、どのような例外が発生するかを事前に予測するのは困難です。 マン氏は次のように結論付けています。「AI に未知の未知を解決するよう求められた場合、AI は問題に対処できないことを認めようとしないことがほとんどで、誤解を招く、誤った、誤った、あるいは悪意のある結果を出す可能性が高くなります。 ” 時には人間の作業負荷が増加する生成 AI によって出力されるコンテンツは役立つことが多いものの、導入のしきい値が低いため、盲目的に使用するとレビューの負担が増加し、実務者に不必要な作業負荷がかかることがあります。 多くのレジャー雑誌は、AIによって書かれた低品質の記事を大量に受け取っており、その影響はサービス拒否攻撃のレベルにまで達していると報告しています。出版社は、AI を使って書籍を改訂し、磨きをかける実験を行ってきましたが、作家や編集者によると、専門用語、特定の文体、複雑な文構造、正確な単語の選択などに関しては、AI が提案する変更は役に立たなかったり、効果がなかったり、まったく間違っていたりすることが多いそうです。しかし、初心者にとっては、このような状況に遭遇することはほとんどありません。したがって、現実的になって、生成 AI がプラスの貢献をできる分野を正直に検討してください。 AI ツールを導入するための重要な前提条件は、エラーが発見されるたびに個別に調整するのではなく、まずエラー処理プロセスを確立することです。生成 AI が間違いから学習できる、または同じプロンプトが常に同じ結果を示すと想定しないでください。重要なコンテンツについては、プロンプトワードエンジニアリングとフィルターを使用して、関連する結果を制限してください。 さらに、計画されていなかった領域やプロセスでも生成 AI を採用する準備をしておきましょう。新しいテクノロジーはこれらの領域やプロセスではうまく機能しない可能性がありますが、透明性が高ければ問題解決に役立つことがよくあります。従業員は、組織が生成 AI の使用をいつ許可するか、また許容される使用ポリシーをどのように開示するかを理解する必要があります。さらに、生成 AI を監査や電子フォレンジックに組み込むことも必要ですが、具体的な形式は企業のチャット システムによって異なります。 組織は急いでこれらのポリシーの策定をできるだけ早く開始する必要があるかもしれません。 TECHnaanalysis Research が今春、米国企業 1,000 社を対象に調査したところ、回答者の 88% がすでに生成 AI を使用していると回答したが、早期導入企業のうち正式な管理ポリシーを定めていたのはわずか 7% だった。 AI テクノロジーの機会に関する最近の IDC の調査では、ビジネス リーダーの 4 分の 1 以上が、AI ガバナンスとリスク管理システムの欠如がテクノロジーの実装/拡張を制限する大きな課題であると述べています。企業データの漏洩に関する懸念に加え、企業の評判へのダメージももう一つの優先事項です。さらに、回答者の半数以上が、主に開発者やデータエンジニアを中心として、熟練した技術者を見つけられないことが大きな障害になっていると回答しました。さらに、理工学のバックグラウンドを持たない事業部門の従業員も、AIツールに正確な質問をし、その結果を評価・検証する方法を学ぶためのトレーニングを受ける必要があります。 |
<<: ワークフローをよりスマートにする 5 つの AI ツール
>>: スマート製造における AI: イノベーションと効率の推進
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
[[263815]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
人工知能は、21 世紀の世界のテクノロジー主導型市場において最も注目されている破壊的テクノロジーです...
2017年11月17日、中国情報産業発展センターの指導の下、中国ソフトウェア評価センターが主催し、...
インテリジェント時代の到来とともに、テクノロジー生活は家庭システム全体を席巻しています。さまざまなス...
[[401455]]地熱発電は地球の地下の自然の熱を利用して電気を生み出すので、魅力的な点がたくさん...
最近、ホワイトハウスの国家サイバースペース局長室(ONCD)は、「基本的な構成要素への回帰:安全なソ...
新しいテクノロジー、特に人工知能 (AI) の急速な台頭により、教育と指導は大きな変化の瀬戸際にあり...
導入画像分類は、コンピューター ビジョンの最も重要なアプリケーションの 1 つです。その応用範囲は、...
[[441407]]同型文字列LeetCode の質問へのリンク: https://leetcode...
[[203607]]教育革命が静かに起こっています。この革命はトップダウンの制度改革ではなく、ボトム...
[[313942]] [51CTO.com クイック翻訳] ご存知のとおり、ディープラーニングは人...
Data & Society の新しいレポートでは、機械学習を使用して改変されるディープフェ...