ChatGPT のバイラルな成功により、テクノロジー企業間で AI 製品を市場に投入するための激しい競争が巻き起こった。 Googleは最近、ChatGPTの競合製品であるBardをリリースした。一方、Open AIの投資家であるMicrosoft(MSFT)は、Bing AIチャットボットを限られた数のテスターに展開した。 しかし、この発表により、この技術に対する懸念が高まっている。 Google と Microsoft の両ツールのデモンストレーションは、事実誤認があると批判されている。一方、マイクロソフトは、ユーザーから対立的な発言や暗い空想などの不快な応答が報告されたことを受けて、Bing チャットボットを抑制しようとしている。 一部の企業では、従業員に ChatGPT を日常業務に取り入れることを奨励しています。しかし、リスクを心配する人もいます。顧客の機密情報を取り扱い、政府規制当局から厳しい監視を受けている銀行業界には、慎重に行動する特別な動機がある。学校側も、課題の不正行為に利用される可能性があるとの懸念から、ChatGPT を制限している。ニューヨーク市の公立学校は1月にこれを禁止した。統計によると、従業員の 4% 以上が会社の機密データを大規模な言語モデルに入力しており、その普及により大量の機密情報漏洩が発生する可能性があるという懸念が生じています。 ChatGPTの機能ChatGPT は、会話に参加したりタスクを実行したりするようにトレーニングできる AI 言語プラットフォームです。 ChatGPT のような AI をトレーニングするには、膨大なデータセットをコンピューター アルゴリズムに入力します。次に、モデルを評価して、これまでに見たことのないデータを見たときにどれだけ正確に予測できるかを判断します。次に、AI ツールは、これまでに見たことのない大量の新しいデータを処理する際にモデルが適切に機能するかどうかを判断するためのテストを実行します。 ChatGPT は職場のプロセスの効率性を向上させることができますが、雇用主にとって法的リスクも生じます。 AI のトレーニングと学習の方法を考えると、従業員が ChatGPT を使用して職務を遂行する場合、雇用主にとって重大なリスクが生じる可能性があります。従業員が ChatGPT などのソースから仕事に関連する情報を入手する場合、正確性と偏りが懸念事項となります。雇用主は、ChatGPT やその他の AI ツールを使用する際に従業員が直面する可能性のある法的リスクを評価する必要があります。このニーズは、職場での機密性とプライバシー、偏見と公平性、法令遵守と説明責任の問題に対処します。 正確性とAIへの依存ChatGPT が AI 言語モデルとして情報を提供できる能力は、トレーニング フェーズで学習した情報と同じくらい優れています。 ChatGPT は大量のオンライン情報でトレーニングされましたが、知識ベースにはまだギャップがありました。 ChatGPT の現在のバージョンは、2021 年以前に利用可能なデータセットでのみトレーニングされています。さらに、このツールは必ずしも正確ではないオンライン データを抽出します。従業員が仕事関連の情報を ChatGPT に頼って事実確認を行わない場合、従業員がその情報をどのように使用し、どこに送信するかによって問題やリスクが発生する可能性があります。 従業員は、機密性の高いビジネスデータやプライバシー保護された情報を ChatGPT などの大規模言語モデル (LLM) に送信しているため、人工知能 (AI) サービスがデータをモデルに組み込む可能性があり、サービスに適切なデータセキュリティが整備されていない場合は、後で情報が取得される可能性があるという懸念が雇用主の間で高まっています。 最近のレポートによると、データセキュリティサービス Cyberhaven は、機密情報、顧客データ、ソースコード、規制対象情報が漏洩するリスクがあるため、顧客企業の従業員 40,000 人のうち 2.1% からの ChatGPT へのデータ入力リクエストを検出し、ブロックしました。したがって、雇用主は、従業員が仕事に関連する ChatGPT の情報をどのように使用するかについて具体的なガイドラインを定めるポリシーを策定する必要があります。 あるケースでは、幹部が会社の 2023 年の戦略文書を切り取って ChatGPT に貼り付け、PowerPoint スライドショーを作成するように依頼しました。別のケースでは、医師が患者の名前と病状を入力し、ChatGPT に患者の保険会社への手紙を作成するよう依頼しました。 「ChatGPTやその他のAIベースのサービスを生産性向上ツールとして利用する従業員が増えるにつれ、リスクは増大するだろう」とサイバーヘイブンのCEO、ハワード・ティン氏は述べた。 「データはオンプレミスからクラウドに移行しており、次の大きな変化はこれらの本番アプリケーションにデータを移行することになるでしょう」と彼は語った。 「それがどのように展開するかはまだ分からない。我々はまだトーナメント前の段階だと思う。まだ1回も終わっていない。」 OpenAI の ChatGPT とその基盤となる AI モデル (Generative Pre-train Transformer、または GPT-3) およびその他の LLM が急速に普及するにつれ、企業やセキュリティ専門家は、トレーニング データとしてモデルに取り込まれた機密データが、適切なクエリによってプロンプト表示されたときに再び表面化する可能性があることを懸念し始めています。一部の企業は、従業員の職場での ChatGPT の使用を制限する措置を講じています。 Walmart は、ChatGPT のような生成 AI に関して従業員に明確な指示を出しています。Walmart に関する情報を新興テクノロジーと共有しないでください。従業員への社内メモの中で、小売業者の技術およびソフトウェアエンジニアリング部門は、「当社にリスクをもたらす活動を認識した後、以前はChatGPTの使用をブロックしていました。それ以来、私たちは時間をかけて生成AIツールに関する一連の使用ガイドラインを評価および開発し、現在、ウォルマートネットワーク全体でChatGPTを使用できるようにしています」と述べています。 ウォルマートの広報担当エリン・ハリバーガー氏は、同社が生成型AIをいつブロックしたか、またその活動の性質についての問い合わせには応じなかったが、声明の中で次のように述べた。「ほとんどの新技術は新たな利点と新たなリスクを伴います。当社がこうした新技術を評価し、その使用に関する指導を従業員に提供することは珍しいことではありません。」 ウォルマートが公開したガイドラインでは、従業員に対し、財務情報や戦略情報、買い物客や従業員の個人情報など、「機密情報や秘密情報、応答情報を ChatGPT に入力しないようにする」よう指示しています。 「また、ビジネスプロセス、ポリシー、戦略など、ウォルマートのビジネスに関するいかなる情報も、これらのツールに入力されるべきではありません。」ウォルマートの従業員は、これらのツールが提供する情報に頼る前に、その出力を確認する必要があるとも考えられている。従業員は、既存のコードをこれらのツールに切り取って貼り付けたり、これらのツールを使用して新しいコードを作成したりしてはなりません。 「ウォルマートの情報をこれらのツールに入力すると、会社の情報が漏洩したり、機密が侵害されたり、コード、製品、情報、コンテンツに対する当社の権利に重大な影響が出る可能性がある」とウォルマートの広報担当者は述べた。 「すべての従業員は、ウォルマートのデータの適切な使用と保護に責任を負っています。第二に、ウォルマート・グローバル・テクノロジーは、ChatGPT を「効率性と革新性を向上させるツール」として宣伝していますが、ChatGPT やその他の生成 AI ツールは「適切に」使用する必要があります。」 ウォルマートに加え、JPモルガン・チェースも従業員によるChatGPTの使用を一時的に禁止した。事情に詳しい関係者によると、米国最大の銀行は世界中の従業員によるChatGPTの使用を制限したという。この人物は、この決定は特定の問題が原因で行われたのではなく、主にコンプライアンスの問題によるサードパーティ製ソフトウェアの制限に準拠するために行われたと述べた。 ChatGPT に機密データを送信するユーザーが増えています。 より多くのソフトウェア企業が自社のアプリを ChatGPT に接続するようになると、LLM はユーザーや企業が認識しているよりもはるかに多くの情報を収集する可能性があり、雇用主は法的リスクにさらされることになります。 リスクは理論上のものではありません。 2021年2月の論文では、Apple、Google、ハーバード大学、スタンフォード大学など、一流企業や大学の研究者12名が、いわゆる「トレーニングデータ抽出攻撃」によって、LLMのトレーニング文書から逐語的なテキストシーケンス、個人を特定できる情報(PII)、およびその他の情報を正常に復元できることを発見しました。 GPTのようなAI製品はますます増えるだろう実際、これらのトレーニング データ抽出攻撃は、機械学習研究者にとって主要な敵対的問題の 1 つです。 MITRE の Atlas ナレッジベース「人工知能システムに対する敵対的脅威」によると、こうした攻撃は「機械学習推論による侵入」とも呼ばれ、機密情報を収集したり知的財産を盗んだりする可能性があるという。 仕組みは次のとおりです。特定の項目を呼び出す方法で生成 AI システムにクエリを実行すると、攻撃者はモデルをトリガーして合成データを生成する代わりに特定の情報を呼び出すことができます。 GPT-3 は GPT-2 の後継であり、GitHub の Copilot が特定の開発者のユーザー名とコーディングの優先順位を呼び出す例など、実際の例が多数存在します。 GPT ベースの製品に加えて、他の AI ベースのサービスもリスクをもたらすかどうかという疑問を提起しています。たとえば、自動文字起こしサービス Otter.ai は、音声ファイルをテキストに書き起こし、話者を自動的に識別し、重要な単語のタグ付けやフレーズの強調表示を可能にします。同社がこの情報をクラウドに保存していることは、ユーザーの間で懸念を引き起こしている。同社は、ユーザーデータを非公開にし、強力なコンプライアンス管理を実施することに尽力していると述べた。Otter.aiのシニアコンプライアンスマネージャー、ジュリー・ウー氏によると、「OtterはSOC2タイプ2の監査とレポートを完了しており、個人データを保護するために技術的および組織的な対策を講じています。話者認識はアカウントにバインドされています。話者の名前を追加すると、Otterは、今後録音またはアカウントにインポートする会話で話者を認識するようにトレーニングされますが、アカウント間の話者認識は許可されません。」 APIはGPTの使用を加速するChatGPT の人気は多くの企業を驚かせました。 1 年前に発表された最新のデータによると、300 人以上の開発者が GPT-3 を使用してアプリケーションを強化しています。たとえば、ソーシャル メディア企業の Snap やショッピング プラットフォームの Instacart および Shopify はいずれも、API を通じて ChatGPT を使用して、モバイル アプリにチャット機能を追加しています。 同社の顧客との会話に基づくと、メモやプレゼンテーションの作成から安全インシデントのトリアージや患者とのやり取りまで、あらゆる用途にアプリケーションが使用されるようになり、生成 AI アプリケーションへの移行が加速すると予想されます。 現時点では、雇用主はこう言っているように見えます。「とりあえず、このアプリをブロックするつもりですが、取締役会からそれはできないと言われました。これらのツールは、ユーザーの生産性向上、つまり競争上の優位性を高めるのに役立つからです。競合他社がこれらの生成 AI アプリケーションを使用しているのに、自社のユーザーに使用を許可しなければ、不利になります。」 幸いなことに、リスクの高いリクエストの大半は少数の従業員によって処理されているため、従業員にセキュリティ意識を教育することで、特定の企業のデータが侵害されるかどうかに大きな影響を与えることができます。 ChatGPT に機密データを送信するインシデントの 80% は、従業員の 1% 未満が原因でした。 「ご存知のとおり、教育には 2 つの形式があります。従業員のオンボーディング時のような教室での教育と、実際にデータを入力しようとする状況での教育です。」どちらも重要ですが、実用的な結果という点では後者の方が効果的です。 さらに、OpenAI や他の企業は、LLM による個人情報や機密データへのアクセスを制限する取り組みを行っています。ChatGPT は現在、個人情報や機密性の高い企業情報を求められた場合、明確に拒否しています。 例えば、「Appleの2023年の戦略は何ですか?」と質問されたとき、ChatGPTは「AI言語モデルとして、私はAppleの機密情報や将来の計画にアクセスすることはできません。 Apple は極めて秘密主義の企業であり、通常は発表する準備ができるまで戦略や将来の計画を一般に公開しません。 ” AIに内在する偏見AIには固有の偏見という問題もあります。 EEOC がこの問題に焦点を当てているのは、同機関が施行する雇用差別法との関係があるからです。さらに、米国の州および地方の議員は、雇用主による AI の使用を制限する法律を提案しており、すでに可決しているケースもあります。 AI が提供する情報は、必然的に AI がトレーニングされる情報と、AI が受け取る情報を決定する人々に依存します。このバイアスは、ChatGPT との「会話」で投げかけられた質問に対する応答として ChatGPT が提供する情報の種類に現れる可能性があります。 さらに、ChatGPT が雇用意思決定のシナリオのコンサルティングに使用されると、差別訴訟につながる可能性があります。特定の雇用決定や監査に AI を使用すると、特定の雇用環境で AI を使用する前に事前の通知を要求する州法や地方条例の下でコンプライアンスの問題が発生する可能性もあります。 AI には偏見のリスクがあるため、雇用主は法務部門の承認なしに雇用決定に AI を使用することを全面的に禁止する規定をポリシーに含める必要があります。 プライバシーと機密の侵害機密性とデータのプライバシーは、従業員が職場で ChatGPT をどのように使用するかを検討する際に雇用主が考慮するもう 1 つの問題です。従業員は、ChatGPT と「会話」する際に、独自の情報、機密情報、または企業秘密を共有する場合があります。 ChatGPT は会話で提供された情報を保持しないとしていますが、各会話から「学習」します。もちろん、ユーザーはインターネット経由で ChatGPT との会話に情報を入力するため、そのような通信のセキュリティは保証されません。 従業員が ChatGPT に機密情報を開示すると、雇用主の機密情報が漏洩する可能性があります。賢明な雇用主は、従業員が機密情報、専有情報、または企業秘密情報を AI チャットボットや ChatGPT などの言語モデルに引用または入力することを禁止する条項を従業員の機密保持契約およびポリシーに盛り込むでしょう。 オンラインのチャットボットに提供される情報は、必ずしも企業秘密の漏洩とはならないという説得力のある議論が成り立ちます。一方、ChatGPT は大量のオンライン情報に基づいてトレーニングされているため、従業員がツールから商標、著作権、またはその他の知的財産権を有する個人または団体の情報を受け取って使用する可能性があり、雇用主にとって法的リスクが生じます。 雇用主が注意すべきその他の問題これらの法的問題に加えて、雇用主は従業員が職場で ChatGPT を使用することを許可する範囲についても考慮する必要があります。雇用主は、職場での ChatGPT の使用を許可するか、または制限するか、またその方法を検討する上で重要な岐路に立っています。 雇用主は、従業員が ChatGPT を使用して日常的な手紙やメールの作成、概要の作成、プレゼンテーションの作成などのタスクを実行することで達成できる効率性と経済性と、従業員がそのようなタスクを自分で実行した場合に失われる可能性のある開発機会を比較検討する必要があります。 ChatGPT は廃止されることはありません。1 年以内に新しい改良版が利用可能になる予定です。次のバージョンではさらに優れたものになるので、雇用主は最終的に職場での使用について取り組む必要があるでしょう。 ChatGPT がもたらす可能性のあるすべてのリスクに対して、雇用主はその利点も活用できます。議論はまだ始まったばかりです。雇用主はおそらくこれについて何らかの学習とベータテストを行うでしょうが、ChatGPT についても同様です。 |
<<: 軽量ディープラーニングフレームワーク Tinygrad
大規模言語モデルは、強力で普遍的な言語生成および理解機能を備えているため、汎用的なインテリジェントエ...
インターネットの普及は無線技術の発達に伴い、人々のライフスタイルも変えつつあります。モバイル決済、無...
ChatGPTの出現後、人々は「すべての産業がAIによって再編され、一部の職業は置き換えられ、一部の...
ドライバーモニタリングシステム(DMS)は、近年、自動車市場で注目を集めています。 DMS の出現に...
[[236501]] 「彼はただ生き残りたいだけ。どんな罪を犯したのか?」黄茂さんが亡くなった後、...
脚付きロボットといえば、Synced はこれまでにも、走ったり、ジャンプしたり、縄跳びをしたり、障害...
AI は見たものからしか学習できません。シュローファー氏と150人以上のエンジニアリング専門家からな...
最初のトレンドは、すべてのIT大手がAIクラウドサービスに多額の投資を行うことです。AI-aaS、つ...
WeChatミニプログラムにゲーム「Jump Jump」が登場して以来、多くのWeChatユーザーが...
[[413351]] UDPとTCPの違い前回の記事では、TCP の接続を確立するための 3 ウェイ...
たったこれだけで、携帯電話を交換したいですか?最近話題になっている新しいAIデバイス「AI Pin」...
簡単に言えば、機械学習とは「明示的にプログラムされなくても学習する(コンピュータの)能力」です。機械...