ChatGPTを運営するOpenAIのCEOサム・アルトマン氏は最近、議会公聴会で政府によるAIの規制を求め、大きな騒動を巻き起こした。 「ますます強力になるAIモデルのリスクを軽減するには、政府による規制介入が重要になると考えています」とアルトマン氏は述べた。 ChatGPT は、大量のトレーニング データに埋め込まれたパターンを学習することで、テキスト、画像、音楽などの新しいオリジナル コンテンツを自律的に作成できるテクノロジーである AIGC の一例です。 AIGC は、他の現在の機械学習技術とは多くの点で異なります。 まず、AIGC モデル (GPT や安定拡散など) の出力はオープンエンドです。これらのモデルはテキストと画像データをゼロから生成しますが、他の一般的に使用される識別 ML モデル (分類モデルや回帰モデルなど) は、明確に定義された値のセット (はい/いいえ、0 ~ 1 の数値など) に属する出力を作成します。感情分析モデルは、入力テキストに基づいて肯定的または否定的な感情を生成し、GPT 自体はさまざまな種類の入力テキストを生成できます。 さらに、現在使用されているほとんどのモデルとは対照的に、現在の AIGC モデルは膨大なデータセットでトレーニングされています。たとえば、OpenAI は 5,000 億のトークンで GPT-3 をトレーニングしました。 GPT-4、Stable Diffusion、Codex などの最新バージョンの AIGC モデルを開発している組織は、モデルのトレーニングに使用された正確なトレーニング データを公開していません。これにより、プライバシー侵害や著作権侵害の可能性についての懸念が生じています。 これらのモデルの純粋なパワーもまた、他とは一線を画しています。現在市場に出回っている AIGC モデルは過去のどのモデルよりも強力であり、特に再現するように訓練されていない「新たな特性」を示し始めています。実用的な観点から言えば、これは、ある機能に使用されたモデルを再利用して他のタスクに使用できることを意味します。 最後に、これらのモデルは本質的に不透明です。 1,750 億のパラメータを持つモデルの結果を解釈したり、特定の決定がどのように行われたかを理解したりすることは、ほぼ不可能です。同時に、この技術はまだ初期段階にあり、現在の AIGC モデルには幻覚 (明らかに誤った情報を生成する) などのよく知られた限界があり、これが新たなリスクを生み出す可能性があります。 AIGCの6つの主なリスクAIGC モデルの独自の特性により、他のタイプのモデルには見られない一連のリスクが伴います。 AIGC プロジェクトを検討する際にビジネス リーダーが注意しなければならない 6 つのリスクを以下に示します。 出力品質の問題: まず、AIGC モデルによって生成される出力の品質を確保することは、その予測不可能な性質のため、非常に困難です。マーケティング GPT モデルの結果の 1 つはブランド ガイドラインと一致しているかもしれませんが、別の結果は一致していない可能性があります。モデルが作成した広告は、ある文化的背景では適切であっても、別の文化的背景では不快に感じられる場合があります。人間であればこれらの違いをすぐに見分けることができるかもしれませんが、モデルは文化的なニュアンスを認識できず、不注意で不適切なコンテンツを生成する可能性があります。したがって、出力品質を評価するには人間によるレビューが不可欠です。 捏造された「事実」と幻想: 第二に、AIGC モデルは急速に発展しましたが、依然として明らかな限界があります。最も重要なのは、モデルが「事実」を捏造するときに生じる前述の「幻想」かもしれません。その結果は、無害なもの(綿繰り機を発明したのは誰かという虚偽の報告)になる場合もあれば、訴訟問題になるもの(でっちあげの刑事告発)になる場合もあります。エンタープライズ アプリケーションでは、モデルの幻覚が発生する可能性があるため、検索などの正確な情報が必要な状況でこれらのツールを使用する前に、重要な安全対策を講じる必要があります。 著作権およびその他の法的リスク: 3 番目に、AIGC には潜在的に重大な法的および規制上のリスクがあります。たとえば、AIGC ツールは著作権で保護された素材をクリエイターの許可なく使用します。さらに、AIGC アプリケーションの利用規約には、モデルの改善のためのユーザー インタラクション データの使用に関する明確な規定が欠けていることが多く、企業のソース コードに関連するインシデントで発生したように、プライバシーとセキュリティの問題が発生する可能性があります。さらに、AIGC モデルのトレーニング データの透明性の欠如は、プライバシー、出力の精度、年齢確認に関する懸念からイタリアが ChatGPT を一時的に禁止したことからもわかるように、規制上の影響を及ぼす可能性があります。 偏った出力: 4 番目に、AIGC モデルは、モデルのトレーニングに使用されるデータの偏りに基づいて、他のモデルと同様に偏った出力のリスクの影響を受けます。たとえば、安定拡散は「会社の CEO」の画像を表示するように指示され、白人男性の画像のみを生成する可能性があります。従来の機械学習モデルは、同様の公平性とバイアスのリスクをもたらしますが、新しい AI モデルの生成的な性質により、AIGC が顧客と直接やり取りする場合のリスクが増大します。 簡単に悪用できる: 第 5 に、AIGC の強力なパワーにより、「ジェイルブレイク」が容易になります。 GPT のトレーニングは単語予測に重点を置いていましたが、その推論機能は予想外の結果でした。 AIGC モデルの開発が進むにつれて、ユーザーはモデルの本来の機能を回避し、まったく異なる目的に使用する方法を発見する可能性があります。たとえば、メンタルヘルス チャットボットが GPT を使用して開発されている場合、悪意のある人物がチャットボットをハッキングして、不適切な応答をトリガーしたり、機密データを漏洩したりする可能性があります。 GPT 上に構築されたほぼすべてのチャット インターフェースは、リリース後すぐに「ジェイルブレイク」される可能性があります。 専門知識とコンピューティング コスト: 6 番目で最後の、AIGC 開発アプリケーションに関連する追加の具体的なビジネス リスクは、専門知識とコンピューティング リソースの可用性が限られていることです。現在、このテクノロジーを使用して回復力のあるアプリケーションを構築するためのリソースを集めることができる著名なテクノロジー企業はほんの一握りです。クラウド プロバイダーがコンピューティング能力を提供したり、組織が OpenAI や Azure の API を使用したりすることはできますが、この分野の専門知識は依然として少数の組織に集中しています。 これは、ビジネスリーダーが AIGC プロジェクトを推進すべきではないと言っているわけではありません。しかし、AIGC の取り組み中は、このテクノロジーの潜在的なリスクに常に注意を払い、必要に応じてリスクを軽減する措置を講じる必要があります。 |
<<: フォレスター:生成型AIと会話型AIが2023年のトップ10新興テクノロジーを独占
>>: 自動運転マシンビジョンの4つの基本タスクを理解するための1万語
生産性が徐々に生産と生活をカバーするようになると、ロボットはすぐに生活のあらゆる分野に参入し、一部の...
[[263855]]人工知能について考えるとき、まず頭に浮かぶのは人間とのコミュニケーション、特に非...
生成 AI 研究が新たな活力を得ています。韓国チームは、GPT に「Spyfall」と呼ばれるギャン...
私は二人の女の子の母親です。親は子供に何でも良いものを残そうとすると言われていますが、子育ての過程で...
「象は踊れるの?」もちろん踊れますよ!かつての人々の考え方では、伝統的な大企業は、組織の肥大化や閉鎖...
このレビュー記事では、著者はマルチインテリジェンス強化学習の理論的基礎を詳細に紹介し、さまざまなマル...
人工知能とその応用は間違いなくこれらの分野に革命をもたらし、新たな方向へと導いてきました。その応用範...
開発者、ライター、または AI 愛好家であれば、ChatGPT の開発元である OpenAI の最新...
エッジ コンピューティングのパフォーマンスの向上により、メモリの設計、タイプの選択、構成に課題が生じ...
[51CTO.com からのオリジナル記事] インターネットビジネスの発展に伴い、大量のデータが生...