ChatGPT がまたトラブルに巻き込まれました! OpenAI が初の AI 名誉毀損訴訟に直面!

ChatGPT がまたトラブルに巻き込まれました! OpenAI が初の AI 名誉毀損訴訟に直面!

51CTOウェブサイトコンテンツ調査に参加するにはクリックしてください

著者: 徐潔成

ChatGPT の登場以来、その強力な理解力と情報要約機能により、ChatGPT はさまざまな業界の実務家にとって強力なアシスタントとして急速に普及しています。プログラマー、ライター、学生、ジャーナリストなど、ChatGPT の助けを借りて実際の作業効率を向上させることができます。

しかし、その一方で、幻覚の問題は、それほど昔に誕生したばかりのこのチャットボットを常に悩ませてきました。関連するシナリオが増え続けるにつれて、ChatGPT の幻覚がユーザーや親会社である OpenAI に問題を引き起こすケースが増え始めました。

少し前、ある記者が ChatGPT に、アメリカ銃権利財団 (SAF) が関与する事件の概要をレポートのために依頼しました。しかし、幻覚の影響を受けて、ChatGPTは存在しない汚職事件をでっち上げ、財団とほとんど関係のないラジオ司会者に虚偽の罪を着せた。

ラジオ司会者は、ChatGPTから悪意を持って中傷されたことを知り、怒りに任せてOpenAIを訴えた。これにより、この急成長中の企業は、人工知能に関する初の名誉毀損訴訟を起こされた。

1. ラジオ司会者が銃器財団の幹部に就任

この事件の主人公、マーク・ウォルターズは、ラジオ番組「アームド・アメリカ」の司会者です。武器を所持する法的権利の支持者として、ウォルターズ氏はさまざまな手段を通じて国民に武器を所持する法的権利を支持するよう頻繁に呼びかけている。銃権利財団は、銃の自由への貢献を称え、2017年にウォルターズ氏に功労賞を授与した。

マーク・ウォルターズ

しかし、ChatGPT が誤ってウォルターズ氏を SAF に結び付けたのも、この賞のせいでした。記者から事件の概要とSAFの概要を提供するよう求められたとき、ChatGPTはどういうわけかマーク・ウォルターズ氏の名前を刑事告発に結び付けました。

ChatGPTが記者に提供した要約によると、SAF賞を受賞しただけのラジオ司会者が、SAFの最高財務責任者兼会計係に転身した。さらにひどいのは、ChatGPTが幻覚に駆られて、ウォルターズが地位を利用して財団の資金を詐取し横領したという容疑も捏造したことだ。

記者がChatGPTに関連訴訟の具体的な事件ファイルを提供し続けるよう求めたところ、ChatGPTは依然として存在しない事件文書を作成したふりをしました。文書をより本物らしく見せるために、ChatGPTは記者に偽の事件番号を積極的に提供しました。

ウォルターズ氏は記者からこの事件について知ったとき非常に怒り、すぐに弁護士を雇ってOpenAIを法廷で訴えた。ウォルターズ氏は、ChatGPTによる彼に対する告発は虚偽かつ悪意のあるものであり、印刷物、文章、写真を通じて彼の評判を傷つけ、世間からの憎悪、軽蔑、嘲笑にさらされたと述べた。

訴訟文書

裁判所が公開した情報によると、ウォルターズ氏は個人的損失と弁護士費用の賠償を求めてOpenAIを訴えた。しかし、司法界が合意に達していないため、この事件はまだ正式に審理されていない。ウォルターズ氏が請求した賠償金については、事件が公判に進むことが確定した場合、賠償金は公判時に決定されると裁判所は述べた。

2. ChatGPT はなぜいつも嘘をつくのですか?

周知のとおり、ChatGPT は長い間幻覚問題を抱えており、訴訟を起こしたのは今回が初めてではありません。ほんの数週間前、ある弁護士が ChatGPT に事件資料の整理を依頼しましたが、ChatGPT が提供した 6 件の事件はすべて偽物であり、不注意な弁護士は危うく職を失いそうになりました。

ウォルターズ氏の場合、AIシステムに詳しい法学教授のユージン氏は、ChatGPTが幻覚を起こした理由は記者との会話履歴の影響による可能性があると分析した。 ChatGPT の回答は会話のコンテキストに基づいています。会話履歴にエラーや不明瞭な情報がある場合、ChatGPT はその影響を受けやすくなります。

ChatGPTとのやり取りにおいて、記者はまずChatGPTに対し、正確なリンクや文書ではなく、SAF関連の事例や概要を提供するよう求めた。現時点でChatGPTのトレーニングデータに不正確な情報や内容の不足があれば、幻覚を引き起こす可能性が高い。

その後、記者はChatGPTに、生成した事例の関連ファイルを提供するよう依頼しました。ユーザーのニーズを満たすために、ChatGPTは類似のファイルのスタイルを模倣し、存在しない事例が見つからない場合は本物と区別がつかない文書を自動的に生成しました。

ユージン氏は、ChatGPT の幻覚は記者による不正確な指示によって引き起こされる可能性があると強調した。しかし、今回のケースでは、通報者はChatGPTに積極的に詐欺行為を誘導したわけではなく、ChatGPTに対して通常の要求をしただけなので、引き起こされた影響はユーザーとは何の関係もありません。

3. OpenAI は責任を負うべきでしょうか?

ウォルターズ氏の弁護士モンロー氏はインタビューで次のように語った。「OpenAIはChatGPTの利用規約で、「ユーザーは出力結果の手動レビューを含め、使用事例に基づいて出力の正確さを評価する必要がある」と述べている。」しかし、OpenAI は、このような単純な注釈を付けるだけでは名誉毀損の責任を免れることはできません。

ChatGPT ステートメント

ウォルターズ氏が裁判所に提出した訴状では、OpenAIはChatGPTが時々事実を捏造し、その現象を幻覚と呼んでいたことを以前から認識していたと指摘されている。この事件は、人工知能システムに関する企業の法的責任を試す重要な例である。OpenAIは自社の人工知能システムが名誉毀損情報を公開していることを知っていたが、明らかに混乱を招くようなトリックに頼ってこれを回避しようとした。

この点について、ユージン教授は法律の観点からも自身の見解を述べた。名誉毀損罪に関する法的責任において、原告が「被告の陳述が虚偽であることを証明できる」かつ「被告の虚偽陳述行為が原告の実際の利益を損なったことを証明できる」場合、名誉毀損の請求は原則として合法であると述べた。

しかし、ユージン氏は、自身の知る限り、人工知能が出力するコンテンツに対して企業に責任を負わせる法的前例は現在のところ存在しないとも述べた。このような名誉毀損の申し立ては原則的には可能ですが、ウォルターズ氏は事後にOpenAIに虚偽の情報を通知して削除する機会を与えなかったため、この特定の訴訟は継続が困難になるはずです。また、ChatGPTの出力が彼に実際の損害を与えたことを効果的に証明することも困難です。

4. ネットユーザーからの熱いコメント: すべて幻覚だ

OpenAIを法廷に引きずり込んだこの前例のない訴訟は、ネット上でも大きな騒動を引き起こし、多数のネットユーザーの間で幅広い議論を引き起こした。

ベリリウム・スフィアはスラッシュドットのメッセージでこう書いている。「企業の機械が過失により損害を引き起こした場合、その企業は責任を負うべきだ。」 OpenAI は ChatGPT の出力が信頼できないことは確かであり、ホームページでもその旨を明記していますが、そのような警告だけでは責任を回避するのに十分ではないという Walters 氏の意見には私も同意します。

Koga Onutalepo 氏は次のように述べました。「それにもかかわらず、OpenAI がこの件の責任者であるとは考えにくい。OpenAI はこの複雑な自動システムを作成しただけだ。」彼はモデレーターについて何も知らず、ChatGPT は単にプロンプ​​トに基づいて妥当そうな説明を生成しただけだった。OpenAI が責任を負わされた場合、多くの人が ChatGPT に好きなストーリーを捏造するよう依頼し、それに基づいて OpenAI を訴えることができるようだ。

JJMORRIS2000 は Reddit に次のようなメッセージを残しました: 「これが私が「幻覚」という言葉を嫌う理由です。」ChatGPT が答えを得るプロセスは、さまざまなランダムなパスをたどってテキスト文字列を生成し、最終的に正しいと思われるものを見つけるだけです。したがって、間違った答えを生成することが錯覚であると考えられる場合、正しい答えを生成することも実際には錯覚であると考えられます。

結局のところ、大規模モデルの幻覚問題を根本的に解決することはまだできていません。しかし、ChatGPT が主導する人工知能ツールがさまざまな業界に浸透し続けるにつれて、将来的には、生成型人工知能がもたらす利便性を享受する一方で、テクノロジー、法律、監督の分野でさらに未知の課題に直面する運命にあります。

この段階で私たちにできることは、すべての問題に対して合理的な見方を維持し、さまざまな経験から蓄積された経験に頼り、生成型人工知能の監視と制御を徐々に改善することです。テクノロジーのマイナス面を減らしつつ、その価値を最大化していくこと。これは私たちが今後も考え続け、解決に向けて努力していかなければならない最も重要な課題です。

最後に、この前例のない名誉毀損訴訟について、皆さんの意見はどのようなものでしょうか?

参考リンク:

https://arstechnica.com/tech-policy/2023/06/openai-sued-for-defamation-after-chatgpt-fabricated-yet-another-lawsuit/2/

https://www.theregister.com/2023/06/08/radio_host_sues_openai_claims/

https://yro.slashdot.org/story/23/06/08/229235/man-sues-openai-claiming-chatgpt-hallucination-said-he-embezzled-money

<<:  自動で本を書いてくれるChatGPTプラグイン3つが人気に。何もしなくてもAI自身にお金を稼ぐ方法をもっと質問できる!

>>:  ChatGPTメジャーアップデート!新しい API 関数呼び出し、コンテキストが 4 倍に急増、価格が下落

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

企業は適切なAI推論を得る方法を知る必要がある

人工知能は、Amazon、Google、Microsoft、Netflix、Spotify などの大...

EU AI法が規則を承認

欧州連合の人工知能法(AI法)は、政策立案者が画期的な規制のルールをうまく策定したことで、法律化に向...

岐路に立つ交通:自動運転の未来はどうなるのか?

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

OpenAIがChatGPT Enterprise Editionをリリース: GPT-4の無制限使用、より高いセキュリティとプライバシー保護

8月29日、OpenAIは、企業ユーザーのニーズを満たし、より高いセキュリティとプライバシー保護を提...

人工知能がプログラマーに取って代わるまでにはどれくらい時間がかかるのでしょうか?

予測によると、AI の影響を最も受ける職業の 1 つはアプリケーション開発者です。結局のところ、Ch...

国連チーフAIアドバイザーとの独占インタビュー:AIは完璧だと期待しているが、決して完璧ではない

[[384962]]ビッグデータダイジェスト制作出典: informationweek編纂者:張大毓...

中国科学院、中国初のクラウドベースの人工知能チップを発表

5月3日、上海国際会議センターで行われた記者会見で、カンブリアン・テクノロジーズのCEO、陳天石氏が...

...

クラウド セキュリティにおける生成 AI: アクションよりもノイズが多い? !

翻訳者 | ジン・ヤンレビュー | Chonglou人工知能はクラウド セキュリティの次の大きなトレ...

DeepSpeed ZeRO++: ネットワーク通信を4倍削減し、大規模モデルやChatGPTのようなモデルのトレーニング効率を大幅に向上

大規模な AI モデルがデジタルの世界を変えています。大規模言語モデル (LLM) に基づく Tur...

正規化を放棄することで、ディープラーニングモデルの精度は前例のないレベルに到達しました

データを機械学習モデルに渡すときには、データを正規化する必要があることはわかっています。データの正規...

MetaチーフAIサイエンティストLeCun Yang氏:ChatGPTは犬ほど賢くない

6月16日のニュース: 人工知能技術の急速な進歩に伴い、その潜在的な危険性についての議論がますます白...