8月27日、OpenAIのチャットボットChatGPTは世界中で人気となっているものの、重要な分野で人間の専門家に取って代わるにはまだまだ遠いことが新たな研究で明らかになった。ハーバード大学医学部付属のブリガム・アンド・ウィメンズ病院の研究者らは、ChatGPTによって生成されたがん治療計画には間違いがたくさんあることを発見した。 JAMA Oncology誌に掲載されたこの研究では、ChatGPTにさまざまな癌症例の治療オプションについて質問したところ、回答の3分の1に誤った情報が含まれていたことが判明した。この調査では、ChatGPT は真実の情報と虚偽の情報を混在させる傾向があり、どの情報が正確であるかを識別するのが困難であることも指摘されています。 研究の共著者であるダニエル・ビターマン博士は、「正しい情報に誤情報が混じり、専門家でさえ間違いを見つけるのが困難だったことに驚いた」と述べている。また、「大規模な言語モデルは、非常に説得力のある応答を提供するように訓練されているが、正確な医学的アドバイスを提供するようには設計されていない。応答の誤り率と不安定性は、臨床現場で対処する必要がある重要な安全性の問題である」と付け加えた。 ChatGPTは2022年11月のローンチ後、一夜にして大ヒットとなり、2か月後にはアクティブユーザー数1億人に到達しました。 ChatGPT の成功にもかかわらず、生成 AI モデルは依然として「幻覚」を起こしやすく、誤解を招くような情報や完全に誤った情報を自信を持って提供してしまいます。 IT Homeは、主に管理業務の簡素化を目的として、人工知能を医療分野に統合する取り組みがすでに進行中であると指摘した。今月初め、大規模な研究により、乳がんの検査に人工知能を使用することは安全であり、放射線科医の作業負荷をほぼ半分に削減できる可能性があることが判明した。ハーバード大学のコンピューター科学者は最近、このモデルの最新バージョンであるGPT-4が米国の医師免許試験に簡単に合格できることを発見した。これは、GPT-4が一部の医師よりも優れた臨床判断力を持っていることを示唆している。 それでも、ChatGPT のような生成モデルには精度の問題があるため、近い将来に医師に取って代わることはなさそうです。 JAMA Oncology誌の研究では、ChatGPTの回答の12.5%が「錯覚」であり、進行した病気に対する局所治療や免疫療法について尋ねられたときに誤った情報を与える可能性が最も高いことが判明しました。 OpenAIはChatGPTが信頼できない可能性があることを認めており、同社の利用規約では、同社のモデルは医療情報を提供することを目的としたものではなく、「深刻な病状の診断や治療サービスを提供する」ために使用すべきではないと警告している。 |
<<: GPT-4 よりも優れており、クローズドソース モデルよりも優れています。コードラマの謎のバージョンが公開
[[248236]]皆さんは、イ・セドルと柯潔を破った Google の「Alpha Go」をまだ覚...
国府如和の長年にわたる指導過程において、多くの学生が次のような質問をしました。機械学習は実際のビジネ...
科学者たちは、人工知能が多くの分野で人間を日常的な作業から解放できると信じています。ヘルスケアはこう...
今日、企業組織は意思決定に人工知能や機械学習モデルをますます頼りにしており、こうした意思決定は私たち...
[[402482]]最近、当社の業務システムは、トークン バケット アルゴリズムに基づいて実装された...
2017年杭州雲奇大会が11日、杭州で開催されました。8年前のアリババクラウド開発者会議から8年後...
この記事は、AI LLMフレームワークアーキテクチャシリーズの第2弾です。通信モジュール人工知能 (...
LoRAShear は、言語モデリング (LLM) を最適化し、知識を保存するために Microso...
現在、我が国の南北はともに洪水の季節を迎え、大雨が頻繁に発生し、洪水の予防と制御は危機的な段階に達し...
[[203712]]ニューラルネットワークを自分で構築するのは複雑すぎますか? [[203713]...
最近、米国プリンストン大学の研究者らがソフトロボットを製造する新しい方法を開発しました。このロボット...
まずは二分木についてお話しましょう。二分木は、各ポイントが 2 つのポイントに接続されているツリー構...