8月27日、OpenAIのチャットボットChatGPTは世界中で人気となっているものの、重要な分野で人間の専門家に取って代わるにはまだまだ遠いことが新たな研究で明らかになった。ハーバード大学医学部付属のブリガム・アンド・ウィメンズ病院の研究者らは、ChatGPTによって生成されたがん治療計画には間違いがたくさんあることを発見した。 JAMA Oncology誌に掲載されたこの研究では、ChatGPTにさまざまな癌症例の治療オプションについて質問したところ、回答の3分の1に誤った情報が含まれていたことが判明した。この調査では、ChatGPT は真実の情報と虚偽の情報を混在させる傾向があり、どの情報が正確であるかを識別するのが困難であることも指摘されています。 研究の共著者であるダニエル・ビターマン博士は、「正しい情報に誤情報が混じり、専門家でさえ間違いを見つけるのが困難だったことに驚いた」と述べている。また、「大規模な言語モデルは、非常に説得力のある応答を提供するように訓練されているが、正確な医学的アドバイスを提供するようには設計されていない。応答の誤り率と不安定性は、臨床現場で対処する必要がある重要な安全性の問題である」と付け加えた。 ChatGPTは2022年11月のローンチ後、一夜にして大ヒットとなり、2か月後にはアクティブユーザー数1億人に到達しました。 ChatGPT の成功にもかかわらず、生成 AI モデルは依然として「幻覚」を起こしやすく、誤解を招くような情報や完全に誤った情報を自信を持って提供してしまいます。 IT Homeは、主に管理業務の簡素化を目的として、人工知能を医療分野に統合する取り組みがすでに進行中であると指摘した。今月初め、大規模な研究により、乳がんの検査に人工知能を使用することは安全であり、放射線科医の作業負荷をほぼ半分に削減できる可能性があることが判明した。ハーバード大学のコンピューター科学者は最近、このモデルの最新バージョンであるGPT-4が米国の医師免許試験に簡単に合格できることを発見した。これは、GPT-4が一部の医師よりも優れた臨床判断力を持っていることを示唆している。 それでも、ChatGPT のような生成モデルには精度の問題があるため、近い将来に医師に取って代わることはなさそうです。 JAMA Oncology誌の研究では、ChatGPTの回答の12.5%が「錯覚」であり、進行した病気に対する局所治療や免疫療法について尋ねられたときに誤った情報を与える可能性が最も高いことが判明しました。 OpenAIはChatGPTが信頼できない可能性があることを認めており、同社の利用規約では、同社のモデルは医療情報を提供することを目的としたものではなく、「深刻な病状の診断や治療サービスを提供する」ために使用すべきではないと警告している。 |
<<: GPT-4 よりも優れており、クローズドソース モデルよりも優れています。コードラマの謎のバージョンが公開
「人工知能」は最近、特に資本市場で非常に人気があります。実は、これはすべて予想されたことです。物語を...
AI トレンドがあらゆるところで広がる 2021 年を迎える準備はできていますか? ここでは、202...
9月10日、ファーウェイHarmonyOSテクノロジーコミュニティの年間優秀共同構築パートナー選定結...
大規模言語モデル (LLM) の開発と応用により、人工知能の分野で LLM ベースの自律エージェント...
今日のサイバーセキュリティの脅威がますます深刻化する中、セキュリティ オペレーション センター (S...
IT リーダーは、まずユースケースに合わせて戦略を最適化し、次世代 AI の可能性と落とし穴を実用的...
1 年前、私は数人の友人と機械学習 API を構築するためのオープンソース プラットフォームである ...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
近年、モノのインターネット、ビッグデータ、人工知能などのホットなテクノロジーワードが毎日テクノロジー...
[[432441]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
畳み込みニューラルネットワーク(CNN)と衛星画像データを使用して地域の所得レベルを予測する手法がま...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
Apriori アルゴリズムと比較すると、FP-growth アルゴリズムではデータベースを 2 回...
[51CTO.comからのオリジナル記事] 51CTOが主催するWOTI2017グローバルイノベーシ...