8月27日、OpenAIのチャットボットChatGPTは世界中で人気となっているものの、重要な分野で人間の専門家に取って代わるにはまだまだ遠いことが新たな研究で明らかになった。ハーバード大学医学部付属のブリガム・アンド・ウィメンズ病院の研究者らは、ChatGPTによって生成されたがん治療計画には間違いがたくさんあることを発見した。 JAMA Oncology誌に掲載されたこの研究では、ChatGPTにさまざまな癌症例の治療オプションについて質問したところ、回答の3分の1に誤った情報が含まれていたことが判明した。この調査では、ChatGPT は真実の情報と虚偽の情報を混在させる傾向があり、どの情報が正確であるかを識別するのが困難であることも指摘されています。 研究の共著者であるダニエル・ビターマン博士は、「正しい情報に誤情報が混じり、専門家でさえ間違いを見つけるのが困難だったことに驚いた」と述べている。また、「大規模な言語モデルは、非常に説得力のある応答を提供するように訓練されているが、正確な医学的アドバイスを提供するようには設計されていない。応答の誤り率と不安定性は、臨床現場で対処する必要がある重要な安全性の問題である」と付け加えた。 ChatGPTは2022年11月のローンチ後、一夜にして大ヒットとなり、2か月後にはアクティブユーザー数1億人に到達しました。 ChatGPT の成功にもかかわらず、生成 AI モデルは依然として「幻覚」を起こしやすく、誤解を招くような情報や完全に誤った情報を自信を持って提供してしまいます。 IT Homeは、主に管理業務の簡素化を目的として、人工知能を医療分野に統合する取り組みがすでに進行中であると指摘した。今月初め、大規模な研究により、乳がんの検査に人工知能を使用することは安全であり、放射線科医の作業負荷をほぼ半分に削減できる可能性があることが判明した。ハーバード大学のコンピューター科学者は最近、このモデルの最新バージョンであるGPT-4が米国の医師免許試験に簡単に合格できることを発見した。これは、GPT-4が一部の医師よりも優れた臨床判断力を持っていることを示唆している。 それでも、ChatGPT のような生成モデルには精度の問題があるため、近い将来に医師に取って代わることはなさそうです。 JAMA Oncology誌の研究では、ChatGPTの回答の12.5%が「錯覚」であり、進行した病気に対する局所治療や免疫療法について尋ねられたときに誤った情報を与える可能性が最も高いことが判明しました。 OpenAIはChatGPTが信頼できない可能性があることを認めており、同社の利用規約では、同社のモデルは医療情報を提供することを目的としたものではなく、「深刻な病状の診断や治療サービスを提供する」ために使用すべきではないと警告している。 |
<<: GPT-4 よりも優れており、クローズドソース モデルよりも優れています。コードラマの謎のバージョンが公開
[[207759]]導入FPGA ベースの汎用 CNN アクセラレーション設計により、FPGA 開発...
韓国のお笑いタレント、パク・チソンさんとその母親が自宅で死亡しているのが発見されたが、これはうつ病が...
[[317566]] 、新型コロナウイルスは世界的な感染拡大段階に入り、記事執筆時点で中国国内の累...
革命的な新しい人工知能プログラムは、画像の欠けている部分をすべて完璧に再現できることをすぐに納得させ...
[[195122]]周知のとおり、Weibo のビジネスは 2015 年以降急速に成長しています。内...
リン・ジエル科学技術の継続的な進歩と発展に伴い、人工知能の発展は時代の必然的な流れであり、我が国の経...
最近、新しい「特許法」の全文が公布され、新たに改正された「著作権法」が公布されたことにより、国は知的...
[51CTO.com クイック翻訳] 今日言及された事故のほとんどはAI自体と直接関係はありませんが...
9月28日早朝、Meta Connect 2023において、MetaはMeta AIという新しいチャ...
組織が業務を効率化し、ビジネスイニシアチブをサポートするために、実行可能で信頼性が高く、俊敏な機械学...
最近、Sinovation Venturesの創設者であるKai-Fu Lee氏が「AIの急速な時代...
[[377307]] 1. アルゴリズムの評価基準ソートアルゴリズムを説明する前に、まずアルゴリズム...