AIチャットボットが「危険な」医療アドバイスを提供する恐れ、オックスフォード大学の研究が警告

Decrypt

要点

  • オックスフォード大学の研究によると、AIチャットボットは危険な医療アドバイスをユーザーに提供している可能性がある。
  • チャットボットは標準化された医療知識のテストでは高得点を獲得する一方、個人的なシナリオでは劣ることが判明した。
  • 研究者たちは、大規模言語モデル(LLMs)は従来の方法と比べて医療判断において優れていないと結論付けた。

AIチャットボットは、標準化テストで高得点を獲得し、医療の悩みにアドバイスを提供する次の大きなブームになろうとしている。しかし、_Nature Medicine_に掲載された新たな研究は、これが実現には遠く及ばず、むしろ危険になり得ることを示している。

この研究は、オックスフォード大学の複数のチームが主導し、大規模言語モデル(LLMs)に顕著なギャップがあることを明らかにした。医療理解の面では高度に進歩しているものの、個人的な医療問題に対しては十分に役立たないことが判明した。

「過熱した期待にもかかわらず、AIは医師の役割を担う準備ができていない」と、研究のリード医師であるレベッカ・ペイン博士は声明で述べた。彼女はさらに、「患者は、症状について大規模言語モデルに尋ねることが危険であり、誤った診断を招いたり、緊急の助けが必要なときに気付かないことがあることを認識すべきだ」と付け加えた。

この研究では、オープンAI、メタ、コヒアのAIモデルを用いて1,300人の参加者が健康状態を特定する実験を行った。医師が作成した一連のシナリオを提示し、AIシステムに次に何をすべきかを尋ねた。

 結果は、自己診断の従来の方法(インターネット検索や個人の判断)と比べて優れていないことが判明した。

また、ユーザーは必要な情報が何かを理解できず、AIからのアドバイスが良いものと悪いものが混在しているため、次のステップを見極めるのが難しいと指摘された。

_Decrypt_は、オープンAI、メタ、コヒアにコメントを求めており、回答があればこの記事を更新する予定だ。

「医師として、正しい診断にたどり着くには単に事実を思い出すだけでは不十分だ。医療は芸術であり科学でもある。傾聴、探求、明確化、理解の確認、そして会話の導きが不可欠だ」とペインは_Decrypt_に語った。

「医師は、患者がどの詳細が重要かを知らないことが多いため、関連する症状を積極的に引き出す」と彼女は説明し、研究はLLMsが「非専門家との動的なやり取りを信頼性高く管理できていない」ことを示していると付け加えた。

チームは、現状のAIは医療アドバイスを提供するには適していないと結論付けており、適切に医療現場で活用するには新たな評価システムが必要だとした。ただし、現段階でも医療分野において役割が全くないわけではない。

ペインは、「LLMsは確かに医療に役立つ役割を持つ」としつつ、「秘書のような役割であり、医師ではない」と述べた。既に診療室で「相談内容を文字起こしし、専門医への手紙や患者向けの情報シート、医療記録として再パッケージ化する」などのメリットがあると説明した。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし