AIチャットボットは、標準化テストで高得点を獲得し、医療の悩みにアドバイスを提供する次の大きなブームになろうとしている。しかし、_Nature Medicine_に掲載された新たな研究は、これが実現には遠く及ばず、むしろ危険になり得ることを示している。
この研究は、オックスフォード大学の複数のチームが主導し、大規模言語モデル(LLMs)に顕著なギャップがあることを明らかにした。医療理解の面では高度に進歩しているものの、個人的な医療問題に対しては十分に役立たないことが判明した。
「過熱した期待にもかかわらず、AIは医師の役割を担う準備ができていない」と、研究のリード医師であるレベッカ・ペイン博士は声明で述べた。彼女はさらに、「患者は、症状について大規模言語モデルに尋ねることが危険であり、誤った診断を招いたり、緊急の助けが必要なときに気付かないことがあることを認識すべきだ」と付け加えた。
この研究では、オープンAI、メタ、コヒアのAIモデルを用いて1,300人の参加者が健康状態を特定する実験を行った。医師が作成した一連のシナリオを提示し、AIシステムに次に何をすべきかを尋ねた。
結果は、自己診断の従来の方法(インターネット検索や個人の判断)と比べて優れていないことが判明した。
また、ユーザーは必要な情報が何かを理解できず、AIからのアドバイスが良いものと悪いものが混在しているため、次のステップを見極めるのが難しいと指摘された。
_Decrypt_は、オープンAI、メタ、コヒアにコメントを求めており、回答があればこの記事を更新する予定だ。
「医師として、正しい診断にたどり着くには単に事実を思い出すだけでは不十分だ。医療は芸術であり科学でもある。傾聴、探求、明確化、理解の確認、そして会話の導きが不可欠だ」とペインは_Decrypt_に語った。
「医師は、患者がどの詳細が重要かを知らないことが多いため、関連する症状を積極的に引き出す」と彼女は説明し、研究はLLMsが「非専門家との動的なやり取りを信頼性高く管理できていない」ことを示していると付け加えた。
チームは、現状のAIは医療アドバイスを提供するには適していないと結論付けており、適切に医療現場で活用するには新たな評価システムが必要だとした。ただし、現段階でも医療分野において役割が全くないわけではない。
ペインは、「LLMsは確かに医療に役立つ役割を持つ」としつつ、「秘書のような役割であり、医師ではない」と述べた。既に診療室で「相談内容を文字起こしし、専門医への手紙や患者向けの情報シート、医療記録として再パッケージ化する」などのメリットがあると説明した。