Os chatbots de IA estão a lutar para se tornarem a próxima grande novidade na saúde, destacando-se em testes padronizados e oferecendo aconselhamento para os seus problemas médicos. Mas um novo estudo publicado na Nature Medicine mostrou que eles não só estão longe de alcançar esse objetivo, como podem, na verdade, ser perigosos. O estudo, liderado por várias equipas da Universidade de Oxford, identificou uma lacuna notável nos Modelos de Linguagem de Grande Escala (LLMs). Embora fossem tecnicamente altamente avançados no entendimento médico, eles não conseguiram ajudar eficazmente os utilizadores com problemas médicos pessoais, descobriram os investigadores. “Apesar de toda a hype, a IA simplesmente não está pronta para assumir o papel do médico,” afirmou a Dra. Rebecca Payne, a principal profissional médica do estudo, num comunicado de imprensa a anunciar os resultados. Ela acrescentou que, “Os pacientes precisam de estar cientes de que perguntar a um modelo de linguagem grande sobre os seus sintomas pode ser perigoso, levando a diagnósticos incorretos e a falhas em reconhecer quando é necessária ajuda urgente.” O estudo envolveu 1.300 participantes que usaram modelos de IA da OpenAI, Meta e Cohere para identificar condições de saúde. Eles apresentaram uma série de cenários desenvolvidos por médicos, pedindo ao sistema de IA que lhes dissesse o que deveriam fazer a seguir para lidar com o seu problema médico.
Os resultados do estudo mostraram que estes não eram melhores do que métodos tradicionais de auto-diagnóstico, como procurar informações online ou até mesmo julgamento pessoal. Também foi constatado que havia uma desconexão por parte dos utilizadores, que não sabiam que informações o LLM precisava para oferecer aconselhamento preciso. Os utilizadores receberam uma combinação de bons e maus conselhos, dificultando a identificação dos próximos passos. A Decrypt contactou a OpenAI, Meta e Cohere para comentários e atualizará este artigo caso recebam resposta.
“Como médico, há muito mais do que simplesmente recordar factos para chegar ao diagnóstico correto. A medicina é uma arte bem como uma ciência. Ouvir, questionar, esclarecer, verificar a compreensão e orientar a conversa são essenciais,” afirmou Payne à Decrypt. “Os médicos ativamente solicitam sintomas relevantes porque os pacientes muitas vezes não sabem quais detalhes são importantes,” explicou, acrescentando que o estudo mostrou que os LLMs “ainda não conseguem gerir de forma fiável essa interação dinâmica com não especialistas.” A equipa concluiu que a IA simplesmente não está preparada para oferecer aconselhamento médico neste momento, sendo necessário desenvolver novos sistemas de avaliação se algum dia for utilizada de forma adequada na saúde. No entanto, isso não significa que não tenham um lugar na área médica como está atualmente. Embora os LLMs “definitivamente tenham um papel na saúde,” afirmou Payne, esse papel deve ser de “secretário, não de médico.” A tecnologia tem benefícios na “resumir e reembalar informações já fornecidas,” com os LLMs já a serem utilizados em consultórios para “transcrever consultas e reformatar essa informação numa carta para um especialista, numa folha de informações para o paciente ou para os registos médicos,” explicou. A equipa concluiu que, embora não sejam contra a IA na saúde, esperam que este estudo possa ajudar a orientá-la melhor na direção certa.