Estudo sugere que chatbots de IA representam risco "perigoso" ao fornecerem aconselhamento médico.

Segundo um estudo da Universidade de Oxford, os chatbots de IA fornecem conselhos médicos imprecisos e inconsistentes, o que pode representar riscos para os usuários. A pesquisa constatou que as pessoas que usaram IA para obter aconselhamento sobre saúde receberam uma mistura de respostas boas e ruins, o que dificultou identificar em qual conselho deveriam confiar. Em novembro de 2025, uma pesquisa realizada pela Mental Health UK revelou que mais de um em cada três residentes do Reino Unido utiliza inteligência artificial para apoiar sua saúde mental ou bem-estar. A Dra. Rebecca Payne, médica responsável pelo estudo, afirmou que pode ser "perigoso" para as pessoas perguntarem a chatbots sobre seus sintomas.

Os pesquisadores apresentaram cenários a 1.300 pessoas, como ter uma forte dor de cabeça ou ser uma mãe recente que se sentia constantemente exausta. Eles foram divididos em dois grupos, sendo que um deles utilizou IA para ajudá-los a descobrir o que poderiam ter e decidir o que fazer em seguida. Em seguida, os pesquisadores avaliaram se as pessoas identificaram corretamente o que poderia estar errado e se deveriam consultar um clínico geral ou ir ao pronto-socorro.

Disseram que as pessoas que usavam IA muitas vezes não sabiam o que perguntar e recebiam uma variedade de respostas diferentes, dependendo de como formulavam a pergunta. O chatbot respondeu com uma mistura de informações, e as pessoas tiveram dificuldade em distinguir o que era útil do que não era. O Dr. Adam Mahdi, autor principal do estudo, disse à BBC que, embora a IA seja capaz de fornecer informações médicas, as pessoas "têm dificuldade em obter conselhos úteis dela".

"As pessoas compartilham informações gradualmente", disse ele. "Eles omitem informações, não mencionam tudo. Então, em nosso estudo, quando a IA listou três condições possíveis, as pessoas tiveram que adivinhar qual delas se encaixava. É exatamente nesse momento que as coisas começariam a desmoronar." O autor principal, Andrew Bean, afirmou que a análise ilustrou como a interação com humanos representa um desafio "mesmo para os melhores" modelos de IA. "Esperamos que este trabalho contribua para o desenvolvimento de sistemas de IA mais seguros e úteis", disse ele.

A Dra. Amber W. Childs, professora associada de psiquiatria na Escola de Medicina de Yale, afirmou que, como os chatbots são treinados com base em práticas e dados médicos atuais, eles também enfrentam o problema adicional de repetir preconceitos que estão "enraizados nas práticas médicas há décadas". "Um chatbot só é um bom diagnosticador se clínicos experientes forem capazes de diagnosticar, e mesmo assim, a qualidade não é perfeita", disse ela.

Entretanto, o Dr. Bertalan Meskó, editor do The Medical Futurist, publicação que prevê tendências tecnológicas na área da saúde, afirmou que haverá novidades nesse setor. Ele afirmou que duas grandes desenvolvedoras de IA, a OpenAI e a Anthropic, lançaram recentemente versões de seus chatbots gerais voltadas para a área da saúde, e que, em sua opinião, "certamente produziriam resultados diferentes em um estudo semelhante". Ele afirmou que o objetivo deveria ser "continuar aprimorando" a tecnologia, especialmente "as versões relacionadas à saúde, com regulamentações nacionais claras, diretrizes regulatórias e orientações médicas". 

fonte: BBC

0 Comentários