Principais destaques:
- Investigação aponta que resumos de IA do Google exibiram conselhos médicos incorretos no topo das buscas.
- Especialistas alertam que erros podem levar pacientes a decisões que afetam tratamentos e diagnósticos.
- O Google afirma que a maioria das respostas é precisa e que recomenda sempre a busca por orientação profissional.
Uma investigação publicada pelo The Guardian revelou que o recurso AI Overviews do Google tem apresentado informações médicas imprecisas e, em alguns casos, potencialmente perigosas.
O problema preocupa profissionais de saúde porque esses resumos aparecem em destaque nos resultados de busca, aumentando a chance de serem seguidos sem verificação adicional.
O levantamento identificou situações em que a IA forneceu orientações contrárias às recomendações médicas aceitas.
Em um dos exemplos mais graves, pacientes com câncer de pâncreas foram aconselhados a evitar alimentos ricos em gordura, justamente o oposto do que costuma ser indicado para ajudar na manutenção do peso e na tolerância a tratamentos agressivos.
Conselhos errados que podem custar caro
Especialistas alertam que seguir esse tipo de orientação pode comprometer a capacidade do paciente de enfrentar quimioterapia ou cirurgia.
Anna Jewell, pesquisadora da Pancreatic Cancer UK, afirmou que recomendações assim podem dificultar a ingestão de calorias suficientes, prejudicando o tratamento e a recuperação.
Segundo os profissionais, o risco se agrava porque muitos usuários confiam automaticamente nas respostas que aparecem em destaque, sem perceber que se tratam de resumos gerados por inteligência artificial.
Erros em exames e saúde mental
A investigação também encontrou falhas em outros temas sensíveis.
Em buscas sobre câncer vaginal, o sistema citou incorretamente o exame de Papanicolau como teste para esse tipo específico de câncer, quando na realidade ele é usado para rastreamento do colo do útero. Instituições de saúde classificaram a informação como totalmente equivocada.
Além disso, houve problemas na interpretação de exames de sangue do fígado, sem considerar fatores como idade, sexo ou etnia, o que pode levar pessoas com doenças graves a acreditarem que estão saudáveis.
Questões relacionadas à saúde mental, como psicose e transtornos alimentares, também apresentaram orientações confusas ou incompletas.
A resposta do Google e a preocupação crescente
Em nota, o Google afirmou investir fortemente na qualidade das Visões Gerais de IA, especialmente em temas de saúde, e disse que a maioria das respostas é confiável.
A empresa argumentou que alguns exemplos divulgados eram recortes incompletos e reforçou que o sistema direciona o usuário a fontes reconhecidas e recomenda buscar aconselhamento profissional.
Mesmo assim, o caso amplia o debate sobre o uso de conteúdo gerado por IA em áreas sensíveis.
Estudos recentes já apontaram problemas semelhantes em conselhos financeiros e resumos de notícias, reforçando a necessidade de cautela e checagem quando a tecnologia assume o papel de intermediária da informação.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google – e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!
Clique aqui e faça parte da nossa rede de apoiadores.
