IA do Google é acusada de divulgar orientações médicas perigosas

IA do Google é acusada de divulgar orientações médicas perigosas

Principais destaques:

  • Investigação aponta que resumos de IA do Google exibiram conselhos médicos incorretos no topo das buscas.
  • Especialistas alertam que erros podem levar pacientes a decisões que afetam tratamentos e diagnósticos.
  • O Google afirma que a maioria das respostas é precisa e que recomenda sempre a busca por orientação profissional.

Uma investigação publicada pelo The Guardian revelou que o recurso AI Overviews do Google tem apresentado informações médicas imprecisas e, em alguns casos, potencialmente perigosas.

O problema preocupa profissionais de saúde porque esses resumos aparecem em destaque nos resultados de busca, aumentando a chance de serem seguidos sem verificação adicional.

O levantamento identificou situações em que a IA forneceu orientações contrárias às recomendações médicas aceitas.

Em um dos exemplos mais graves, pacientes com câncer de pâncreas foram aconselhados a evitar alimentos ricos em gordura, justamente o oposto do que costuma ser indicado para ajudar na manutenção do peso e na tolerância a tratamentos agressivos.

Conselhos errados que podem custar caro

Especialistas alertam que seguir esse tipo de orientação pode comprometer a capacidade do paciente de enfrentar quimioterapia ou cirurgia.

Anna Jewell, pesquisadora da Pancreatic Cancer UK, afirmou que recomendações assim podem dificultar a ingestão de calorias suficientes, prejudicando o tratamento e a recuperação.

Segundo os profissionais, o risco se agrava porque muitos usuários confiam automaticamente nas respostas que aparecem em destaque, sem perceber que se tratam de resumos gerados por inteligência artificial.

Erros em exames e saúde mental

A investigação também encontrou falhas em outros temas sensíveis.

Em buscas sobre câncer vaginal, o sistema citou incorretamente o exame de Papanicolau como teste para esse tipo específico de câncer, quando na realidade ele é usado para rastreamento do colo do útero. Instituições de saúde classificaram a informação como totalmente equivocada.

Além disso, houve problemas na interpretação de exames de sangue do fígado, sem considerar fatores como idade, sexo ou etnia, o que pode levar pessoas com doenças graves a acreditarem que estão saudáveis.

Questões relacionadas à saúde mental, como psicose e transtornos alimentares, também apresentaram orientações confusas ou incompletas.

A resposta do Google e a preocupação crescente

Em nota, o Google afirmou investir fortemente na qualidade das Visões Gerais de IA, especialmente em temas de saúde, e disse que a maioria das respostas é confiável.

A empresa argumentou que alguns exemplos divulgados eram recortes incompletos e reforçou que o sistema direciona o usuário a fontes reconhecidas e recomenda buscar aconselhamento profissional.

Mesmo assim, o caso amplia o debate sobre o uso de conteúdo gerado por IA em áreas sensíveis.

Estudos recentes já apontaram problemas semelhantes em conselhos financeiros e resumos de notícias, reforçando a necessidade de cautela e checagem quando a tecnologia assume o papel de intermediária da informação.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google – e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Autor

  • Gaby Souza é criador do MdroidTech, especialista em tecnologia, aplicativos, jogos e tendências do mundo digital. Com anos de experiência testando dispositivos e softwares, compartilha análises, tutoriais e notícias para ajudar usuários a aproveitarem ao máximo seus aparelhos. Apaixonado por inovação, mantém o compromisso de entregar conteúdo original, confiável e fácil de entender