Ferramentas de IA de Google e OpenAI viram alvo de exploração para deepfakes de biquíni

Ferramentas de IA de Google e OpenAI viram alvo de exploração para deepfakes de biquíni

Principais destaques:

  • Investigações mostram que ferramentas de geração de imagens do Google e da OpenAI foram exploradas para criar deepfakes sexualizados sem consentimento.
  • Comunidades online compartilharam instruções para burlar filtros de segurança, ampliando riscos para mulheres.
  • Pressão regulatória cresce nos EUA e no Reino Unido para responsabilizar plataformas e coibir o abuso.

Ferramentas modernas de geração de imagens voltaram ao centro do debate após uma investigação da WIRED revelar como usuários conseguiram transformar fotos de mulheres totalmente vestidas em imagens de biquíni.

O caso expõe limites práticos da moderação em sistemas cada vez mais fotorrealistas e reacende discussões sobre consentimento, fiscalização e responsabilidade corporativa no uso de inteligência artificial.

Como as brechas foram exploradas

Segundo a apuração, usuários trocaram passo a passo em fóruns do Reddit para manipular o Gemini e o ChatGPT Images. Em testes limitados, comandos simples em inglês teriam sido suficientes para contornar salvaguardas.

Após a denúncia, conteúdos foram removidos e comunidades envolvidas acabaram banidas, mas o episódio evidenciou a velocidade com que métodos de evasão se espalham.

Respostas das empresas e limites da moderação

O Google afirma manter políticas claras contra conteúdo sexualmente explícito e diz aprimorar continuamente seus sistemas. A OpenAI reforça que suas regras proíbem alterar a aparência de alguém sem consentimento e que aplica sanções a quem viola as diretrizes.

Ainda assim, o avanço das capacidades de edição e realismo desafia os mecanismos de detecção, especialmente após atualizações recentes que ampliaram o poder criativo das plataformas.

Impacto social e pressão por leis mais duras

Organizações de direitos digitais alertam para danos reais. A Electronic Frontier Foundation, por meio de sua diretora jurídica Corynne McSherry, classifica imagens abusivamente sexualizadas como um risco central da IA generativa.

Nos EUA, parlamentares como Celeste Maloy e Jake Auchincloss apresentaram propostas para retirar proteções legais de plataformas que não removerem deepfakes não consensuais após denúncia.

No Reino Unido, a secretária de Tecnologia Liz Kendall anunciou medidas para criminalizar até a criação desse tipo de material, sinalizando uma abordagem mais rígida.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google – e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Autor

  • Gaby Souza é criador do MdroidTech, especialista em tecnologia, aplicativos, jogos e tendências do mundo digital. Com anos de experiência testando dispositivos e softwares, compartilha análises, tutoriais e notícias para ajudar usuários a aproveitarem ao máximo seus aparelhos. Apaixonado por inovação, mantém o compromisso de entregar conteúdo original, confiável e fácil de entender