No Brasil, o tema ganhou força após a deputada federal Erika Hilton (PSOL-SP) acionar o Ministério Público Federal (MPF), solicitando a suspensão do Grok no país. O pedido aponta riscos à privacidade, ao direito de imagem e à proteção de dados, principalmente quando envolvem crianças e adolescentes. Mas, afinal, quem pode ser responsabilizado nesses casos? Para entender a posição dos usuários e das plataformas nessa história, o TechTudo conversou com a advogada especialista em proteção de dados e Direito Digital, Camila Giacomazzi Camargo. Confira.
Embora o Brasil ainda não tenha uma lei específica para regular o uso da inteligência artificial, isso não significa que práticas abusivas fiquem sem punição. Segundo especialistas, o ordenamento jurídico já prevê responsabilização em diversos cenários, principalmente quando há violação de direitos fundamentais. No caso de imagens falsas geradas por IA, a legislação brasileira trata o conteúdo da mesma forma que imagens reais, não fazendo distinção jurídica apenas por se tratar de deepfake.
Quando o tema envolve crianças e adolescentes, a interpretação é ainda mais rigorosa. De acordo com a advogada, conteúdo sexualizado envolvendo menores é crime no Brasil mesmo quando gerado por IA, já que o Estatuto da Criança e do Adolescente considera criminosa qualquer representação desse tipo. Ainda assim, há lacunas normativas quando o debate envolve a inteligência artificial de forma mais ampla. Na avaliação da especialista, a legislação brasileira está parcialmente preparada, com cobertura para crimes como pornografia infantil e crimes contra a honra, mas ainda carece de uma regulação específica voltada à IA.
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/N/9/Gfz1hqQaGbNROvIo4lIQ/design-sem-nome-4-.jpg?w=1024&resize=1024,1024&ssl=1)