![]() |
| Foto reprodução: G1 |
O uso de inteligência artificial para criar imagens íntimas falsas de mulheres sem autorização configura crime no Brasil, segundo especialistas em direito digital ouvidos pelo g1. A prática, que vem sendo classificada como uma forma de violência digital, pode resultar em multa, prisão e outras sanções legais.
Desde o fim do mês passado, a rede social X tem sido inundada por imagens manipuladas que retratam mulheres reais em situações de nudez ou com roupas íntimas. As montagens são produzidas com o Grok, ferramenta de inteligência artificial integrada à plataforma de Elon Musk.
Na última quinta-feira (8), o g1 revelou o caso de uma brasileira que teve fotos retiradas de suas redes sociais e usadas para gerar imagens falsas de nudez no antigo Twitter. Antes disso, a jornalista Julie Yukari também denunciou à polícia que teve imagens manipuladas pela mesma ferramenta, no dia 2.
De acordo com advogados, esse tipo de conduta é enquadrado na legislação penal brasileira. O artigo 216-B do Código Penal prevê pena de detenção de seis meses a um ano, além de multa, para quem produz ou divulga conteúdo íntimo sem consentimento. Para os especialistas, o crime não se resume ao uso indevido da imagem, mas à criação artificial de uma situação de intimidade inexistente.
Além da responsabilização criminal, a lei brasileira determina a remoção imediata do conteúdo mediante simples notificação da vítima, sem necessidade de decisão judicial. Caso contrário, a plataforma pode ser responsabilizada civilmente. Embora ainda não exista uma lei específica sobre deepfakes, esse tipo de prática também pode se enquadrar em crimes contra a honra, como calúnia, difamação e injúria.
Se houver repetição, perseguição ou intimidação, o caso pode ainda ser caracterizado como stalking. Desde 2025, o Código Penal passou a prever agravantes para crimes cometidos com o uso de inteligência artificial, especialmente quando há dano emocional à mulher, com penas que podem chegar a dois anos de prisão.
Especialistas explicam que quem faz o “prompt” o comando enviado à IA é considerado o autor direto do crime. Quem compartilha ou replica o conteúdo também responde criminalmente, já que contribui para ampliar o dano à vítima.
Embora ferramentas de “IA de nudez” existam há anos, o que chama atenção no caso do Grok é a facilidade de acesso, a rapidez na produção das imagens e a ampla disseminação nas redes sociais. Dados citados pela agência Bloomberg indicam que, entre os dias 5 e 6 deste mês, a IA do X gerou cerca de 6.700 imagens por hora classificadas como sexualmente sugestivas ou de nudez.
Para pesquisadores, a qualidade cada vez maior dessas imagens e a velocidade de produção aumentam os riscos de uso abusivo. Especialistas alertam que a capacidade de uso indevido da tecnologia avança mais rápido do que os mecanismos de controle adotados pelas plataformas.
Uma das vítimas, identificada como Giovanna*, relatou choque e sofrimento ao descobrir que uma foto sua havia sido manipulada. A imagem original havia sido publicada em seu Instagram e mostrava apenas um momento comum do dia a dia. No X, a foto foi repostada por um usuário que solicitou ao Grok a criação de uma versão em biquíni.
O g1 identificou diversas solicitações semelhantes feitas pela mesma conta, que reunia imagens manipuladas de outras mulheres. Não foram encontrados casos envolvendo homens, o que reforça o alerta de especialistas sobre o viés de gênero e o impacto desproporcional desse tipo de violência contra mulheres.
Fonte: G1

