
O que você faria se encontrasse uma foto sua modificada por IA? Uma adolescente de Nova Jersey passou por isso e teve uma imagem transformada por um software de “remoção de roupas”.
A jovem, com o apoio de um professor da Faculdade de Direito de Yale, seus alunos e um advogado, moveu uma ação contra o desenvolvedor do aplicativo por gerar fotos de adultos e adolescentes nus sem consentimento.
Processo pede que todas as fotos sem consentimento sejam excluídas
Segundo o The Wall Street Journal, a empresa AI/Robotics Venture Strategy 3 Ltd., responsável pela ferramenta ClothOff, foi acusada de gerar imagens falsas de nudez por meio de inteligência artificial.
O caso começou há dois anos, quando a jovem, então com 14 anos, descobriu que um colega havia usado uma foto sua em traje de banho para criar uma imagem manipulada, que foi compartilhada entre alunos da escola.
Leia mais:
- Seu corpo, sua voz e seu rosto ainda são seus? A IA pode fazer você duvidar
- Deepfakes sexuais atingem escolas em todas as regiões do Brasil, revela pesquisa
- Califórnia estabelece multa milionária para quem criar pornografia com IA
A ação também cita o aplicativo Telegram, que hospedava um bot do ClothOff, já removido da plataforma. A jovem pede que o tribunal determine a exclusão definitiva das imagens e o bloqueio do site nos EUA.

No processo, a autora solicita que todas as imagens de nudez de crianças e adultos sem consentimento sejam excluídas e que não sejam utilizadas para treinar os modelos de IA da empresa.
Em resposta, a companhia, sediada nas Ilhas Virgens e operada a partir da Bielorrússia, afirma que o uso de imagens de menores é tecnicamente “impossível” e que incentiva o uso ético da IA. Já o Telegram, afirmou em nota que “pornografia não consensual e as ferramentas para criá-la são explicitamente proibidas pelos termos de serviço do Telegram e são removidas sempre que descobertas.”
Como foi o caso
- Aos 14 anos, a adolescente postou no Instagram uma foto em que aparecia de maiô.
- Um colega de classe teria baixado a foto e usado uma ferramenta de inteligência artificial para gerar uma imagem falsa de nudez.
- As imagens adulteradas, que mostravam os rostos reais e reconhecíveis da menina e de outras vítimas, teriam sido compartilhadas entre estudantes.
- As vítimas descobriram que suas fotos haviam sido manipuladas e expostas sem consentimento.
- Uma das jovens moveu uma ação judicial contra a ferramenta de IA ClothOff, acusando a empresa de permitir a criação e disseminação das imagens falsas.
- A denúncia argumenta que o material criado configura abuso sexual infantil.

Lei afirma que é crime federal publicar imagens íntimas não consensuais
Em maio de 2025, o Congresso dos EUA aprovou o Take It Down Act, que torna crime federal a divulgação de imagens íntimas sem autorização, sejam elas reais ou geradas por IA. A lei obriga sites a removê-las em até 48 horas.
A vítima do caso ClothOff afirma viver com medo de ver suas imagens usadas online. Enquanto isso, o procurador da cidade de São Francisco, David Chiu, entrou com uma ação em 2024 contra 16 sites de nudez deepfake mais visitados do mundo, incluindo o ClothOff. Muitos desses sites foram fechados.
Não vamos parar até que todos os proprietários sejam responsabilizados.
David Chiu, procurador da cidade de São Francisco, ao WSJ.
O post Inteligência artificial gera imagens íntimas falsas de adolescentes nos EUA apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/10/17/seguranca/inteligencia-artificial-gera-imagens-intimas-falsas-de-adolescentes-nos-eua/