A Amazon identificou centenas de milhares de arquivos com suspeita de envolverem abuso sexual infantil. Esses arquivos estavam em bases de dados usadas para treinar modelos de inteligência artificial (IA) da empresa. Esse volume de registros, enviado ao órgão americano de proteção à infância (NCMEC), causou um aumento de 15 vezes nas denúncias ligadas à IA em 2025. A Amazon foi a responsável pela maioria delas.
Embora a empresa tenha removido o conteúdo antes de usá-lo, especialistas criticam a falta de informações sobre a origem dos arquivos. Sem saber de onde os dados vieram, a polícia não consegue localizar criminosos ou resgatar vítimas.
Falta de detalhes sobre origem de arquivos suspeitos não ajuda trabalhos da polícia
Em 2025, a Amazon enviou mais de um milhão de relatórios de abuso infantil ligados à IA. Foi um aumento grande quando comparado aos 64 mil enviados em 2024. A empresa explica que os dados foram coletados de fontes externas e da internet aberta. E alega não ter detalhes técnicos que ajudem a polícia a rastrear os responsáveis. No entanto, o NCMEC aponta que outras empresas do setor, como Google e OpenAI, enviam poucas denúncias, mas fornecem dados detalhados que permitem investigações reais.
Para justificar a quantidade massiva de alertas, a Amazon diz usar uma configuração de busca “muito sensível” no intuito de garantir que nada passe despercebido. Isso gera muitos falsos positivos (casos que parecem crime, mas não são). O NCMEC reforça que apenas avisar que o crime existe, sem dar pistas de quem o cometeu, não ajuda a proteger crianças em perigo imediato. A organização, que inclusive recebe financiamento da Amazon, pede mais transparência sobre como esses bancos de dados são limpos e organizados.
A busca rápida para lançar novas IAs faz com que as empresas “puxem” volumes gigantes de dados da internet sem uma verificação profunda de segurança. David Thiel, pesquisador da área, alerta que a prioridade tem sido a velocidade em vez da análise ética sobre o que alimenta esses modelos. Como os dados vêm de terceiros ou são coletados automaticamente da web, a responsabilidade sobre quem postou o material criminoso se dilui. Além disso, o perigo de usar dados suspeitos, segundo pesquisadores, é que a IA pode aprender padrões abusivos e ganhar a capacidade de sexualizar fotos de crianças reais e/ou de gerar imagens sintéticas de abuso.
Até o momento, a Amazon afirma que suas IAs não geraram imagens de abuso a partir desse treinamento. A detecção foi feita por um sistema que compara imagens com um banco de dados de crimes já conhecidos, processo chamado de “hashing”. A empresa prometeu divulgar dados mais detalhados sobre suas práticas de segurança em março de 2026.
(Essa matéria usou informações de Bloomberg.)
O post Amazon detecta arquivos suspeitos de abuso infantil em treinamento de IA apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2026/01/29/inteligencia-artificial/amazon-detecta-arquivos-suspeitos-de-abuso-infantil-em-treinamento-de-ia/
