
Você já assistiu Minority Report? No filme dirigido por Steven Spielberg e estrelado por Tom Cruise, uma tecnologia futurista (à lá inteligência artificial) permite prever assassinatos antes que eles aconteçam, com alto grau de precisão. Na prática, isso erradica os homicídios… até que o sistema começa a apresentar problemas.
O Reino Unido levou a proposta do filme a sério. De acordo com o jornal britânico The Guardian, o governo está desenvolvendo um programa que usa algoritmos preditivos para determinar a probabilidade de uma pessoa cometer assassinato.
Além da suposta capacidade preditiva, o projeto chamou atenção por usar dados sensíveis de até meio milhão de pessoas, incluindo histórico de saúde mental e informações de vítimas de violência doméstica.
Ativistas britânicos chamaram a iniciativa de “assustadora e distópica”. Mas não é a primeira vez que uma tecnologia deste tipo vem à tona. Você já deve ter lido por aqui outros casos sobre o uso de inteligência artificial na segurança pública (como nos Estados Unidos e até mesmo no Reino Unido).
O Olhar Digital conversou com especialistas para entender a viabilidade e os impactos dessa ideia, e como a tecnologia pode ser usada de forma positiva na segurança.
‘Inteligência artificial’ para prever assassinatos levantou polêmicas
O programa do Reino Unido foi originalmente batizado de “projeto de previsão de homicídios”, mas teve o nome alterado para “compartilhamento de dados para aprimorar a avaliação de risco”. Trata-se de uma iniciativa colaborativa do Ministério de Justiça, Ministério do Interior, Polícia de Manchester e Polícia Metropolitana de Londres, descoberta pelo grupo de pressão Statewatch através de documentos obtidos pela Lei de Liberdade de Informação (a versão britânica da Lei de Acesso à Informação, vigente no Brasil).
O sistema analisa dados de 100 mil a 500 mil pessoas para tentar identificar indivíduos com maior risco de cometer crimes violentes, como assassinatos. No entanto, segundo o Statewatch, a inteligência artificial estaria sendo treinada com dados sensíveis não apenas de pessoas que já têm histórico criminal, mas também de cidadãos sem nenhum tipo de condenação. Isso inclui informações de vítimas de violência doméstica, dados de saúde mental, automutilação, vícios, situações de vulnerabilidade e até deficiências.
As autoridades negam, dizendo que apenas informações de pessoas com pelo menos uma condenação criminal foram usadas.
Segundo o Ministério da Justiça, o sistema vai “analisar as características do infrator que aumentam o risco de cometer homicídio” com o objetivo de fornecer “evidências para melhorar a avaliação de risco de crimes graves e, em última análise, contribuir para proteger o público”.
Sofia Lyall, pesquisadora do grupo, chamou o projeto de previsão de assassinatos de “assustador e distópico”, ressaltando como algoritmos preditivos são falhos e podem reforçar preconceitos estruturais, como discriminação contra comunidades racializadas e de baixa renda.
O Ministério de Justiça declarou que, por ora, o projeto está sendo conduzido “apenas para fins de pesquisa” e que um relatório sobre o assunto será publicado “oportunamente”.

Será que é uma boa ideia?
Como destacou Lyall, do Statewatch, a própria tecnologia é falha. São vários os casos de alucinações (quando a inteligência artificial inventa informações) e trechos tirados de contexto.
Luis Flávio Sapori, especialista em segurança pública e professor da PUC Minas, destaca o risco de uma iniciativa como a do Reino Unido no que diz respeito à própria previsão de assassinatos. Para ele, usar a tecnologia para determinar o potencial criminoso de um indivíduo pressupõe que o comportamento criminoso é previsível… mas não é bem assim. O especialista afirma que estudos criminológicos não têm esse tipo de exatidão, nem confiabilidade.
A inteligência artificial pode ser muito útil na previsibilidade de um indivíduo adulto que já tem uma trajetória criminosa ser um reincidente criminal depois de cumprir pena. Já existem sistemas para isso. Mas a trajetória de vida de um indivíduo não é determinada por fatores externos a ele, então não tem como prever essa dimensão.
Luis Flávio Sapori
Ele destaca como adolescentes que cometem pequenos delitos nem sempre continuam na trajetória do crime. O resultado disso seria gerar uma “seletividade penal” voltada para certos perfis raciais (principalmente de pessoas negras) ou de indivíduos vivendo em áreas de vulnerabilidade.

Já o pesquisador e doutorando em Mídia e Tecnologia Alan Tomaz de Andrade lembra que, antes mesmo das alucinações e dos erros técnicos, o problema está em quem treina as máquinas: os humanos, que inevitavelmente são seres ideológicos. Se as tecnologias forem alimentadas com dados enviesados produzidos por nós, elas os replicarão.
Isso pode causar, por exemplo, o racismo algorítmico. Dados de 2019 da Rede de Observatório de Segurança mostraram que 90,5% das pessoas detidas erroneamente por reconhecimento facial no Brasil eram negras. Em outros casos, algoritmos de associação já relacionaram pessoas pretas à criminalidade ou a animais.
Para o pesquisador, quando isso é aplicado na segurança pública, as máquinas tendem a atuar da mesma forma, reforçando ideais estruturais presentes no treinamento:
Inovação pode trazer melhorias, mas não estamos pensando nessas melhorias. Estamos pensando na contramão, em uma forma de tentar automatizar processos sem pensar no que realmente tem por trás de tudo isso… principalmente a realidade social. Então, quando falamos sobre racismo algorítmico, principalmente em sociedades que são extremamente impactadas pelo racismo, como a realidade brasileira, as tecnologias vão, consequentemente, atuar dessa mesma forma. Isso porque os dados que são produzidos e que alimentam essas máquinas reforçam esse tipo de ideal.
Alan Tomaz de Andrade
Segundo ele, antes de aplicar essas tecnologias, é preciso ter um debate intenso sobre a própria estrutura da sociedade – que produz dados enviesados em primeiro lugar -, para que os sistemas não reforcem estigmas e preconceitos históricos. Do contrário, essas máquinas vão gerar prejuízos quando começarem a funcionar.
André Carlos Ponce, diretor do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP em São Carlos e especialista em inteligência artificial, reforça essa ideia: toda a tecnologia tem riscos. O risco da IA é maior ainda porque ela é sofisticada e abrange muitos aspectos da nossa vida. Nesse caso, o cuidado tem que ser muito maior.

Mas há vantagens
A aplicação de tecnologia na segurança pública não é de todo ruim.
Ponce chama atenção para casos em que isso já existe e funciona muito bem: no caso de falsificações e plágio, por exemplo. O ser humano sozinho não consegue ter acesso a todos os materiais já produzidos para determinar se uma obra é plagiada ou falsificada, ou não. A inteligência artificial consegue.
Porém, ele defende que, em todos os casos, a tecnologia deve funcionar como uma ferramenta de apoio e os humanos é quem devem tomar a decisão.
Sapori destaca que a tecnologia na segurança pública, apesar de embrionária, já existe – não para prever o comportamento de indivíduos, mas sim para analisar fenômenos existentes, como relações criminosas, e interpretar grandes conjuntos de dados. Para ele, esse é o maior potencial da inteligência artificial na segurança.
O professor dá exemplos: a IA pode ser usada para analisar bancos de dados e mapear os locais e horários mais comuns para ocorrência de certos crimes, como roubos e furtos. Esse tipo de conhecimento permite que as autoridades ajam de forma estratégica e posicionem oficiais nesses lugares. Ou, por exemplo, para monitorar redes de veículos roubados ou de furto de carga, e planejar interceptações.
Leia mais:
- O lado obscuro da IA: o perigo invisível dos dados contaminados
- Empresas estariam vendendo dados cerebrais de usuários; entenda
- Especialistas revelam vantagens e riscos do uso de Inteligência Artificial na cibersegurança
No Brasil especificamente, algumas cidades já começaram a discutir o uso da tecnologia para esses fins. No entanto, por enquanto, o que existe é uma admiração geral com as ferramentas, sem necessariamente debater os riscos dela.
Nesse sentido, Ponce lembra: “não temos que absorver tudo que a IA pode fazer”. É preciso entender o custo benefício na sociedade. E no caso de um algoritmo para prever assassinatos, qualquer erro pode destruir a vida de uma pessoa.
O post Minority Report da vida real? Reino Unido quer tecnologia para prever assassinatos apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/05/01/seguranca/minority-report-da-vida-real-reino-unido-quer-tecnologia-para-prever-assassinatos/