Há alguns meses, aqui no Olhar Digital, comentamos que o governo britânico estava desenvolvendo um programa baseado em algoritmos preditivos para avaliar a probabilidade de uma pessoa cometer assassinato. Agora, a revelação de que a tecnologia de reconhecimento facial usada pela polícia no Reino Unido apresenta mais falsos positivos para pessoas negras e asiáticas acendeu um alerta urgente. O Ministério do Interior reconheceu a falha após novos testes.
Segundo o The Guardian, a descoberta colocou especialistas, autoridades e grupos de direitos civis em alerta.
Reconhecimento facial em xeque no Reino Unido
Os resultados mais recentes do Laboratório Nacional de Física (NPL) colocaram o reconhecimento facial no centro de uma polêmica. A análise mostrou que o sistema do banco de dados nacional da polícia tem maior probabilidade de gerar falsos positivos ao analisar rostos de pessoas negras e asiáticas, confirmando um problema já apontado por especialistas e organizações de direitos civis.
O alerta soou ainda mais alto porque os testes revelaram discrepâncias significativas entre diferentes grupos demográficos. A taxa de falsos positivos para pessoas brancas é de 0,04%, enquanto sobe para 4,0% no caso de pessoas asiáticas e 5,5% entre pessoas negras. Um dado chamou atenção: mulheres negras foram as mais afetadas, com taxa de erro de 9,9%, muito acima dos 0,4% observados entre homens negros.
A tecnologia funciona cruzando rostos captados ao vivo ou em imagens arquivadas com listas de suspeitos e bancos de dados oficiais, como registros policiais, passaportes ou imigração. A Associação de Comissários de Polícia e Crime classificou o problema como um “viés inerente preocupante”, ressaltando que o sistema foi implantado sem salvaguardas adequadas.

Como esses erros afetam a população
Além do impacto direto sobre pessoas falsamente identificadas, as falhas levantam dúvidas sobre transparência e responsabilidade no uso de tecnologias sensíveis pela polícia. Líderes do APCC questionam por que o problema, conhecido internamente há algum tempo, não foi comunicado antes às comunidades afetadas.
Para entender melhor o cenário, veja um resumo dos principais pontos:
- A taxa de erro é significativamente maior para pessoas negras e asiáticas.
- Mulheres negras apresentam o maior índice de falsos positivos.
- As falhas não foram divulgadas previamente às comunidades afetadas.
- A tecnologia segue em expansão, mesmo sob críticas.
O viés racial nessas estatísticas demonstra os impactos reais e prejudiciais de permitir que a polícia use o reconhecimento facial sem as devidas salvaguardas.
Charlie Whelton, responsável por políticas e campanhas do grupo de ativistas Liberty, ao The Guardian.

Críticas duras alimentam o debate
O contraste entre visões ficou evidente. Horas antes dos testes, a ministra Sarah Jones descreveu o reconhecimento facial como “o maior avanço desde a comparação de DNA”.
Mas o tom otimista durou pouco: grupos civis, especialistas e figuras políticas expressaram forte preocupação.
Leia mais:
- Itaú e MIT apresentam tecnologia para detectar deepfakes e ajudar a prevenir golpes
- Sistemas de reconhecimento facial apresentam falhas no Brasil, segundo especialistas
- Forças policiais do Reino Unido lançam o primeiro assistente policial com IA no país
O ex-ministro David Davis criticou a possível instalação de câmeras em shoppings, estádios e estações, dizendo “bem-vindos ao Grande Irmão, Grã-Bretanha”, e alertou que a tecnologia avança rápido demais, sem debate público adequado.
Governo lança consulta pública e um novo algoritmo
Para tentar ajustar a rota, o governo britânico lançou uma consulta pública de 10 semanas. A população será convidada a opinar sobre permitir que a polícia acesse outros bancos de dados — como imagens de passaporte e carteiras de motorista — ampliando o alcance das investigações.
O Ministério do Interior afirmou também ter adquirido um novo algoritmo, testado de forma independente, “sem viés estatisticamente significativo”, que será avaliado no início de 2026. Além disso, a Inspeção de Polícia e o órgão regulador de ciência forense do Reino Unido vão revisar o uso da tecnologia e verificar se as medidas de mitigação realmente funcionam.
O post Reconhecimento facial da polícia britânica apresenta viés contra negros e asiáticos apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/12/07/seguranca/reconhecimento-facial-da-policia-britanica-apresenta-vies-contra-negros-e-asiaticos/
