7 de dezembro de 2025
Reconhecimento facial da polícia britânica apresenta viés contra negros e
Compartilhe:

Há alguns meses, aqui no Olhar Digital, comentamos que o governo britânico estava desenvolvendo um programa baseado em algoritmos preditivos para avaliar a probabilidade de uma pessoa cometer assassinato. Agora, a revelação de que a tecnologia de reconhecimento facial usada pela polícia no Reino Unido apresenta mais falsos positivos para pessoas negras e asiáticas acendeu um alerta urgente. O Ministério do Interior reconheceu a falha após novos testes.

Segundo o The Guardian, a descoberta colocou especialistas, autoridades e grupos de direitos civis em alerta.

Viés no reconhecimento facial britânico acende alerta: falsos positivos afetam desproporcionalmente pessoas negras e asiáticas. Imagem: Rawpixel.com/Shutterstock

Reconhecimento facial em xeque no Reino Unido

Os resultados mais recentes do Laboratório Nacional de Física (NPL) colocaram o reconhecimento facial no centro de uma polêmica. A análise mostrou que o sistema do banco de dados nacional da polícia tem maior probabilidade de gerar falsos positivos ao analisar rostos de pessoas negras e asiáticas, confirmando um problema já apontado por especialistas e organizações de direitos civis.

O alerta soou ainda mais alto porque os testes revelaram discrepâncias significativas entre diferentes grupos demográficos. A taxa de falsos positivos para pessoas brancas é de 0,04%, enquanto sobe para 4,0% no caso de pessoas asiáticas e 5,5% entre pessoas negras. Um dado chamou atenção: mulheres negras foram as mais afetadas, com taxa de erro de 9,9%, muito acima dos 0,4% observados entre homens negros.

A tecnologia funciona cruzando rostos captados ao vivo ou em imagens arquivadas com listas de suspeitos e bancos de dados oficiais, como registros policiais, passaportes ou imigração. A Associação de Comissários de Polícia e Crime classificou o problema como um “viés inerente preocupante”, ressaltando que o sistema foi implantado sem salvaguardas adequadas.

Discrepâncias nos falsos positivos expõem viés: mulheres negras registram a maior taxa de erro no sistema policial britânico.
Discrepâncias nos falsos positivos expõem viés: mulheres negras registram a maior taxa de erro no sistema policial britânico. Imagem: PeopleImages / Shutterstock

Como esses erros afetam a população

Além do impacto direto sobre pessoas falsamente identificadas, as falhas levantam dúvidas sobre transparência e responsabilidade no uso de tecnologias sensíveis pela polícia. Líderes do APCC questionam por que o problema, conhecido internamente há algum tempo, não foi comunicado antes às comunidades afetadas.

Para entender melhor o cenário, veja um resumo dos principais pontos:

  • A taxa de erro é significativamente maior para pessoas negras e asiáticas.
  • Mulheres negras apresentam o maior índice de falsos positivos.
  • As falhas não foram divulgadas previamente às comunidades afetadas.
  • A tecnologia segue em expansão, mesmo sob críticas.

O viés racial nessas estatísticas demonstra os impactos reais e prejudiciais de permitir que a polícia use o reconhecimento facial sem as devidas salvaguardas.

Charlie Whelton, responsável por políticas e campanhas do grupo de ativistas Liberty, ao The Guardian.

Câmeras de segurança com reconhecimento facial em local público
Autoridades prometem revisão completa da tecnologia enquanto testam novo algoritmo supostamente livre de viés. Imagem: Vinícius de Melo/Agência Brasília

Críticas duras alimentam o debate

O contraste entre visões ficou evidente. Horas antes dos testes, a ministra Sarah Jones descreveu o reconhecimento facial como “o maior avanço desde a comparação de DNA”.

Mas o tom otimista durou pouco: grupos civis, especialistas e figuras políticas expressaram forte preocupação.

Leia mais:

  • Itaú e MIT apresentam tecnologia para detectar deepfakes e ajudar a prevenir golpes
  • Sistemas de reconhecimento facial apresentam falhas no Brasil, segundo especialistas
  • Forças policiais do Reino Unido lançam o primeiro assistente policial com IA no país

O ex-ministro David Davis criticou a possível instalação de câmeras em shoppings, estádios e estações, dizendo “bem-vindos ao Grande Irmão, Grã-Bretanha”, e alertou que a tecnologia avança rápido demais, sem debate público adequado.

Governo lança consulta pública e um novo algoritmo

Para tentar ajustar a rota, o governo britânico lançou uma consulta pública de 10 semanas. A população será convidada a opinar sobre permitir que a polícia acesse outros bancos de dados — como imagens de passaporte e carteiras de motorista — ampliando o alcance das investigações.

O Ministério do Interior afirmou também ter adquirido um novo algoritmo, testado de forma independente, “sem viés estatisticamente significativo”, que será avaliado no início de 2026. Além disso, a Inspeção de Polícia e o órgão regulador de ciência forense do Reino Unido vão revisar o uso da tecnologia e verificar se as medidas de mitigação realmente funcionam.

O post Reconhecimento facial da polícia britânica apresenta viés contra negros e asiáticos apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2025/12/07/seguranca/reconhecimento-facial-da-policia-britanica-apresenta-vies-contra-negros-e-asiaticos/