Governos ao redor do mundo estão usando ferramentas de IA sem estabelecer regras claras e, na maioria das vezes, sem informar à população. É isso que mostra um estudo conjunto entre pesquisadores de diferentes universidades, descrito em artigo no The Conversation.
O trabalho descobriu mais de 260 casos de uso de inteligência artificial, envolvendo serviços administrativos, assistência médica, segurança pública e outras áreas. Muitos deles não tinham regras.
Governos estão usando IA sem regras
O artigo lembrou de um caso emblemático: em 2017, a cidade de Roterdã, na Holanda, implantou um sistema de IA capaz de prever a probabilidade de beneficiários de assistência social cometerem fraude. No entanto, a tecnologia tinha vieses e estabeleceu que mulheres jovens, com filhos e de baixa proficiência na língua holandesa tinham “alto risco” de serem fraudadoras.
O sistema foi suspenso em 2021, mas, segundo os pesquisadores, mostram o que pode dar errado quando um governo adota IA sem supervisão adequada.
O estudo atual analisou 170 governos locais ao redor do mundo que usam IA em diferentes funções. Eles descobriram que foram 262 casos de adoção. As principais aplicações foram:
- Serviços administrativos. Um exemplo é o chatbot de turismo VisitMadridGPT, que oferece recomendações personalizadas e apoio em tempo real para turistas conhecerem Madri, na Espanha;
- Assistência médica. Um exemplo é um chatbot lançado durante a pandemia de Covid-19 pelo gabinete do prefeito de Boston, nos Estados Unidos, para entrega de alimentos sem contato;
- Transporte e planejamento urbano. Um exemplo é um sistema em tempo real que mantém usuários informados sobre vagas de estacionamento livres, situações de trânsito e rotas personalizadas em Austin, na Austrália;
- Gestão ambiental. Um exemplo é um sistema de IA em Hangzhou, na China, que está sendo usado para classificar resíduos de maneira eficiente e aumentar as taxas de reciclagem;
- Segurança e aplicação da lei. Um exemplo aconteceu em Chicago, nos EUA, onde uma IA foi usada para classificar supostos pontos de crime e evitar a violência armada. Nesse caso, no entanto, os limites éticos e os vieses da IA foram um problema.
IA pode ajudar governos, mas tem problemas éticos
A IA pode ser útil, como você viu nos casos de uso acima. No entanto, o estudo descobriu que, dos mais de 260 casos, apenas 26 tinham um conjunto de regras e políticas publicado até maio deste ano. Isso é menos de 16% do total. A pesquisa alertou que, na maioria dos casos, os governos estão implementando sistemas poderosos sem supervisão e responsabilização pública com preconceitos, privacidade de dados e limites éticos.
No caso dos governos que estabeleceram regras, houve colaboração com as partes interessadas, como conscientização entre funcionários e cidadãos sobre a transparência da tecnologia.
Leia mais:
- IA Conversacional: o que esperar dos chatbots e assistentes virtuais em 2025?
- IA reflete preconceitos humanos, diz estudo
- IA perpetua estereótipos raciais e de gênero, aponta estudo
Outro problema identificado é a falta de conhecimento dos moradores sobre o uso de IA pelos próprios governos. 75% dos entrevistados não estava ciente do uso da tecnologia. Metade não sabia que os governos estavam usando IA para serviços públicos, o que também levanta questões de comunicação institucional e engajamento com os cidadãos.
Os autores do artigo revelaram que, atualmente, estão trabalhando com governos da Austrália, Estados Unidos, Espanha, Hong Kong e Arábia Saudita para a criação de princípios orientadores que guiem o uso de IA. A expectativa é que isso esteja pronto até o final de 2025.
O post Governos estão usando IA sem estabelecer regras, diz estudo apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2024/12/14/pro/governos-estao-usando-ia-sem-estabelecer-regras-diz-estudo/