O relatório apresentado para o projeto que regulamenta a inteligência artificial (IA) no Brasil tem como princípios “respeito aos valores democráticos”, “liberdade de expressão” e “não discriminação”.
O documento, ainda preliminar, foi apresentado pelo senador Eduardo Gomes (PL-TO), na quarta-feira (24). Ainda não há previsão para votação da proposta, mas a Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), criada para debater o assunto, deve se encerrar até 23 de maio.
O relator destacou as dificuldades de legislar sobre temas em permanentes mudanças, como a própria inteligência artificial e desinformação.
“A gente vai ter que aprender a fazer uma lei viva, então esse é um negócio complicado. (…) A gente vai ter que trabalhar essa dinâmica legislativa que dê segurança jurídica e ao mesmo tempo atualização de direitos e deveres”, disse Gomes.
O relatório deixa claro que a proposta não afetará o uso pessoal que a população venha a fazer da inteligência artificial, se focando apenas no uso comercial da tecnologia. O texto também abre espaço para que a defesa nacional não tenha que se subordinar à regulamentação.
Marco regulatório
Gomes unificou no relatório todos os projetos de lei que tramitam no Senado sobre inteligência artificial, incluindo a proposição que deu origem à comissão, de autoria do presidente do Senado Rodrigo Pacheco (PSD-MG).
Pacheco já sinalizou a aliados preocupação com a ferramenta, que pode alavancar a produção de conteúdos falsos no período eleitoral.
O ministro da Secretaria de Relações Institucionais, Alexandre Padilha, participou da reunião da comissão e destacou a relevância de um marco regulatório para estimular investimentos públicos e privados no tema.
“A primeira necessidade deste debate regulatório é inclusive estabelecer muito claramente quais são as regras pra ter segurança jurídica pro investidor, pra poder colaborar e o Brasil ser um dos parques principais dessa produção”, disse o ministro.
Sistema de regulação
Entre as proposições apresentadas no relatório, está a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), uma estrutura para “implementar e fiscalizar” o cumprimento da Lei.
Pelo texto, o SIA será coordenado por um órgão da administração pública federal, mas o órgão específico não é definido no projeto. Durante a sessão, o relator sugeriu que a Autoridade Nacional de Proteção de Dados Pessoais (ANPD) possa ser ampliada para atender essa tarefa.
Conforme proposto, as atribuições do SIA incluirão regulamentar as inteligências artificiais de alto risco que, por exemplo, impactem negativamente no exercício de direitos e liberdades dos usuários.
Para estes casos de classificação de alto risco, a proposta prevê que as empresas forneçam as avaliações preliminares do sistema e os impactos que o algoritmo que estão desenvolvendo terá quando estiver em funcionamento. Estes dados serão avaliados por profissionais independentes e não ligados ao Sistema Nacional de Regulação e Governança de Inteligência Artificial.
O relator manteve uma das propostas vindas de Pacheco, que possibilita a aplicação de multa de até R$ 50 milhões ou 2% do faturamento, em caso de pessoa jurídica, para cada violação cometida pelas empresas de tecnologia e as enquadra nas punições da Lei Geral de Proteção de Dados Pessoais (LGPD), de 2018.
O texto prevê, entretanto, que as empresas não serão culpabilizadas caso comprovem que terceiros utilizaram de má fé ao utilizar a ferramenta para causar danos a vítimas.
Proibições e identificação criminal
O relatório traz uma extensa lista de ações proibidas ao agente responsável pela inteligência artificial e prevê uma espécie de autoavaliação preliminar do sistemas. Entre as vedações, estão:
- técnicas subliminares que induzam o usuário a se comportar de forma prejudicial ou trazendo risco à saúde ou segurança própria ou de terceiros;
- exploração de vulnerabilidades dos usuários;
- ranquear pessoas com base no comportamento social ou atributos de sua personalidade;
- produção, disseminação ou criação de material que caracteriza abuso ou exploração sexual infantil;
- utilização da IA como armas autônomas, que selecionam alvos e atacam sem a intervenção humana.
Em relação à manutenção da privacidade e para adequação à LGPD, a proposta prevê a proibição do uso de sistemas de identificação biométrica à distância, em tempo real, em espaços públicos. Os sistemas de segurança pública, no entanto, poderia usar as ferramentas para monitoramento da população em alguns casos específicos:
- em caso de inquérito ou processo criminal, mediante autorização da justiça – desde que não seja para investigação de “infração penal de menor potencial ofensivo”;
- para busca de desaparecidos, vítimas de crimes ou circunstâncias de ameaça grave à integridade física;
- em casos de investigação e repressão de flagrantes delitos, desde que os crimes tenham pena mínima de dois anos; e
- para recaptura de réus evadidos, cumprimento de mandados de prisão e medidas restritivas.
Autorregulação
Outra possibilidade trazida pela proposta é a de as empresas se associarem para criar uma espécie de agência privada para autorregulação do sistema. Pelo texto, esta autorregulação poderá estabelecer critérios técnicos dos sistemas para questões como:
- compartilhamento de experiências sobre o uso de inteligência artificial;
- definição contextual de estruturas de governança previstas nesta Lei;
- atuação da autoridade competente e demais agências e autoridades do SIA para emprego de medida cautelar; e
- canal de recebimento de informações relevantes sobre riscos do uso de inteligência artificial por seus associados ou qualquer interessado;
Com informações do g1.
Fonte: https://agendadopoder.com.br/senado-debate-regras-para-inteligencia-artificial-com-base-em-valores-democraticos-liberdade-de-expressao-e-nao-discriminacao-entenda/