5 de fevereiro de 2025
Lei na Califórnia quer lembrar crianças que IA não é
Compartilhe:

Um projeto de lei apresentado pelo senador da Califórnia (EUA), Steve Padilla, pode obrigar empresas de inteligência artificial (IA) a emitir alertas periodicamente às crianças informando que um chatbot é uma IA e não um humano

O texto — que pode ser analisado a partir de 2 de março — define chatbot como um “personagem criado pelo usuário que, habilitado por inteligência artificial, é capaz de se envolver em diálogos abertos com um usuário e parece ter personalidade e perspectivas únicas”.

A proposta quer proteger as crianças de “aspectos viciantes, isolantes e influentes” da IA e tem por objetivo “exigir que uma plataforma de mídia social tome várias medidas para impedir o cyberbullying de menores”.

Empresas de IA terão de fornecer relatórios anuais ao governo (Imagem: BrianAJackson/iStock)

“Nossos filhos não são ratos de laboratório para empresas de tecnologia fazerem experimentos às custas de sua saúde mental”, disse o senador Padilla em um comunicado à imprensa. “Precisamos de proteções de senso comum.”

Leia Mais:

  • Estudo mostra que chatbots podem ser induzidos a dar respostas falsas
  • Candidato a prefeito prometeu deixar IA governar cidade
  • Chatbots deviam aprender a pedir ajuda, diz executivo da Microsoft

IA: o que prevê a lei?

Uma das propostas obriga as empresas de IA a fornecer relatórios anuais ao Departamento Estadual de Serviços de Saúde com detalhes das interações das crianças com a plataforma. Além disso, a companhia teria que submeter o chatbot a auditorias regulares por terceiros para garantir a conformidade com a lei. 

O documento deverá apontar as seguintes informações:

  • O número de vezes que o operador detectou manifestações de ideação suicida por parte de utilizadores menores de idade;
  • O número de vezes que um usuário menor de idade cuja ideação suicida foi detectada pelo operador tentou suicídio;
  • O número de vezes que um usuário menor de idade cuja ideação suicida foi detectada pelo operador morreu por suicídio;
  • O número de vezes que um chatbot mencionou ideações ou ações suicidas ao usuário.
Projeto de lei que lembrar crianças que IA não é humana (Imagem: Chainarong Prasertthai/iStock)

No ano passado, um pai processou a Character.AI alegando que o filho adolescente morreu por suicídio após trocar interações com o chatbot que ele definiu como “irracionalmente perigoso”. Após o incidente, a empresa anunciou que vai criar um modelo de IA que bloqueará saídas “sensíveis ou sugestivas”, como lembra o The Verge.

O post Lei na Califórnia quer lembrar crianças que IA não é uma pessoa apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2025/02/05/internet-e-redes-sociais/lei-na-california-quer-lembrar-criancas-que-ia-nao-e-uma-pessoa/