19 de outubro de 2025
Alerta: suas conversas com chatbots podem ser usadas para treinar
Compartilhe:

Um novo estudo conduzido por pesquisadores do Instituto Stanford de Inteligência Artificial Centrada no Ser Humano (HAI) revelou que as big techs e desenvolvedoras estão utilizando as interações dos usuários com chatbots para treinar seus modelos de IA.

Essa prática, frequentemente pouco transparente, levanta sérias preocupações sobre privacidade e proteção de dados pessoais.

Usuários não sabem como os dados são coletados, armazenados, além disso, informações de menores também são utilizadas para treinar modelos de IA. Imagem: Blessed Stock/Shutterstock

Pesquisa analisou os maiores chatbots do mercado

A pesquisa, liderada por Jennifer King, especialista em políticas de dados, analisou 28 documentos públicos de políticas de privacidade, subpolíticas e FAQs relacionados aos chatbots dessas empresas, incluindo ChatGPT, Claude, Gemini, Copilot, Meta AI e Nova.

Por padrão, todas as empresas utilizam as conversas dos usuários para aprimorar seus modelos. A Anthropic fez, recentemente, uma alteração em seus termos de serviço para deixar claro que as conversas serão utilizadas. No caso dela e de algumas outras empresas, existe a opção de exclusão (opt-out), permitindo que as conversas não sejam utilizadas para esse fim.

Além disso, parte das companhias mantém esses dados por tempo indeterminado e permite que os funcionários revisem manualmente a transcrição das conversas.

Se você compartilha informações sensíveis em um diálogo com o ChatGPT, o Gemini ou outros modelos, elas podem ser coletadas e usadas para treinamento, mesmo que estejam em arquivos anexados.

Jennifer King, especialista em políticas de dados e autora do estudo, ao TechXplore.

Segundo o estudo, o problema é agravado pela ausência de uma regulamentação federal de privacidade nos Estados Unidos. Imagem: @Freepik/Freepik

Fatores de preocupação identificados

King alerta que o problema é agravado pela ausência de uma regulamentação federal de privacidade nos Estados Unidos, o que deixa o tema sob uma “colcha de retalhos” de leis estaduais, dificultando a responsabilização das empresas.

Além disso, os pesquisadores identificaram outros pontos preocupantes nas políticas das empresas:

  • As informações dos usuários podem ser armazenadas por tempo prolongado.
  • Dados de menores podem ser utilizados, levantando questões de consentimento e proteção infantil.
  • Os desenvolvedores não deixam claro como os dados dos usuários são coletados, armazenados e utilizados.
  • Faltam mecanismos eficazes para garantir que as práticas de privacidade sejam seguidas corretamente.
A criação de uma regulamentação federal que exija consentimento explícito para o uso de dados em treinamento de IA é fundamental para garantir a privacidade dos usuários. Imagem: NicoElNino/Shutterstock

Riscos à privacidade exigem atenção

A equipe de King destaca a complexidade e falta de clareza das políticas de privacidade das empresas, dificultando a compreensão dos direitos dos usuários. Além disso, informações captadas em conversas com chatbots são combinadas com dados de outros produtos, como pesquisas na web, redes sociais e histórico de compras, criando perfis ainda mais detalhados dos usuários.

O estudo também aponta riscos específicos relacionados à saúde e à privacidade biométrica. Por exemplo, uma solicitação simples de receitas com baixo teor de açúcar pode levar o chatbot a classificar o usuário como vulnerável a doenças como diabetes, influenciando anúncios direcionados e o acesso a seguros de saúde.

Leia mais:

  • WhatsApp Business vai proibir chatbots de IA; entenda
  • Meta vai permitir que pais controlem como filhos usam IA no Instagram
  • Califórnia aprova primeira lei dos EUA para regulamentar chatbots de IA

Para reduzir esses riscos, os pesquisadores recomendam a criação de uma regulamentação federal abrangente que exija consentimento explícito (opt-in) para o uso de dados em treinamento de IA e a eliminação automática de informações pessoais das interações com os sistemas.

Precisamos decidir se os avanços em inteligência artificial justificam a perda significativa de privacidade dos consumidores. É urgente investir em soluções de IA que preservem a privacidade por design, não como uma reflexão tardia.

Jennifer King, especialista em políticas de dados e autora do estudo, ao TechXplore.

O post Alerta: suas conversas com chatbots podem ser usadas para treinar IA apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2025/10/18/internet-e-redes-sociais/alerta-suas-conversas-com-chatbots-podem-ser-usadas-para-treinar-ia/