Gigantes da tecnologia, como Google e Meta, estão ajustando suas Políticas de Privacidade para permitir o uso de dados públicos no treinamento de suas inteligências artificiais. Esta mudança, que tem gerado controvérsias entre criadores de conteúdo preocupados com o uso de suas obras, levanta questões sobre privacidade e o futuro da criação digital.
Uma análise feita pelo jornal americano The New York Times apontou alterações feitas nas Políticas de Privacidade de diversas empresas.
Leia mais:
- O que é inteligência artificial preditiva? Entenda como funciona a IA que “prevê o futuro”
- Como a inteligência artificial pode ajudar a encontrar extraterrestres?
- O que é e como funciona a Aria, a inteligência artificial nativa dos navegadores Opera
Por exemplo, o Google modificou sua política de privacidade em julho para afirmar que informações públicas podem ser usadas para treinar seus serviços de IA.
- No que antes dizia: “nós utilizamos informações disponíveis publicamente para ajudar a treinar os modelos de linguagem do Google e desenvolver recursos como o Google Tradutor”;
- Agora indica: “nós utilizamos informações disponíveis publicamente para ajudar a treinar os modelos de IA do Google e desenvolver produtos e funcionalidades como Google Translate, Bard e capacidades de IA do Cloud”.
Essa alteração, embora sutil, marca um movimento significativo na estratégia de desenvolvimento de IA do Google.
Tendência na indústria
Outras empresas de tecnologia também estão atualizando seus termos de serviço para incluir linguagem relacionada à IA. A Snap advertiu os usuários sobre compartilhar informações confidenciais com seu chatbot de IA, enquanto a Meta informou aos usuários europeus que suas postagens públicas poderiam ser utilizadas para treinamento de IA.
Criadores de conteúdo, como escritores e artistas, expressam preocupações sobre seu trabalho ser usado para treinar sistemas de IA que eventualmente podem substituí-los. O YouTuber Sasha Yanshin, por exemplo, cancelou sua assinatura da Adobe devido a mudanças na política de privacidade da empresa.
Dados públicos vs. privados
Dados para treinamento de IA podem ser derivados de fontes públicas e privadas. Dados públicos são limitados, enquanto dados privados, que são significativamente maiores, permanecem amplamente protegidos por leis de privacidade. O acesso a esses dados poderia proporcionar uma vantagem competitiva na corrida pela IA, como Tamay Besiroglu do instituto de pesquisa em IA Epoch disse ao NYT.
A Comissão Federal de Comércio alertou as empresas de tecnologia contra mudanças retroativas nas políticas de privacidade que permitiriam o uso de dados antigos para treinamento de IA. Apesar desses avisos, as empresas continuam explorando maneiras de utilizar os dados dos usuários, às vezes enfrentando reações negativas.
Empresas como Google e Adobe esclareceram suas posições, afirmando que as mudanças nas políticas de privacidade visam incluir novos serviços e não treinar IA com novos tipos de dados sem o consentimento dos usuários. Snap e Meta também atualizaram suas políticas e forneceram avisos aos usuários sobre o uso de dados para treinamento de IA.
Pequenas empresas estão sentindo o impacto dos agregadores de IA, com quedas significativas no tráfego da web.
O post Big techs ajustam Políticas de Privacidade para treinamento de IA apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2024/06/27/internet-e-redes-sociais/big-techs-ajustam-politicas-de-privacidade-para-treinamento-de-ia/