22 de novembro de 2024
OpenAI bloqueou operações que buscavam influenciar resultados políticos
Compartilhe:

Múltiplas operações de influência secreta que abusaram dos modelos de IA da OpenAI foram bloqueadas pela startup criadora do ChatGPT, segundo informações da companhia reveladas na última quinta-feira (30).

Leia mais:

  • Como evitar fake news? Veja 8 dicas para não cair em notícias falsas
  • Como identificar fotos “falsas” criadas por IA
  • EUA: Arizona já se prepara para lidar com IA nas eleições; veja como

As operações, que a OpenAI encerrou entre 2023 e 2024, tiveram origem na Rússia, China, Irã e Israel e tentaram manipular a opinião pública e influenciar resultados políticos sem revelar as suas verdadeiras identidades ou intenções.

“Em maio de 2024, essas campanhas não parecem ter aumentado significativamente o envolvimento ou o alcance do público como resultado de nossos serviços”, disse a OpenAI em um relatório sobre a operação, e acrescentou que trabalhou com pessoas de toda a indústria de tecnologia, civis sociedade e os governos para isolar os autores das campanhas.

Responsáveis por campanha de influência usando IA esconderam suas identidades reais – Imagem: JRdes/Shutterstock

Preocupação sobre uso de IA para interferir nas eleições cresce

  • O relatório da OpenAI surge em meio a preocupações sobre o impacto da IA ​​generativa em múltiplas eleições em todo o mundo previstas para este ano, incluindo nos EUA.
  • Nas suas descobertas, a OpenAI revelou como redes de pessoas envolvidas em operações de influência usaram IA generativa para gerar textos e imagens em volumes muito maiores do que antes.
  • A operação russa, chamada “Doppelganger”, usou os modelos da empresa para gerar manchetes, converter artigos de notícias em postagens no Facebook e criar comentários em vários idiomas para minar o apoio à Ucrânia.

“Durante o último ano e meio, houve muitas questões sobre o que poderia acontecer se as operações de influência usassem IA generativa. Com este relatório, queremos realmente começar a preencher algumas lacunas.”, disse Ben Nimmo, investigador principal da equipe de Inteligência e Investigações da OpenAI, em uma coletiva de imprensa.

OpenAI
Operações usando IA buscavam manipular a opinião pública – Imagem: Camilo Concha/Shutterstock

O post OpenAI bloqueou operações que buscavam influenciar resultados políticos apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2024/06/01/seguranca/openai-bloqueou-operacoes-que-buscavam-influenciar-resultados-politicos/