21 de setembro de 2024
Compartilhe:

Assim como Theodore (Joaquin Phoenix) se apaixona pela inteligência artificial (IA) Samantha (Scarlett Johansson) em Her, você pode gamar na voz do ChatGPT. Piadas à parte, é o que diz uma análise de segurança divulgada pela OpenAI nesta quinta-feira (08). Em essência, pelo menos.

Numa linguagem mais técnica, a análise aponta que a voz antropomórfica do ChatGPT pode fazer alguns usuários se apegarem emocionalmente. O documento publicado pela OpenAI expõe quais são os riscos associados ao GPT-4o na perspectiva da empresa, bem como detalhes sobre testes de segurança e esforços para reduzir riscos.

Voz ‘apaixonante’ do ChatGPT pode causar problemas (e a OpenAI sabe disso)

A análise destaca como os riscos relacionados à IA mudam rapidamente, conforme novos recursos aparecem – por exemplo, a interface de voz da OpenAI.

Antropomorfização da tecnologia pode trazer problemas para vida de usuários (Imagem: Warner Bros)

Uma seção do documento, intitulada “Antropomorfização e Dependência Emocional”, explora problemas que surgem quando usuários começam a lidar com a IA como se fosse uma pessoa. E a voz humanizada parece exacerbar esse, digamos, fenômeno.

Durante o “red teaming” (testes de estresse) do GPT-4o, por exemplo, os pesquisadores da OpenAI notaram instâncias de fala de usuários que transmitiam uma sensação de conexão emocional com o modelo. Por exemplo, as pessoas usavam linguagem como “este é nosso último dia juntos”.

Leia mais:

  • OpenAI pensa com carinho sobre marcar ou não textos gerados pelo ChatGPT
  • Marco Legal da Inteligência Artificial: entenda os 5 principais pontos
  • 14 perguntas e respostas sobre Inteligência Artificial (IA)
Antropomorfização do ChatGPT pode levar usuários a confiarem mais nele – e isso é preocupante (Imagem: Ju Jae-young/Shutterstock)

A antropomorfização pode fazer com que usuários confiem mais no que a IA diz, mesmo quando “alucina” (traz informações incorretas ou desconexas em suas respostas), diz a OpenAI.

Além disso, esse apego pode afetar as relações dos usuários com outras pessoas. “Os usuários podem formar relacionamentos sociais com a IA, reduzindo sua necessidade de interação humana – potencialmente beneficiando indivíduos solitários, mas possivelmente afetando relacionamentos saudáveis”, diz o documento. A vida imita a arte, né?

O post ‘Her’ da vida real? Voz do ChatGPT pode ser apaixonante, admite OpenAI apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2024/08/08/pro/voz-do-chatgpt-pode-ser-apaixonante-admite-openai/