27 de novembro de 2024
ChatGPT consegue fingir emoções humanas – o que gera preocupações
Compartilhe:

O lançamento do modelo GPT-4o pode ser rotulado como um passo em direção a envolvimento mais natural com a inteligência artificial (IA), mas seus avanços nas conversas por voz com o ChatGPT também levam a alguns questionamentos éticos a respeito da ferramenta.

De acordo com o vídeo de demonstração, o chatbot pode ter conversas de voz com os usuários quase em tempo real, exibindo personalidade e comportamento semelhantes aos humanos.

Leia mais:

  • Atualização deixa ChatGPT ‘menos prolixo’, diz OpenAI
  • Como usar chat por voz no ChatGPT
  • 5 dicas para usar o ChatGPT de maneira mais eficiente

Nas demonstrações da OpenAI, o GPT-4o parece amigável, empático e envolvente. Conta piadas espontâneas, ri, flerta e até canta. O sistema de IA também mostra que pode responder à linguagem corporal e ao tom emocional dos usuários.

Enquanto, sem dúvidas, se trata de avanço inovador no mercado de IA, já existe quem questione se as emoções artificiais que o chatbot fabrica nessas conversas com pessoas reais vão servir realmente aos interesses dos usuários, e quais as implicações éticas em criar uma IA que possa simular emoções e comportamentos humanos.

Imagem: Tada Images/Shutterstock

Conferir personalidade ao chatbot de voz pode tornar as interações com humanos melhores

  • A ideia da OpenAI com o GPT-4o é tornar interações mais eficazes e aumentar a satisfação do usuário;
  • Estudos mostram que os usuários são mais propensos a confiar e cooperar com chatbots que exibem inteligência social e traços de personalidade;
  • Em áreas, como a educação, onde estudos indicam que os chatbots de IA podem aumentar os resultados de aprendizagem e a motivação, um chatbot com personalidade e tom de voz que auxilie em ensinar e motivar com certeza pode ser bastante útil.

Por outro lado, uma preocupação de alguns especialistas é como os usuários podem ficar excessivamente apegados a sistemas de IA com personalidades semelhantes às humanas ou até emocionalmente prejudicados pela natureza unidirecional da interação humano-computador.

A OpenAI é uma empresa que demonstra preocupação em garantir que as suas ferramentas de IA se comportem de forma segura e sejam implementadas de forma responsável, mas ainda há desafios para superar de modo que elas sejam lançadas sem prejudicar valores e prioridades públicas.

Imagem: Ebru-Omer/Shutterstock

O post ChatGPT consegue fingir emoções humanas – o que gera preocupações apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2024/05/20/pro/chatgpt-consegue-fingir-emocoes-humanas-o-que-gera-preocupacoes/