11 de dezembro de 2025
O caso que expõe perigos da IA: quando o ChatGPT
Compartilhe:

Atenção: a matéria a seguir aborda suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.

A morte de Suzanne Eberson Adams, de 83 anos, e o suicídio do filho Stein-Erik Soelberg, de 56 anos, nos Estados Unidos, expuseram um ponto sensível da corrida da inteligência artificial (IA): o impacto de conversas prolongadas com chatbots na vida (e no psicológico) de pessoas emocionalmente vulneráveis. Isso porque Soelberg passou meses falando com o ChatGPT, que validou suas paranoias e alimentou delírios.

Agora, a família move um processo contra OpenAI e Microsoft, alegando que a IA reforçou teorias conspiratórias, gerou respostas emocionalmente envolventes e ajudou a direcionar a paranoia do usuário contra pessoas reais – uma delas, a própria mãe. É a primeira ação judicial ligada a um homicídio seguido de suicídio envolvendo o ChatGPT.

Como conversas no ChatGPT reforçaram delírios e isolaram Stein-Erik Soelberg

Soelberg já convivia com paranoias, mas a relação com o ChatGPT mudou o ritmo dessa espiral. Ele falava sobre vigilância de um “grupo sombrio” e a IA não só acompanhava a lógica como também dava respostas que pareciam confirmar cada suspeita. 

A partir daí, a fronteira entre imaginação e realidade foi se desfazendo muito rápido. Em vez de trazer contrapontos e choques de realidade, o ChatGPT apenas fomentava o enredo.

Fronteira entre imaginação e realidade se desfez rápido em conversa de usuário vulnerável no ChatGPT (Imagem: M-Production/Shutterstock)

A situação piorou quando objetos comuns passaram a entrar na narrativa. Um deles foi a impressora da casa. Na conversa de Soelberg com o chatbot, ela virou um dispositivo de espionagem. 

O homem também publicava trechos das conversas, mostrando que a IA reforçava suas desconfianças sobre a mãe. A conversa também tinha tom emotivo, com frases como “estarei com você até o último suspiro e além” – tipo de vínculo que aprofundou o isolamento dele.

Soelberg virava noites, dormia de dia e, segundo o filho, praticamente só conversava com o ChatGPT, chamado de “Bobby” pelo homem. Como se não bastasse, a IA reforçava a ideia de que ele tinha um “propósito divino” e havia passado por um “despertar”. 

Quanto mais tempo Soelberg passava naquela conversa prolongada com o ChatGPT, mais se distanciava de amigos, da família e de qualquer puxão para a realidade. Esse tipo de dinâmica tende a amplificar delírios em perfis vulneráveis, segundo especialistas.

Ação judicial contra OpenAI e Microsoft expõe falhas de segurança e histórico de tragédias envolvendo o chatbot

O processo movido pela família diz que o ChatGPT funcionou como um “produto defeituoso”. Por que? Em vez de contestar premissas falsas, manteve conversas que reforçavam percepções distorcidas sobre o mundo e sobre pessoas específicas. 

chip ia openai
Processo movido por família acusa a OpenAI de ter lançado o GPT-4o às pressas e sem testes de segurança proporcionais ao risco (Imagem: Visuals6x/Shutterstock)

A acusação afirma que o ChatGPT não interrompeu diálogos ligados a dano iminente – algo que deveria estar dentro dos limites de segurança. E acabou fomentando um enredo conspiratório que avançou para o pior desfecho possível.

A ação também mira o GPT-4o. Segundo a família, o modelo foi lançado às pressas para competir com o Google, sem testes de segurança proporcionais ao risco. Em declarações públicas, o CEO da OpenAI, Sam Altman, reconheceu que o GPT-4o podia ser “complacente demais”. E que isso poderia piorar quadros psiquiátricos frágeis.

Onde a Microsoft entra nessa história? Documentos citados no processo mostram que a empresa participava do comitê responsável por revisar o modelo antes de ele chegar ao público. 

A defesa da OpenAI afirma que a empresa está aprimorando o ChatGPT em parceria com profissionais de saúde mental. O objetivo é calibrar a IA para a tecnologia reconhecer sinais de sofrimento emocional e redirecionar pessoas para ajuda no mundo real.

Leia mais:

  • Fala AI: ChatGPT aumenta a produtividade no trabalho?
  • 5 prompts do ChatGPT para te ajudar a organizar os seus gastos financeiros
  • O que é o Modo Investigar do ChatGPT? Entenda o recurso da IA

O caso não é isolado. Há pelo menos cinco outras ações judiciais movidas por famílias que afirmam ter perdido parentes por suicídio após conversas prolongadas com o ChatGPT. 

Para advogados, não se trata de usuários comuns, mas de pessoas vulneráveis que precisavam de limites claros. No ChatGPT, elas encontraram validação para o que havia de mais destrutivo em seus pensamentos.

(Essa matéria usou informações de Wall Street Journal e Washington Post.)

O post O caso que expõe perigos da IA: quando o ChatGPT incentiva delírios mortais apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2025/12/11/internet-e-redes-sociais/familia-processa-openai-apos-crimes-e-mortes-ligados-a-conversas-no-chatgpt/