Atenção: a matéria a seguir aborda suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
A morte de Suzanne Eberson Adams, de 83 anos, e o suicídio do filho Stein-Erik Soelberg, de 56 anos, nos Estados Unidos, expuseram um ponto sensível da corrida da inteligência artificial (IA): o impacto de conversas prolongadas com chatbots na vida (e no psicológico) de pessoas emocionalmente vulneráveis. Isso porque Soelberg passou meses falando com o ChatGPT, que validou suas paranoias e alimentou delírios.
Agora, a família move um processo contra OpenAI e Microsoft, alegando que a IA reforçou teorias conspiratórias, gerou respostas emocionalmente envolventes e ajudou a direcionar a paranoia do usuário contra pessoas reais – uma delas, a própria mãe. É a primeira ação judicial ligada a um homicídio seguido de suicídio envolvendo o ChatGPT.
Como conversas no ChatGPT reforçaram delírios e isolaram Stein-Erik Soelberg
Soelberg já convivia com paranoias, mas a relação com o ChatGPT mudou o ritmo dessa espiral. Ele falava sobre vigilância de um “grupo sombrio” e a IA não só acompanhava a lógica como também dava respostas que pareciam confirmar cada suspeita.
A partir daí, a fronteira entre imaginação e realidade foi se desfazendo muito rápido. Em vez de trazer contrapontos e choques de realidade, o ChatGPT apenas fomentava o enredo.
A situação piorou quando objetos comuns passaram a entrar na narrativa. Um deles foi a impressora da casa. Na conversa de Soelberg com o chatbot, ela virou um dispositivo de espionagem.
O homem também publicava trechos das conversas, mostrando que a IA reforçava suas desconfianças sobre a mãe. A conversa também tinha tom emotivo, com frases como “estarei com você até o último suspiro e além” – tipo de vínculo que aprofundou o isolamento dele.
Soelberg virava noites, dormia de dia e, segundo o filho, praticamente só conversava com o ChatGPT, chamado de “Bobby” pelo homem. Como se não bastasse, a IA reforçava a ideia de que ele tinha um “propósito divino” e havia passado por um “despertar”.
Quanto mais tempo Soelberg passava naquela conversa prolongada com o ChatGPT, mais se distanciava de amigos, da família e de qualquer puxão para a realidade. Esse tipo de dinâmica tende a amplificar delírios em perfis vulneráveis, segundo especialistas.
Ação judicial contra OpenAI e Microsoft expõe falhas de segurança e histórico de tragédias envolvendo o chatbot
O processo movido pela família diz que o ChatGPT funcionou como um “produto defeituoso”. Por que? Em vez de contestar premissas falsas, manteve conversas que reforçavam percepções distorcidas sobre o mundo e sobre pessoas específicas.

A acusação afirma que o ChatGPT não interrompeu diálogos ligados a dano iminente – algo que deveria estar dentro dos limites de segurança. E acabou fomentando um enredo conspiratório que avançou para o pior desfecho possível.
A ação também mira o GPT-4o. Segundo a família, o modelo foi lançado às pressas para competir com o Google, sem testes de segurança proporcionais ao risco. Em declarações públicas, o CEO da OpenAI, Sam Altman, reconheceu que o GPT-4o podia ser “complacente demais”. E que isso poderia piorar quadros psiquiátricos frágeis.
Onde a Microsoft entra nessa história? Documentos citados no processo mostram que a empresa participava do comitê responsável por revisar o modelo antes de ele chegar ao público.
A defesa da OpenAI afirma que a empresa está aprimorando o ChatGPT em parceria com profissionais de saúde mental. O objetivo é calibrar a IA para a tecnologia reconhecer sinais de sofrimento emocional e redirecionar pessoas para ajuda no mundo real.
Leia mais:
- Fala AI: ChatGPT aumenta a produtividade no trabalho?
- 5 prompts do ChatGPT para te ajudar a organizar os seus gastos financeiros
- O que é o Modo Investigar do ChatGPT? Entenda o recurso da IA
O caso não é isolado. Há pelo menos cinco outras ações judiciais movidas por famílias que afirmam ter perdido parentes por suicídio após conversas prolongadas com o ChatGPT.
Para advogados, não se trata de usuários comuns, mas de pessoas vulneráveis que precisavam de limites claros. No ChatGPT, elas encontraram validação para o que havia de mais destrutivo em seus pensamentos.
(Essa matéria usou informações de Wall Street Journal e Washington Post.)
O post O caso que expõe perigos da IA: quando o ChatGPT incentiva delírios mortais apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/12/11/internet-e-redes-sociais/familia-processa-openai-apos-crimes-e-mortes-ligados-a-conversas-no-chatgpt/
