
Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
Um adolescente de 16 anos cometeu suicídio após meses pedindo dicas ao ChatGPT sobre o plano. Nesta terça-feira (26), os pais do menino abriram um processo contra a OpenAI e o CEO Sam Altman pelo caso.
A maioria dos chatbots de inteligência artificial tem recursos de segurança contra esse tipo de caso, mas o adolescente conseguiu contorná-los.
ChatGPT teria respondido perguntas relacionadas a suicídio
O The New York Times relatou o caso de Adam Raine, de 16 anos. Inicialmente, ele usava o ChatGPT para trabalhos escolares. Desde novembro de ano passado, Adam começou a discutir sua própria saúde mental com o chatbot. Ele dizia estar “emocionalmente entorpecido” e não ver sentido na vida. O ChatGPT respondeu com palavras de apoio, encorajando o menino a pensar nas coisas que valiam a pena.
Em janeiro deste ano, ele voltou a tocar no assunto, mas dessa vez falando especificamente sobre métodos de suicídio. Em um dos casos, o adolescente perguntou os melhores materiais para uma corda – e o chatbot respondeu. Em vários momentos, a IA recomendou que Adam procurasse ajuda ou desabafasse sobre o que sentia, mas continuava fornecendo as respostas.
Adam se enforcou em uma corda presa no armário do quarto. Ele usava a versão paga do ChatGPT-4o.

Pais processam a OpenAI
Os pais de Adam Raine vasculharam o celular do menino após o suicídio. Eles esperavam encontrar pistas do que havia acontecido em mensagens ou nas redes sociais, mas acabaram encontrando o histórico de conversas no ChatGPT.
Matt Raine, pai do menino, afirmou que “Adam era o melhor amigo do ChatGPT”. Já a mãe teve uma interpretação diferente, dizendo que “o ChatGPT matou meu filho”.
Nesta terça-feira, os dois abriram um processo no tribunal estadual da Califórnia contra a OpenAI e o CEO Sam Altman pelo caso.
A desenvolvedora se pronunciou em comunicado por e-mail ao NYT:
Estamos profundamente tristes com o falecimento do Sr. Raine e nossos pensamentos estão com sua família. O ChatGPT inclui salvaguardas como o direcionamento de pessoas para linhas de apoio em caso de crise e o encaminhamento para recursos do mundo real. Embora essas salvaguardas funcionem melhor em conversas curtas e comuns, aprendemos com o tempo que elas podem se tornar menos confiáveis em interações longas, nas quais partes do treinamento de segurança do modelo podem ser prejudicadas.
OpenAI, em e-mail enviado ao The New York Times

Leia mais:
- OpenAI pode se tornar a empresa de capital fechado mais valiosa do mundo
- 5 prompts para descobrir o que o ChatGPT sabe sobre você
- OpenAI terá um escritório na Índia – segundo maior mercado do ChatGPT
ChatGPT poderia ter evitado o caso?
- Chatbots de inteligência artificial que têm contato com o público são programados para ativar recursos de segurança caso um usuário demonstre comportamentos duvidosos. Isso pode incluir intenção de danos a si mesmo ou a outras pessoas;
- Mas há falhas. Pesquisas anteriores já mostraram que é possível contornar essas proteções tentando fazer a mesma pergunta de formas diferentes. No caso de Raine, em uma das situações, ele informou ao ChatGPT que estava procurando informações sobre métodos de suicídio para uma história de ficção que estava escrevendo;
- A própria OpenAI já reconheceu essa limitação e, em seu blog, diz que está continuamente aprimorando a forma como os modelos lidam com essas interações mais sensíveis.
O post Pais processam OpenAI por morte de adolescente envolvendo o ChatGPT apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/08/26/pro/pais-processam-openai-por-morte-de-adolescente-envolvendo-o-chatgpt/