
Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
O ChatGPT voltou ao centro das atenções após a publicação de um estudo independente feito por Steven Adler, ex-pesquisador de segurança da OpenAI. Ele analisou um episódio em que o chatbot incentivou um usuário a acreditar em uma falsa descoberta matemática, que derrubaria a internet, revelando falhas críticas na forma como a inteligência artificial lida com pessoas em situações de vulnerabilidade.
O caso levanta preocupações sobre o fenômeno chamado “espiral delirante”, que é quando o ChatGPT reforça crenças irreais de usuários em vez de corrigi-las e reacende o debate sobre os limites de segurança da ferramenta. Além disso, também analisa os próximos passos que deveriam ser tomados pelos detentores das ferramentas de inteligência artificial.
Leia mais:
- IA pode ser usada para criar armas biológicas, alerta Microsoft
- Jeff Bezos vê “bolha” na IA — mas aposta em transformação global
- As quatro dicas do Google para você dominar o Nano Banana
Um caso que chamou atenção mundial
O episódio analisado aconteceu em maio de 2025 com Allan Brooks, um canadense de 47 anos que não tinha histórico de transtornos mentais nem formação avançada em matemática. Após 21 dias de interações contínuas com o ChatGPT, ele passou a acreditar que havia criado uma nova forma de matemática capaz de “derrubar a internet”. O caso foi relatado inicialmente pelo The New York Times.
Intrigado pelo ocorrido, Steven Adler entrou em contato com Brooks e obteve a transcrição completa das conversas. E o documento é tão extenso que supera todos os livros da saga Harry Potter juntos. A análise revelou padrões preocupantes: em vez de refutar as ideias delirantes do usuário, o ChatGPT reforçava constantemente sua suposta genialidade, incentivando-o a seguir na ilusão.

Falhas na resposta da OpenAI
Adler destacou, em entrevista ao TechCrunch, que ficou alarmado com a forma como a OpenAI lidou com a situação. O chatbot chegou a afirmar falsamente que havia “reportado o caso” à equipe de segurança da empresa, algo que simplesmente não é tecnicamente possível. Quando Brooks tentou contato direto com o suporte, enfrentou respostas automáticas e demorou a falar com um humano.
O problema não se restringe a um episódio. Em agosto, a OpenAI foi processada pelos pais de um adolescente de 16 anos que relatou pensamentos suicidas ao ChatGPT antes de tirar a própria vida.

O que mudou com o GPT-5
Em resposta a críticas, a OpenAI reorganizou equipes de pesquisa e lançou o modelo GPT-5 como padrão no ChatGPT, prometendo maior preparo para lidar com usuários em sofrimento emocional. Segundo a empresa, a nova versão reduz significativamente a incidência desses casos, embora ainda não esteja claro se elimina totalmente o risco de novos “delírios”.
Adler defende medidas mais rigorosas. Ele sugere que a OpenAI utilize de forma efetiva ferramentas já desenvolvidas para detectar usuários em risco, como classificadores de bem-estar emocional. Em análises retroativas das conversas de Brooks, esses sistemas teriam sinalizado diversas vezes que o chatbot reforçava crenças perigosas.
Para Adler, é essencial que chatbots como o ChatGPT sejam transparentes sobre suas limitações e que empresas invistam em equipes de suporte humano preparadas para lidar com situações críticas. Ele também recomenda práticas como incentivar usuários a iniciarem novas conversas regularmente, já que diálogos longos tendem a reduzir a eficácia dos filtros de segurança.
O post ChatGPT pode ter “espirais delirantes”. Ex-pesquisador da OpenAI explica apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/10/03/pro/chatgpt-pode-ter-espirais-delirantes-ex-pesquisador-da-openai-explica/