4 de setembro de 2025
Terapeuta usou o ChatGPT para tratar paciente
Compartilhe:

Sistemas de IA generativa, como o ChatGPT, são uma mão na roda para consultas rápidas e até mesmo para buscar informações mais complexas. Mas, como já falamos aqui na Olhar Digital, isso pode ser um risco, já que não há garantia que a resposta entregue não seja mentirosa.

Agora, imagine seu terapeuta usando um chatbot para analisar tudo o que você está dizendo. É o que aconteceu em um caso relatado pelo site da MIT Technology Review. “Ele pegava o que eu dizia e colocava no ChatGPT, e então resumia ou selecionava as respostas”, comentou Declan à publicação.

Terapeutas usam o ChatGPT para auxiliar no tratamento de pacientes, mas isso pode quebrar sua confiança. Crédito: photoschmidt / Shutterstock.com

Uso do ChatGPT por terapeutas está se tornando muito comum

Com o crescimento dos chatbots inteligentes, os casos de uso da inteligência artificial explodiram e, como era esperado, também chegou ao campo da psicoterapia, com muitos pacientes simplesmente abandonando tratamentos com terapeutas humanos pela máquina.

Mas o caso de Declan é preocupante, porque, segundo o MIT, “terapeutas estão integrando a IA em sua prática”. Se em um primeiro momento, o chatbot oferece acesso rápido a informações, mas, ao mesmo tempo, expõe dados sensíveis dos pacientes a riscos.

Nesse caso específico, o terapeuta alegou “que havíamos batido em uma parede e começou a procurar respostas em outro lugar”. O problema, é que todo o relacionamento de confiança criado pelas inúmeras sessões foi quebrado, prejudicando exatamente quem estava procurando ajuda: o paciente.

A IA pode ter um papel na psicoterapia?

Estudou mostrou que as respostas geradas pelo ChatGPT foram melhor avaliadas pelos pacientes, desde que ele não saiba que foram criadas pela IA. Crédito: NicoElNino/Shutterstock

Mesmo que possa gerar desconfiança, estudos indicam que a IA pode ter um papel importante na psicoterapia, afirma o MIT, mas isso só funciona se o paciente não souber que está interagindo com uma IA.

Um estudo de 2025 mostrou que o ChatGPT pode gerar respostas terapêuticas melhores que as humanas, mas recebe notas menores quando identificado como IA. Já estudo da Universidade Cornell demonstrou que mensagens geradas por IA contribuem para aumentar “sentimentos de proximidade e cooperação”, mas isso só ocorre se o paciente não souber que foram geradas por IA.

Aguilera explica que “as pessoas valorizam a autenticidade, principalmente em psicoterapia”, mas podem pensar que o terapeuta não está levando o tratamento a sério ao usar a IA.

Leia mais:

  • Psicoterapia provoca mudanças estruturais no cérebro, aponta estudo
  • Chatbots podem levar a crises de saúde mental
  • Os jovens que tiraram a própria vida após conversas com o ChatGPT

A reportagem também menciona um experimento clandestino feito pelo serviço de terapia online Koko, que combinou respostas escritas por humanos por outras geradas por um chatbot. O resultado surpreendeu: as mensagens criadas pela IA foram avaliadas de forma mais positiva pelos usuários, que ficaram indignados quando descobriram que serviram como cobaias pelo serviço.

desbloqueio iPhone
Usar o chatbot na psicoterapia pode colocar informações sensíveis dos pacientes em risco. Crédito: Tero Vesalainen – Shutterstock

Isso demonstra que, no momento que em descobrem que os terapeutas utilizam a IA como complemento à terapia, a quebra de confiança gera uma sensação de traição muito grande. Por isso, Aguilera explica que “transparência é essencial”.

Principais riscos do uso do ChatGPT na terapia

  • Quebra de confiança entre paciente e terapeuta
  • Sensação de traição quando o uso da IA é descoberto
  • Exposição de dados pessoais e sensíveis
  • Falta de transparência sobre o uso da ferramenta

Precisamos ser francos e dizer às pessoas: ‘Ei, vou usar esta ferramenta para X, Y e Z’ e justificar seu uso.

Adrian Aguilera, psicólogo clínico e professor da Universidade da Califórnia, Berkley, à MIT Technology Review.

Se não houver transparência, o risco de prejudicar a confiança, e o tratamento, é muito maior que os ganhos proporcionados pela IA.

Privacidade precisa ser considerada

Sem falar no risco relacionado à privacidade dos pacientes, que acreditam que os chatbots estão em acordo com normas de segurança e privacidade.

Pardis Emami-Naeini, professora assistente de ciência da computação na Duke University, explica ao MIT Technology Review, que “informações sensíveis muitas vezes podem ser inferidas a partir de detalhas aparentemente não sensíveis”, explica. “Identificar e reformular todos os dados potencialmente sensíveis exige tempo e experiência, o que pode entrar em conflito com a conveniência pretendida com o uso de ferramentas de IA”.

Para Naeni, a única forma de evitar quebra de confiança que possa prejudicar tratamento, é o terapeuta entrar em acordo com o paciente sobre o uso do chatbot para auxiliar no tratamento, mantendo o relacionamento totalmente transparente.

O post Terapeuta usou o ChatGPT para tratar paciente apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2025/09/04/medicina-e-saude/terapeuta-usou-o-chatgpt-para-tratar-paciente/