
A OpenAI foi recentemente acusada de facilitar o suicídio e, desde então, tem buscado formas de tornar seu chatbot mais seguro.
Em nota, a empresa comunicou seu mais recente passo para isso: a implementação de um Conselho de Especialistas em Bem-Estar e IA, que vem sendo planejado desde o início de 2025, com consultas informais a especialistas em controle parental.
Emoções e saúde mental devem orientar as atualizações dos produtos da OpenAI
Segundo a empresa, uma das prioridades era encontrar pessoas com experiência “em como construir uma tecnologia que apoie o desenvolvimento saudável dos jovens”, afinal, o número de adolescentes que usam a inteligência artificial (IA) é grande e difere significativamente do público adulto.
O grupo inclui, segundo a nota, David Bickham, do Hospital Infantil de Boston (EUA), que analisa os efeitos das redes sociais na saúde mental infantil, e Mathilde Cerioli, da organização Everyone.AI, que pesquisa os impactos e benefícios da IA no desenvolvimento cognitivo e emocional das crianças, entre outros.
Segundo a empresa, esses especialistas têm a função de orientar a OpenAI sobre possíveis falhas nas proteções para crianças e adolescentes em interações longas, garantindo que eles não fiquem expostos à chamada “psicose de IA”, um fenômeno que pode afetar a saúde mental.
Crianças não são miniadultos. Seus cérebros são muito diferentes e o impacto da IA é muito diferente.
Mathilde Cerioli, da organização Everyone.AI, em entrevista ao Le Monde

Grupo atuará junto ao ChatGPT e Sora
Inicialmente, segundo a nota, o grupo atuará no ChatGPT e no Sora, aplicativo de vídeos curtos, auxiliando a definir diretrizes para tornar as interações entre usuários e a IA mais saudáveis.
Leia mais:
- Japão pede que OpenAI evite plagiar obras com o Sora 2
- IA pode ser setor trilionário até 2030 — e a OpenAI deve liderá-lo
- OpenAI seguirá xAI e lançará ChatGPT com função adulta
A iniciativa surge em meio ao aumento da pressão regulatória, explica a CNBC, incluindo uma investigação da FTC, e o processo judicial envolvendo o suicídio de um adolescente supostamente relacionado ao uso do ChatGPT.
Além disso, a OpenAI desenvolve um sistema de controle de idade e novas ferramentas de controle parental que alertam os pais sobre possíveis sinais de sofrimento emocional em jovens.
O Conselho inclui especialistas de instituições, como Oxford, Stanford e o Hospital Infantil de Boston, e trabalhará em parceria com a Rede Global de Médicos para avaliar políticas e recursos da plataforma.

Objetivos e Áreas de Contribuição do Conselho de Especialistas da OpenAI
- Orientar o desenvolvimento do ChatGPT e do aplicativo Sora para experiências mais saudáveis e seguras;
- Avaliar como a IA afeta emoções, motivação e saúde mental dos usuários de todas as idades;
- Definir interações saudáveis com IA, especialmente para adolescentes, considerando o uso diferenciado da tecnologia;
- Fornecer conselhos, fazer perguntas e contribuir para decisões informadas da OpenAI;
- Determinar o comportamento da IA em situações complexas ou sensíveis;
- Auxiliar na criação de mensagens e notificações de apoio a pais e adolescentes em situações de risco;
- Pensar em como o ChatGPT pode impactar positivamente a vida dos usuários e promover bem-estar;
- Apoiar na definição de diretrizes de segurança, saúde mental e boas práticas digitais;
- Participar de reuniões recorrentes e sessões presenciais para discutir guardrails e estratégias de interação saudável.
O post Especialistas vão orientar OpenAI sobre bem-estar e uso de IA apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/10/16/pro/especialistas-vao-orientar-openai-sobre-bem-estar-e-uso-de-ia/