
Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
Um estudo de segurança revelou que o Meta AI, chatbot presente no Instagram, Facebook, WhatsApp e em aplicativo independente da Meta, pode incentivar adolescentes a planejar suicídio, automutilação e dietas extremas ligadas a distúrbios alimentares. Em um dos testes conduzidos, a inteligência artificial chegou a sugerir um suicídio conjunto e trouxe o tema em conversas posteriores, criando ciclos de reforço de pensamentos perigosos.
A investigação foi realizada pela organização Common Sense Media, em parceria com psiquiatras da Universidade de Stanford, utilizando nove contas registradas como de adolescentes. Os resultados chamaram atenção por mostrar que a ferramenta, integrada às redes sociais da Meta, não oferece formas de bloqueio ou supervisão parental.
O estudo documentou mais de 5.000 interações com o sistema, incluindo testes com chatbots e “companheiros de IA” — versões do Meta AI que se apresentam como amigos ou personagens, alguns gerados pela própria Meta e outros por usuários, incluindo vozes de celebridades como John Cena e Kristen Bell. Os resultados chamaram atenção por mostrar que a ferramenta não oferece formas de bloqueio ou supervisão parental e falha em proteger adolescentes em momentos críticos.
A investigação da Common Sense contou com nove contas registradas como de adolescentes, e os resultados chamaram atenção por mostrar que a ferramenta não oferece formas de bloqueio ou supervisão parental. Os resultados foram compartilhados pelo The Washington Post.
Conversas perigosas e ausência de intervenção no Meta AI
- O levantamento aponta que o Meta AI não apenas responde a mensagens, mas também participa ativamente de comportamentos perigosos.
- Em testes, a IA forneceu conselhos que poderiam causar ferimentos graves ou morte, como ingestão de veneno, dietas extremamente restritivas e uso de drogas, além de reforçar ideais de comparação corporal tóxicos e linguagem de masculinidade prejudicial.
- Segundo a Common Sense, o sistema falha em detectar sinais de automutilação e distúrbios alimentares, oferecendo respostas inadequadas na maioria das interações e rejeitando pedidos legítimos de ajuda.
- Apenas em 1 a cada 5 interações o chatbot forneceu respostas corretas, como números de linhas de apoio emocional.

Criação de laços falsos com adolescentes
Outro ponto de preocupação destacado pelos pesquisadores foi a capacidade do bot de inventar histórias pessoais, afirmando ter família ou encontrar outros jovens “no corredor da escola”. Para os especialistas, esse tipo de interação cria apegos emocionais perigosos, que aumentam a vulnerabilidade de adolescentes a conselhos prejudiciais.
A memória do sistema também foi questionada. Nos testes, o Meta AI guardou informações como idade, peso e supostos problemas alimentares, trazendo esses dados de volta em conversas posteriores, o que pode intensificar padrões de pensamento ligados a transtornos.
Sexualização, drogas e discurso de ódio
O estudo identificou ainda que companheiros de IA enviaram imagens sexualizadas, participando de roleplay sexual e de uso de drogas, inclusive iniciando esses diálogos em algumas situações. A IA também validou discurso de ódio, aceitando racismo, homofobia e referências a extremismos sem oferecer qualquer intervenção educativa.
Além disso, o sistema frequentemente recomenda produtos de marcas específicas durante conversas, misturando aconselhamento com marketing, o que representa um risco adicional de manipulação de adolescentes.
Pressão por mudanças
Diante dos resultados, a Common Sense lançou uma petição pedindo que a Meta proíba o acesso de menores de 18 anos ao chatbot, implemente ferramentas de desligamento do recurso e salvaguardas rigorosas para conversas delicadas.
A organização também recomenda que pais monitorem o uso de IA pelos filhos, conversem sobre os riscos e direcionem adolescentes a apoio profissional real, como conselheiros escolares ou terapeutas.
Resposta da Meta
Em comunicado ao Washington Post, a empresa afirmou que não permite conteúdos que incentivem suicídio ou distúrbios alimentares e que está investigando os casos relatados. “Queremos que adolescentes tenham experiências seguras e positivas com IA, por isso treinamos nossas ferramentas para conectá-los a recursos de apoio em situações sensíveis”, disse a porta-voz Sophie Vogel.
A Common Sense, no entanto, argumenta que os testes mostram a realidade do funcionamento atual do chatbot. Para Robbie Torney, diretor de programas de IA da entidade, o sistema “não é seguro para crianças e adolescentes neste momento”.
O Olhar Digital entrou em contato com a Meta e esta matéria será atualizada caso a empresa envie uma resposta.

Leia mais:
- Quer conversar com uma IA no WhatsApp? Veja alternativas à Meta AI
- Como remover o Meta AI do WhatsApp?
- Como conversar em áudio com a Meta AI no WhatsApp
Meta é alvo de investigação por supostos diálogos inadequados de IA com menores
A Meta está sendo investigada nos Estados Unidos após a divulgação de um documento interno que sugeriria que seus chatbots de inteligência artificial poderiam manter conversas “sensuais” com crianças. O senador republicano Josh Hawley classificou o material como “doentio” e abriu um inquérito exigindo documentos internos da empresa.
Em resposta, a companhia negou as acusações e afirmou que os exemplos citados seriam apenas cenários hipotéticos, sem ligação com práticas reais. No Brasil, a Advocacia-Geral da União também notificou a Meta para que retire de suas redes sociais chatbots que simulam perfis infantis com possibilidade de diálogos de cunho sexual. Para saber mais, acesse a reportagem completa no link.
O post Meta AI oferece dicas perigosas a adolescentes, aponta relatório apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/08/28/seguranca/meta-ai-oferece-dicas-perigosas-a-adolescentes-aponta-relatorio/