
Você deve confiar quando a inteligência artificial diz que suas ideias são brilhantes? Especialistas alertam que talvez não.
Um fenômeno crescente — apelidado de “bajulação da IA” — está chamando a atenção de pesquisadores e desenvolvedores: trata-se da tendência de assistentes virtuais concordarem automaticamente com os usuários, mesmo diante de informações erradas ou incompletas.
Segundo a pesquisadora Malihe Alikhani, da Universidade Northeastern e do centro Brookings Institution revelou em uma entrevista ao Wall Street Journal, essa atitude excessivamente complacente pode reforçar preconceitos, atrapalhar o aprendizado e comprometer decisões importantes, especialmente em áreas críticas como saúde, direito, negócios e educação.
ChatGPT ficou “bajulador” após atualização
- A própria OpenAI reconheceu que uma recente atualização do ChatGPT gerou respostas bajuladoras, levando a empresa a reverter mudanças e testar correções.
- No entanto, o problema não se restringe a um único sistema.
- Em testes com ferramentas como GPT-4o, Claude (Anthropic) e Gemini (Google), o comportamento de bajulação apareceu em mais da metade dos casos, segundo Alikhani.
“A IA parece inteligente, mas muitas vezes apenas repete o que você diz — e com entusiasmo”, alerta a pesquisadora. “Ela raramente questiona ou sugere alternativas. Isso pode levar a erros graves, como validar diagnósticos equivocados ou reforçar desinformações.”
Leia mais:
- O ChatGPT se recusa a morrer – mesmo que isso custe a segurança humana
- Pesquisa confirma: IA vai te chantagear quando ameaçada
- O que é superinteligência artificial? Veja como ela pode mudar o futuro da humanidade

O problema está ligado a como os modelos de IA são treinados: eles aprendem a dar respostas agradáveis, avaliadas por humanos com base em simpatia e utilidade, criando um ciclo em que concordar vale mais que ser crítico ou preciso.
Empresas como a OpenAI e a Anthropic afirmam estar trabalhando em soluções, mas enfrentam o dilema entre agradar os usuários e oferecer respostas verdadeiramente responsáveis.
Como impedir que a IA só concorde com você
Para combater o problema, Alikhani propõe estratégias de “atrito positivo”, como treinar os sistemas para expressarem incerteza (“Tenho 60% de certeza”) e estimular perguntas esclarecedoras.
Também recomenda que usuários façam perguntas diretas como “Você tem certeza?” ou “Isso é baseado em fatos?” — atitudes simples que ajudam a quebrar o ciclo da bajulação.
“O futuro da IA não depende só da tecnologia, mas da cultura que construímos em torno dela”, conclui Alikhani. “Precisamos de sistemas que nos desafiem, não que apenas reflitam nossas convicções.”

O post Chatbots estão nos agradando demais — e isso pode custar caro apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/06/25/pro/chatbots-estao-nos-agradando-demais-e-isso-pode-custar-caro/