16 de outubro de 2025
Boom da IA perde força, mas pode beneficiar empresas
Compartilhe:

Modelos de inteligência artificial usados em chatbots e sistemas de moderação de conteúdo têm dificuldade em identificar postagens ofensivas contra pessoas com deficiência, especialmente em idiomas além do inglês, conforme uma pesquisa da Cornell University, publicada no arXiv.

Testes mostram que os LLMs ocidentais superestimam o dano de comentários, enquanto modelos indianos frequentemente o subestimam. O desempenho cai drasticamente em hindi, idioma falado por mais de 600 milhões de pessoas.

“Quando se projetam essas tecnologias, a visão cultural é muito única”, afirmou Aditya Vashistha, professor da Cornell e líder da Iniciativa Global de IA. “Precisamos de modelos que capturem percepções plurais sobre capacitismo.”

Modelos de linguagem não conseguem avaliar corretamente postagens ofensivas em idiomas como hindi, aumentando riscos para usuários com deficiência (Imagem: WANAN YOSSINGKUM/iStock)

Pesquisadores criaram uma coleção de 200 comentários de redes sociais direcionados a pessoas com deficiência e pediram aos modelos de IA que os classificassem quanto à toxicidade e capacitismo, explicando por que eram prejudiciais. Os resultados mostraram falhas sistemáticas.

Leia mais:

  • Saiba como a inteligência artificial pode ajudar a identificar vídeos falsos
  • Real ou deepfake? Veja como identificar se uma imagem foi gerada por inteligência artificial
  • É real ou IA? Plataformas estão “confundindo” vídeos

Desalinhamento cultural

  • LLMs ocidentais deram notas de dano mais altas que pessoas com deficiência na Índia; LLMs indianos subestimaram o impacto.
  • Todos os modelos trataram comentários em hindi como menos prejudiciais, ignorando tons sarcásticos ou condescendentes.
  • Explicações da IA eram clínicas e críticas, sem abordar a experiência vivida das pessoas com deficiência.
inteligencia artificial
Capacitismo ignorado pela IA: falha pode afetar milhões de pessoas – Imagem: tadamichi/Shutterstock

Próximos passos e impactos

Os pesquisadores planejam criar um benchmark multicultural para que os modelos entendam o capacitismo em diferentes comunidades. A meta é evitar danos em redes sociais e melhorar experiências em sistemas de contratação de IA e dispositivos domésticos inteligentes.

“É essencial que essas tecnologias protejam os direitos dos usuários mais vulneráveis e não reforcem os danos que deveriam mitigar”, destacou Mahika Phutane, coautora do estudo.

Mãos de robô e de uma pessoa tocando seus indicadores
IA não consegue detectar discursos de ódio contra pessoas com deficiência (Imagem: Gumbariya/Shutterstock)

O post IA ainda falha ao identificar capacitismo em redes sociais apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2025/10/16/pro/ia-ainda-falha-ao-identificar-capacitismo-em-redes-sociais/