A Meta anunciou que poderá interromper o desenvolvimento de sistemas de IA considerados excessivamente perigosos. A decisão, revelada em um novo documento da empresa, surge em meio a crescentes preocupações sobre os riscos potenciais da inteligência artificial.
A nova política marca uma mudança na abordagem “aberta” da Meta para o desenvolvimento da tecnologia.
IAs de “risco crítico”: o que preocupa a Meta?
O documento descreve tipos de sistemas que a Meta considera muito arriscados para lançamento. Como aqueles capazes de auxiliar em ataques cibernéticos, químicos e biológicos. A empresa ilustra a gravidade desses riscos com exemplos como a proliferação de armas biológicas e a invasão automatizada de sistemas corporativos.
A avaliação de risco da Meta é baseada na análise de pesquisadores internos e externos. Diante da identificação de um sistema de “alto risco”, por exemplo, a Meta promete restringir o acesso.
No caso de um sistema classificado como “risco crítico”, a Meta se compromete a implementar salvaguardas de segurança, como interromper o desenvolvimento até que o sistema se torne menos perigoso.
O relatório da Meta representa uma resposta às críticas sobre sua abordagem de desenvolvimento de IA. A empresa tem sido notória por tornar sua tecnologia de IA abertamente disponível, em contraste com empresas como a OpenAI, que optam por proteger seus sistemas.
Essa estratégia de “lançamento aberto” tem sido um divisor de águas para a Meta. Sua família de modelos de IA, Llama, acumula centenas de milhões de downloads. No entanto, essa mesma abertura gerou preocupações, com relatos de que o Llama foi usado para desenvolver um chatbot de defesa por um adversário dos EUA, segundo o TechCrunch.
Leia mais:
- Trump anuncia ‘projetaço’ para data centers de IA com OpenAI e outras empresas
- Meta: o que são as notas de comunidade? Veja diferença para o sistema de checagem de fatos
- Meta AI: como mudar a voz na IA do WhatsApp
A Meta enfatiza no documento que sua abordagem, que considera os benefícios e riscos da IA, visa entregar essa tecnologia à sociedade de forma a preservar seus benefícios, mantendo um nível aceitável de risco. Resta saber se essa nova postura será suficiente para acalmar as preocupações e garantir um futuro da IA mais seguro e responsável.
O post Meta adota cautela com IA de alto risco apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/02/04/pro/meta-adota-cautela-com-ia-de-alto-risco/