19 de novembro de 2025
ShadowMQ: falha silenciosa que expôs vulnerabilidades na infraestrutura de IA
Compartilhe:

O ecossistema de IA acaba de ganhar um novo vilão: o ShadowMQ. A vulnerabilidade se espalhou de forma discreta entre projetos bastante conhecidos, atingindo frameworks usados por empresas como Meta, Nvidia, Microsoft e outras gigantes do setor.

A descoberta, feita pela equipe da Oligo Security, expôs como a simples prática de reaproveitar trechos de código (algo comum e até incentivado) pode abrir brechas sérias na infraestrutura que sustenta grande parte das aplicações modernas de IA.

Falha ShadowMQ atinge grandes frameworks e expõe dados sensíveis e operações em servidores de IA corporativos. Imagem: Song_about_summer/Shutterstock

Uma descoberta que revelou um padrão maior

O caso veio à tona em 2024, quando pesquisadores analisavam o LlaMa Stack, da Meta, e encontraram um uso problemático do método recv_pyobj() do ZeroMQ (ZMQ). Ele abre mensagens usando pickle, um sistema capaz de executar código automaticamente ao ler certos dados.

Em um servidor acessível pela internet, isso vira um risco evidente: uma mensagem mal-intencionada pode ser interpretada como um comando legítimo – e o sistema simplesmente o executa.

A Meta corrigiu o problema rapidamente, trocando pickle por JSON. Mas o que chamou atenção depois foi algo mais preocupante: outros frameworks traziam exatamente o mesmo trecho vulnerável, copiado quase ao pé da letra.

Assim surgiu o nome ShadowMQ – uma falha que se espalha sem que ninguém perceba, apenas porque um projeto herda o código do outro.

Por que isso virou um problema em cadeia

A mesma falha apareceu em frameworks amplamente usados em empresas e universidades. No SGLang, por exemplo, o próprio arquivo mencionava que havia sido adaptado do vLLM, trazendo junto toda a lógica insegura.

Esses sistemas costumam rodar em servidores potentes, com várias GPUs e informações sensíveis. Isso torna o cenário ainda mais crítico: uma vulnerabilidade desse tipo pode permitir ataques graves, como execução remota de código (RCE), em que o invasor envia um comando e o servidor age como se fosse algo legítimo.

Para demonstrar que o risco não era teórico, a Oligo gravou ataques reais funcionando em ferramentas como Nvidia TensorRT-LLM e Modular Max.

O uso inseguro de pickle no Llama Stack permitiu que mensagens maliciosas executem comandos no servidor.
O uso inseguro de pickle no Llama Stack permitiu que mensagens maliciosas executem comandos no servidor. Imagem: Fajri Mulia Hidayat/Shutterstock

O que poderia acontecer se a falha fosse explorada

Segundo os pesquisadores, um invasor poderia:

  • executar comandos diretamente no servidor de IA;
  • acessar outros sistemas internos conectados a ele;
  • vazar informações sensíveis;
  • instalar programas maliciosos, como mineradores de criptomoedas;
  • comprometer clusters inteiros usados em produção.

O alerta fica ainda mais forte porque milhares de sockets ZMQ estão expostos na internet pública – alguns justamente em servidores voltados à execução de modelos de IA.

As correções já feitas

Após os relatórios, vários projetos liberaram atualizações:

  • Meta Llama Stack (out/2024) – remoção do pickle e adoção de JSON.
  • vLLM (mai/2025) – substituição do mecanismo vulnerável por outro seguro.
  • NVIDIA TensorRT-LLM (mai/2025) – implementação de autenticação HMAC.
  • Modular Max Server (jun/2025) – migração para msgpack.

Mas nem todos avançaram da mesma forma.

O Sarathi-Serve, da Microsoft, segue vulnerável.
O SGLang aplicou correções parciais, o que deixa parte do risco ativo.

Esses casos foram classificados como “vulnerabilidades ocultas”: falhas que já são conhecidas, mas continuam prontas para serem exploradas.

O episódio reforça que segurança não pode ser tratada como detalhe: ela precisa fazer parte do desenvolvimento desde o início.
O episódio reforça que segurança não pode ser tratada como detalhe: ela precisa fazer parte do desenvolvimento desde o início. Imagem: BOY ANTHONY/Shutterstock

Como reduzir riscos daqui pra frente

Para evitar novas falhas como o ShadowMQ, especialistas orientam instalar as versões corrigidas dos frameworks e abandonar soluções que reconstruam dados automaticamente a partir de fontes externas, como pickle ou recv_pyobj().

Também recomendam adicionar autenticação às conexões ZeroMQ, limitar sockets para uso interno e reforçar o treinamento das equipes para reconhecer riscos na manipulação de dados recebidos pela rede.

Leia mais:

  • Nova vulnerabilidade pode travar navegadores em segundos
  • Hackers podem invadir redes celulares à distância, diz estudo
  • Pesquisadores descobrem brechas em pagamentos sem contato

O caso ShadowMQ mostra como copiar código sem revisão pode disseminar vulnerabilidades em diferentes projetos de IA. O episódio reforça que segurança não pode ser tratada como detalhe: ela precisa fazer parte do desenvolvimento desde o início.

O post ShadowMQ: falha silenciosa que expôs vulnerabilidades na infraestrutura de IA apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2025/11/19/seguranca/shadowmq-falha-silenciosa-que-expos-vulnerabilidades-na-infraestrutura-de-ia/