11 de dezembro de 2025
Cuidado! Hackers exploram IA e anúncios do Google para instalar
Compartilhe:

Hackers estão explorando ChatGPT, Grok e até o Google para convencer usuários a rodar comandos que permitem a instalação de malware. A descoberta foi feita pela empresa de segurança Huntress.

O ataque se aproveita da confiança do público em ferramentas de IA e em resultados patrocinados do Google, enganando vítimas que buscavam apenas resolver problemas comuns no computador, explica o Endgadget.

Golpe usa confiança em ChatGPT, Grok e links patrocinados do Google, enganando quem busca soluções simples no computador. Imagem: lilgrapher/Shutterstock

Chatbots transformados em armas

A nova técnica de ataque atua exatamente onde os usuários se sentem mais seguros: nos resultados do Google e nas respostas de chatbots populares. Segundo a Huntress, os invasores iniciam uma conversa com um assistente de IA usando um termo de busca comum — como “me ajude a formatar meu HD?”.

Durante o diálogo, eles induzem o chatbot a sugerir um comando de terminal malicioso. Em seguida, tornam a conversa pública e pagam para que ela apareça como anúncio nos resultados do Google.

Quando alguém pesquisa o mesmo termo, o link patrocinado surge no topo. Sem perceber o risco, a vítima copia e cola o comando no terminal — permitindo que os hackers instalem o malware.

A Huntress identificou o método ao investigar um ataque de exfiltração de dados contra Macs envolvendo o malware AMOS. Em um dos casos, o usuário havia clicado nesse tipo de link patrocinado e executado a instrução sugerida pela IA.

Ataque explora links do Google que levam a chats manipulados, fazendo vítimas copiarem comandos maliciosos no terminal.
Ataque explora links do Google que levam a chats manipulados, fazendo vítimas copiarem comandos maliciosos no terminal. Imagem: Mijansk786/Shutterstock

ChatGPT e Grok repetiram o mesmo comportamento

A equipe da Huntress testou o vetor de ataque em diferentes IAs. Tanto o ChatGPT quanto o Grok confirmaram o problema e, quando manipulados, repetiram as mesmas instruções perigosas.

Leia mais:

  • Satélites na mira: guerra cibernética no espaço dispara em conflitos recentes
  • Como hackers usam IA em ciberespionagens?
  • Brecha em navegadores com IA pode levar a roubo de dados, contas e até dinheiro

Esse tipo de golpe dribla os sinais de alerta tradicionais: não há arquivos suspeitos, links estranhos ou instalações inesperadas. Tudo ocorre dentro de plataformas que os usuários já utilizam e consideram confiáveis.

Como aponta o relatório da Huntress, a dependência natural das pessoas em ferramentas como Google e ChatGPT facilita ainda mais o golpe.

O golpe explorou links patrocinados do Google, mas ainda não se sabe se outras IAs além de ChatGPT e Grok estão vulneráveis.
O golpe explorou links patrocinados do Google, mas ainda não se sabe se outras IAs além de ChatGPT e Grok estão vulneráveis. Imagem: Tada Images/Shutterstock

Golpe se espalha rapidamente

Mesmo após a denúncia, o link malicioso permaneceu ativo no Google por pelo menos meio dia, tempo suficiente para causar novas infecções.

Ainda não há confirmação sobre a replicação do golpe em outros chatbots, mas o cenário exige atenção redobrada.

Sem soluções definitivas por enquanto, algumas recomendações ajudam a reduzir riscos. A Huntress reforça que ninguém deve executar comandos no terminal — ou colar algo na barra de endereços do navegador — sem entender exatamente sua função.

Para reforçar, aqui vai um resumo prático:

  • Não execute comandos sugeridos por IA sem saber sua função.
  • Evite copiar instruções diretamente de resultados patrocinados.
  • Desconfie de recomendações técnicas muito simples ou “mágicas”.
  • Mantenha o sistema e o antivírus atualizados.
  • Consulte fontes confiáveis antes de rodar comandos no computador.

O post Cuidado! Hackers exploram IA e anúncios do Google para instalar malware apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2025/12/11/seguranca/cuidado-hackers-exploram-ia-e-anuncios-do-google-para-instalar-malware/