4 de dezembro de 2025
Brecha em navegadores com IA pode levar a roubo de
Compartilhe:

Pesquisadores de cibersegurança identificaram um truque voltado para navegadores com inteligência artificial (IA). Eles chamaram o novo golpe de “falsificação de barra lateral de IA”. A ideia é simples e perigosa: criar respostas falsas que se passam pela assistente embutida no navegador, como se a própria IA orientasse o usuário.

O ataque se apoia num hábito que só cresce: confiar sem pensar duas vezes nas instruções da IA. A demonstração mostrou que a técnica funciona em dois navegadores populares entre esses com IA embutida: o Comet, da Perplexity; e o Atlas, da OpenAI

Essa confiança vira arma: a falsa resposta empurra o usuário para ações arriscadas, que vão de cliques em links suspeitos a acessos a sites de phishing.

Extensões maliciosas criam barras laterais falsas e manipulam respostas da IA

A falsificação da barra lateral parte de um ponto simples: tanto o Comet, da Perplexity, quanto o Atlas, da OpenAI, podem ser enganados se o usuário instalar uma extensão maliciosa. Os pesquisadores mostraram o ataque funcionando nos dois, ainda que o Comet ajude a ilustrar melhor a mecânica. 

Golpe de ‘falsificação de barra lateral de IA’ cria respostas falsas como se a assistente do navegador orientasse o usuário (Imagem: Pedro Spadoni via ChatGPT/Olhar Digital)

Isso ocorre num momento em que a IA virou peça central da navegação. Entre 2023 e 2024, a ideia de usar IA para transformar a pesquisa na web saiu do laboratório e entrou no navegador. Primeiro, como barras laterais suplementares – casos do Microsoft Edge Copilot e do Brave Leo. Depois, como o coração da interface.

Esse último salto aconteceu em 2025, quando o Comet surgiu já desenhado para conversar com a IA o tempo inteiro. Nele, a barra lateral é onde tudo acontece. 

Em outubro do mesmo ano, a OpenAI lançou o Atlas, apostando na mesma lógica: uma assistente integrada que lê a página, analisa o conteúdo e responde ali mesmo, sem o usuário precisar abrir novas abas. 

Na prática, é um ambiente que te condiciona a confiar. Você pede um resumo, uma explicação rápida, uma comparação de dados e a IA entrega. Essa naturalidade é justamente o terreno fértil explorado por cibercriminosos.

O golpe começa onde quase todos começam: na instalação de uma extensão aparentemente inofensiva. As permissões que ela pede (ver e modificar dados dos sites visitados, além de acessar o armazenamento local do navegador) soam padrão demais para levantar suspeita. 

Uma vez dentro, a extensão injeta JavaScript na página e cria uma barra lateral falsa, virtualmente idêntica à original. Essa cópia conversa de verdade com o modelo legítimo (nos testes, o Google Gemini, embora o ChatGPT funcionasse tão bem quanto). E mostra respostas corretas quase o tempo todo. 

O truque está no “quase”. Em temas definidos pelo criminoso, a extensão troca a resposta por instruções, comandos ou links maliciosos. E como dezenas de extensões duvidosas passam pelas verificações da Chrome Web Store, a chance de alguém instalar uma delas é bem alta.

Falsificação da barra lateral de navegadores com IA pode levar a roubo, sequestro de contas e invasão de dispositivos

A falsificação da barra lateral abre um leque enorme de possibilidades para quem quer causar dano. Os pesquisadores mostraram isso com três cenários bem diretos – todos viáveis porque o usuário acredita estar falando com uma IA legítima. 

ilustração de janelas em fluxo de golpe da falsificação da barra lateral de navegadores com inteligência artificial (IA)
Pesquisadores de cibersegurança simularam fluxos e cenários de golpe que falsifica barra lateral de navegador com IA (Imagem: Pedro Spadoni via ChatGPT/Olhar Digital)

O primeiro envolve carteiras de criptomoedas, o segundo mira contas Google e o terceiro compromete todo o sistema com um simples comando adulterado.

No ataque contra criptomoedas, o usuário apenas pergunta como vender seus ativos na Binance. A barra lateral falsa responde com um passo a passo completo e oferece um link que parece idêntico ao real. 

No entanto, só parece. Ele leva para um domínio de phishing extremamente convincente. Ao inserir login e 2FA, o usuário entrega tudo. E os invasores conseguem acesso total à conta, o que abre caminho para esvaziar a carteira em segundos. O golpe funciona porque nada, na superfície, destoa do comportamento esperado de um assistente de IA.

O segundo cenário mira a conta Google. A IA falsa apresenta um link para um serviço fictício de compartilhamento de arquivos. A página pede login com Google e, após o clique, redireciona o usuário para a página legítima de autenticação (movimento para reforçar a sensação de segurança). 

O perigo surge na etapa seguinte. O aplicativo falso solicita acesso total ao Gmail e ao Google Drive. Se o usuário aperta/clica em “Permitir”, abre as portas para que invasores leiam e-mails, ajustem configurações, criem e enviem mensagens em seu nome e baixem todos os arquivos armazenados. 

Neste golpe, cibercriminosos podem roubar documentos, acessar serviços vinculados e até se passar pelo dono da conta para espalhar novos ataques.

O terceiro exemplo mostra o risco da sugestão de comandos pela própria IA. O usuário pergunta como instalar um aplicativo e a resposta parece normal: um guia de instalação plausível, com cada etapa bem explicada. 

Só que, no último passo, o comando real é trocado por um “reverse shell”, código que abre uma porta para controle remoto. Se o usuário copia e executa, o dispositivo fica comprometido.

Com isso, o cibercriminoso pode baixar dados, monitorar atividades, instalar malware e prolongar a invasão. É um lembrete de como uma única linha de código alterada numa interface confiável pode entregar um sistema inteiro.

Atualmente, esse tipo de ataque segue no campo teórico. Mas a distância entre hipótese e prática diminuiu muito nos últimos anos. Os próprios pesquisadores alertam, num post do blog da Kaspersky, que é “bastante possível” alguém já estar desenvolvendo uma extensão maliciosa desse tipo. 

Leia mais:

  • Práticas de segurança de gigantes da IA ficam aquém dos padrões globais, aponta relatório
  • 4 extensões do Chrome para evitar usar no navegador
  • 6 dicas para reduzir seus rastros na internet

A defesa, portanto, volta ao básico:

  • Conferir comandos e links antes de seguir qualquer recomendação da IA;
  • Se for código, copie e pesquise o que ele faz em outro navegador, sem IA embutida;
  • Evite instalar extensões desnecessárias e remova as que não usa mais;
  • Leia avaliações de usuários (extensões maliciosas costumam acumular críticas negativas antes de sumirem da loja);
  • Nunca insira credenciais sem checar o domínio (erros de digitação e sufixos estranhos são sinais claros de golpe). 

Última dica: deixe suas proteções automáticas ligadas para bloquear sites de phishing e avisar quando algo suspeito acontecer.

O post Brecha em navegadores com IA pode levar a roubo de dados, contas e até dinheiro apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2025/12/04/seguranca/brecha-em-navegadores-com-ia-pode-levar-a-roubo-de-dados-contas-e-ate-dinheiro/