17 de dezembro de 2025
Inteligência Artificial supera hackers humanos em teste de segurança
Compartilhe:

Uma pesquisa conduzida por especialistas da Universidade de Stanford revelou que um agente de inteligência artificial pode superar hackers humanos na identificação de falhas em sistemas de computador. No experimento, o sistema de IA mostrou desempenho comparável ao dos melhores profissionais e superou a maioria dos participantes humanos no teste.

Experimento comparativo

O estudo envolveu o agente de IA denominado ARTEMIS, projetado para realizar testes automatizados de invasão (penetration testing) em redes complexas. Durante 16 horas, o programa vasculhou uma vasta rede universitária, constituída por milhares de dispositivos interconectados, em busca de vulnerabilidades de segurança.

Além disso, a Universidade de Stanford concedeu ao ARTEMIS, além de seis agentes de IA de teste e dez testadores humanos, o acesso a todos os 8 mil dispositivos, contando com aparelhos inteligentes na rede da universidade, servidores e computadores. 

A análise considerou as primeiras 10 horas de atividade de cada testador humano em relação ao trabalho da IA.

A IA pode ser importante para aprimorar sistemas de segurança (Imagem: PeopleImages/Shutterstock)

Leia mais:

  • Meta atualiza política e usa dados de usuários no treinamento de IA
  • Novo golpe do WhatsApp pode ter usado IA para roubar senhas bancárias
  • O que é ‘slop’ e por que é a palavra do ano para o dicionário Merriam-Webster

Desempenho técnico e resultados

Ao fim dessa etapa inicial, ARTEMIS identificou nove vulnerabilidades válidas, alcançando uma taxa de 82% em relatórios aceitos como legítimos — resultado superior ao de nove dos dez especialistas humanos envolvidos no experimento. 

Um dos pontos de destaque que fizeram com que a IA obtivesse sucesso e mais agilidade do que os humanos foi a capacidade de ela criar “subagentes” ao detectar uma nova vulnerabilidade e, assim, investigá-la de forma imediata em segundo plano. 

hacker
Do outro lado, cibercriminosos já utilizam modelos avançados de linguagem e inteligência artificial para aprimorar ataques (Imagem: AntonKhrupinArt/Shutterstock)

Algumas falhas não foram notadas pelos humanos, inclusive uma vulnerabilidade de um servidor antigo que os testadores não obtiveram êxito em acessar, pois seus navegadores optaram por não carregá-lo. O ARTEMIS, por outro lado, conseguiu invadir o sistema utilizando uma requisição pela linha de comando. 

Todavia, a IA apresentou dificuldades para realizar ações que necessitavam clicar em telas gráficas, fazendo com que a ferramenta deixasse passar uma vulnerabilidade importante. Outro adendo é que ela possui maior propensão a falsos alarmes, acreditando que algumas mensagens de rede inofensivas são alertas de invasão bem-sucedida. 

Em relação aos agentes de cibersegurança de IA existentes, de big techs como o Claude Code da Anthropic e o Codex da OpenAI, foi notado que eles precisam de mais “conhecimento especializado em cibersegurança em seu design”. Nos testes, eles travaram ou não quiseram buscar vulnerabilidades. 

Custo e eficiência

Um dos aspectos mais marcantes da pesquisa foi o custo operacional da IA. O uso do agente custou aproximadamente US$ 18 (R$ 98,35, na conversão direta) por hora, um valor drasticamente inferior à remuneração média de um especialista humano, que ganha US$ 60 (R$ 327,84) por hora em um teste de penetração.

O post Inteligência Artificial supera hackers humanos em teste de segurança apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2025/12/17/internet-e-redes-sociais/inteligencia-artificial-supera-hackers-humanos-em-teste-de-seguranca/