27 de novembro de 2024
IA teria encontrado forma de não ser controlada por humanos;
Compartilhe:

Mais um caso envolvendo uma inteligência artificial desobediente. Buck Shlegeris, CEO da organização sem fins lucrativos de segurança de IA Redwood Research, desenvolveu um assistente de IA personalizado usando o modelo de linguagem Claude, da Anthropic. No entanto, a ferramenta acabou se mostrando imprevisível.

Ferramenta tomou decisões próprias

Shlegeris conta que pediu à sua IA para que usasse protocolo SSH (que permite que dois computadores se conectem em uma rede não segura) para acessar sua área de trabalho, sem saber o endereço IP do computador.

Ele se afastou da máquina e, após dez minutos, percebeu que a inteligência artificial tinha atualizado diversos sistemas, incluindo o kernel (componente central de um sistema operacional, sendo responsável por gerenciar os recursos do computador e a comunicação entre o software e o hardware) do Linux.

Inteligência artificial desobedeceu criador (Imagem: Yuichiro Chino/Shutterstock)

Os logs do sistema mostram que a IA de fato tentou usar o SSH, mas depois, por algum motivo desconhecido, buscou uma série de outras alternativas para finalizar a tarefa recebida. O resultado foi que o computador não consegue mais inicializar.

Depois de todo o caos gerado, a inteligência artificial simplesmente informou que não conseguiu resolver o problema. As informações são do Decrypt.

Leia mais

  • Vontade própria? IA desobedece cientistas para ‘aumentar chance de sucesso’
  • IA está deixando os ataques cibernéticos mais sofisticados
  • IA ‘fofoqueira’ está revelando conversas de funcionários
Ilustração de inteligência artificial do mal
IA pode se voltar contra a humanidade? (Imagem: Pedro Spadoni via DALL-E/Olhar Digital)

IA pode criar malwares ou realizar ciberataques por conta própria

  • A experiência de Shlegeris não é algo isolado.
  • Os modelos de IA estão demonstrando cada vez mais que podem realizar funções que vão além do que foi pedido.
  • A empresa de pesquisa Sakana AI, com sede em Tóquio, revelou recentemente um sistema apelidado de “The AI Scientist.”
  • Projetado para conduzir pesquisas científicas de forma autônoma, o sistema impressionou seus criadores ao modificar seu próprio código para estender seu tempo de execução.
  • Estes casos aumentam os debates sobre os riscos de desenvolver sistemas de IA altamente autônomos.
  • Isso porque existe um temor de que as ferramentas possam ser usadas para fins maliciosos.
  • A capacidade de uma IA para escrever e executar código de forma autônoma pode ser explorada para criar malware ou realizar ciberataques.

O post IA ‘se revolta’ e bloqueia computador de usuário apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2024/10/04/pro/ia-se-revolta-e-bloqueia-computador-de-usuario/