Mais um caso envolvendo uma inteligência artificial desobediente. Buck Shlegeris, CEO da organização sem fins lucrativos de segurança de IA Redwood Research, desenvolveu um assistente de IA personalizado usando o modelo de linguagem Claude, da Anthropic. No entanto, a ferramenta acabou se mostrando imprevisível.
Ferramenta tomou decisões próprias
Shlegeris conta que pediu à sua IA para que usasse protocolo SSH (que permite que dois computadores se conectem em uma rede não segura) para acessar sua área de trabalho, sem saber o endereço IP do computador.
Ele se afastou da máquina e, após dez minutos, percebeu que a inteligência artificial tinha atualizado diversos sistemas, incluindo o kernel (componente central de um sistema operacional, sendo responsável por gerenciar os recursos do computador e a comunicação entre o software e o hardware) do Linux.
Os logs do sistema mostram que a IA de fato tentou usar o SSH, mas depois, por algum motivo desconhecido, buscou uma série de outras alternativas para finalizar a tarefa recebida. O resultado foi que o computador não consegue mais inicializar.
Depois de todo o caos gerado, a inteligência artificial simplesmente informou que não conseguiu resolver o problema. As informações são do Decrypt.
Leia mais
- Vontade própria? IA desobedece cientistas para ‘aumentar chance de sucesso’
- IA está deixando os ataques cibernéticos mais sofisticados
- IA ‘fofoqueira’ está revelando conversas de funcionários
IA pode criar malwares ou realizar ciberataques por conta própria
- A experiência de Shlegeris não é algo isolado.
- Os modelos de IA estão demonstrando cada vez mais que podem realizar funções que vão além do que foi pedido.
- A empresa de pesquisa Sakana AI, com sede em Tóquio, revelou recentemente um sistema apelidado de “The AI Scientist.”
- Projetado para conduzir pesquisas científicas de forma autônoma, o sistema impressionou seus criadores ao modificar seu próprio código para estender seu tempo de execução.
- Estes casos aumentam os debates sobre os riscos de desenvolver sistemas de IA altamente autônomos.
- Isso porque existe um temor de que as ferramentas possam ser usadas para fins maliciosos.
- A capacidade de uma IA para escrever e executar código de forma autônoma pode ser explorada para criar malware ou realizar ciberataques.
O post IA ‘se revolta’ e bloqueia computador de usuário apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2024/10/04/pro/ia-se-revolta-e-bloqueia-computador-de-usuario/