26 de abril de 2025
IA em Gaza: experimentos de Israel na região traz preocupações
Compartilhe:

Israel desenvolveu novas ferramentas de inteligência artificial (IA) para obter vantagem na guerra. As tecnologias, às vezes, levaram a consequências fatais, como traz o The New York Times.

No final de 2023, Israel tinha como alvo assassinar Ibrahim Biari, comandante de alto escalão do Hamas na Faixa de Gaza norte que havia ajudado a planejar os massacres de 7 de outubro. Mas a inteligência israelense não conseguia encontrar Biari, que acreditavam estar escondido na rede de túneis sob Gaza.

Então, oficiais israelenses recorreram a nova tecnologia militar com IA, segundo três oficiais israelenses e estadunidenses informados sobre os eventos e que falaram com o Times. A tecnologia foi desenvolvida uma década antes, mas nunca havia sido usada em batalha. Encontrar Biari forneceu novo incentivo para aprimorar a ferramenta e engenheiros da Unidade 8200 de Israel, equivalente à Agência de Segurança Nacional dos EUA, logo integraram a IA à mesma.

Pouco depois, Israel interceptou ligações de Biari e testou a ferramenta de áudio com IA, que forneceu localização aproximada de onde ele fazia suas chamadas. Usando essas informações, Israel ordenou ataques aéreos para atingir a área em 31 de outubro de 2023, matando Biari. Mais de 125 civis também morreram no ataque, segundo a Airwars, organização de monitoramento de conflitos baseada em Londres.

A ferramenta de áudio foi apenas um exemplo de como Israel usou a guerra em Gaza para testar e implantar, rapidamente, tecnologias militares baseadas em IA em grau nunca visto, de acordo com entrevistas com nove oficiais de defesa estadunidenses e israelenses, que falaram sob condição de anonimato devido à confidencialidade do trabalho ao periódico.

Drone militar israelense no ar (Imagem: Anas-Mohammed/Shutterstock)

IA ajuda Israel em Gaza, mas…

  • Nos últimos 18 meses, Israel também combinou IA com software de reconhecimento facial para identificar rostos parcialmente obscurecidos ou feridos, recorreu à IA para compilar potenciais alvos de ataques aéreos e criou um modelo de IA em língua árabe para alimentar um chatbot capaz de analisar mensagens de texto, postagens em redes sociais e outros dados em árabe;
  • Muitos desses esforços foram parceria entre soldados alistados na Unidade 8200 e soldados reservistas que trabalham em empresas de tecnologia, como Google, Microsoft e Meta;
  • A Unidade 8200 criou o que ficou conhecido como “O Estúdio“, um centro de inovação para conectar especialistas com projetos de IA;
  • No entanto, mesmo com Israel correndo para desenvolver o arsenal de IA, a implantação das tecnologias, às vezes, levou a identificações errôneas e prisões, além de mortes de civis;
  • Alguns oficiais têm lutado com as implicações éticas das ferramentas de IA, que podem resultar em maior vigilância e outras mortes de civis.

Nenhuma outra nação tem sido tão ativa quanto Israel na experimentação com ferramentas de IA em batalhas em tempo real, segundo oficiais de defesa europeus e estadunidenses, oferecendo prévia de como essas tecnologias podem ser usadas em guerras futuras — e como também podem dar errado.

“A necessidade urgente de lidar com a crise acelerou a inovação, grande parte dela impulsionada por IA”, disse Hadas Lorber, diretora do Instituto de Pesquisa Aplicada em IA Responsável do Instituto de Tecnologia Holon de Israel e ex-diretora sênior do Conselho de Segurança Nacional israelense, ao Times. “Isso levou a tecnologias revolucionárias no campo de batalha e vantagens que se provaram críticas em combate.”

Mas as tecnologias “também levantam sérias questões éticas“, disse Lorber. Ela alertou que a IA precisa de verificações e equilíbrios, acrescentando que humanos devem tomar as decisões finais.

Uma porta-voz do exército israelense disse que não poderia comentar sobre tecnologias específicas devido à sua “natureza confidencial“. Israel “está comprometido com o uso legal e responsável de ferramentas de tecnologia de dados”, disse ela, acrescentando que o exército estava investigando o ataque a Biari e estava “impossibilitado de fornecer qualquer informação adicional até que a investigação esteja completa”.

Meta e Microsoft recusaram-se a comentar quando procuradas pelo jornal. O Google disse que tem “funcionários que fazem serviço de reserva em vários países ao redor do mundo. O trabalho que esses funcionários fazem como reservistas não está conectado ao Google”.

Israel anteriormente usou conflitos em Gaza e no Líbano para experimentar e avançar ferramentas tecnológicas para seu exército, como drones, ferramentas de hackeamento de telefones e o sistema de defesa Domo de Ferro, que pode ajudar a interceptar mísseis balísticos de curto alcance.

Após o Hamas lançar ataques transfronteiriços a Israel em 7 de outubro de 2023, matando mais de 1,2 mil pessoas e fazendo 250 reféns, tecnologias de IA foram rapidamente liberadas para implantação. Isso levou à cooperação entre a Unidade 8200 e soldados reservistas em “O Estúdio” para desenvolver, rapidamente, novas capacidades de IA.

Avi Hasson, CEO da Startup Nation Central, organização sem fins lucrativos israelense que conecta investidores com empresas, disse que reservistas da Meta, Google e Microsoft tornaram-se cruciais para impulsionar a inovação em drones e integração de dados.

“Os reservistas trouxeram know-how e acesso a tecnologias-chave que não estavam disponíveis no exército“, disse ele.

Leia mais:

  • Google Whisk: como usar a inteligência artificial para juntar imagens
  • 8 coisas que você não deve compartilhar com inteligências artificiais
  • Ascensão da IA muda nomes dos cargos em tecnologia e confunde setor

O exército israelense logo usou IA para melhorar sua frota de drones. Aviv Shapira, fundador e CEO da XTEND, empresa de software e drones que trabalha com o exército israelense, disse que algoritmos alimentados por IA foram usados para construir drones capazes de travar e rastrear alvos à distância.

“No passado, as capacidades de direcionamento dependiam de mirar em uma imagem do alvo“, disse ele. “Agora, a IA pode reconhecer e rastrear o próprio objeto — seja um carro em movimento ou uma pessoa — com precisão mortal.”

Shapira disse que seus principais clientes, o exército israelense e o Departamento de Defesa dos EUA, estavam cientes das implicações éticas da IA na guerra e discutiam o uso responsável da tecnologia.

Uma ferramenta desenvolvida por “O Estúdio” foi um modelo de IA em língua árabe conhecido como modelo de linguagem grande (LLM, na sigla em inglês).

Os desenvolvedores, anteriormente, lutaram para criar tal modelo devido à escassez de dados em árabe para treinar a tecnologia. Quando tais dados estavam disponíveis, eram, principalmente, em árabe escrito padrão, que é mais formal do que as dezenas de dialetos usados no árabe falado.

O exército israelense não tinha esse problema. O país tinha décadas de mensagens de texto interceptadas, ligações telefônicas transcritas e postagens retiradas de redes sociais em dialetos árabes falados.

Assim, oficiais israelenses criaram o modelo de linguagem grande nos primeiros meses da guerra e construíram um chatbot para executar consultas em árabe. Eles mesclaram a ferramenta com bancos de dados multimídia, permitindo que analistas realizassem buscas complexas em imagens e vídeos.

Israel e Faixa de Gaza, na Palestina, destacados em mapa
Mapa destaca a Faixa de Gaza entre os territórios da Palestina e Israel (Reprodução: Below the Sky/Shutterstock)

Quando Israel assassinou o líder do Hezbollah Hassan Nasrallah em setembro, o chatbot analisou as respostas em todo o mundo de língua árabe. A tecnologia diferenciou entre vários dialetos no Líbano para avaliar a reação pública, ajudando Israel a avaliar se havia pressão pública por um contra-ataque.

Às vezes, o chatbot não conseguia identificar alguns termos de gíria modernos e palavras que foram transliteradas do inglês para o árabe. Isso exigia que oficiais de inteligência israelenses com especialização em diferentes dialetos revisassem e corrigissem seu trabalho.

O chatbot também, às vezes, fornecia respostas erradas — por exemplo, retornando fotos de canos em vez de armas. Mesmo assim, a ferramenta de IA acelerou significativamente a pesquisa e análise.

Em postos de controle temporários estabelecidos entre o norte e o sul da Faixa de Gaza, Israel também começou a equipar câmeras após os ataques de 7 de outubro com a capacidade de escanear e enviar imagens de alta resolução de palestinos para um programa de reconhecimento facial apoiado por IA.

Este sistema também tinha, às vezes, problemas para identificar pessoas cujos rostos estavam obscurecidos. Isso levou a prisões e interrogatórios de palestinos que foram erroneamente sinalizados pelo sistema de reconhecimento facial.

Israel também usou IA para filtrar dados acumulados por oficiais de inteligência sobre membros do Hamas. Antes da guerra, Israel construiu um algoritmo de aprendizado de máquina — com o codinome “Lavender” — que poderia, rapidamente, classificar dados para caçar militantes de baixo nível.

Foi treinado em um banco de dados de membros confirmados do Hamas e destinado a prever quem mais poderia fazer parte do grupo. Embora as previsões do sistema fossem imperfeitas, Israel o usou no início da guerra em Gaza para ajudar a escolher alvos de ataque.

Poucos objetivos eram mais importantes do que encontrar e eliminar a liderança sênior do Hamas. No topo da lista estava Biari, o comandante do Hamas que oficiais israelenses acreditavam ter desempenhado papel central no planejamento dos ataques de 7 de outubro.

A inteligência militar de Israel, rapidamente, interceptou as ligações de Biari com outros membros do Hamas, mas não conseguia localizar sua posição exata. Então, recorreram à ferramenta de áudio com IA, que analisou diferentes sons, como bombas sônicas e ataques aéreos.

Após deduzir uma localização aproximada de onde Biari estava fazendo suas ligações, oficiais militares israelenses foram alertados de que a área, que incluía vários complexos de apartamentos, era densamente povoada. Um ataque aéreo precisaria atingir vários edifícios para garantir que Biari fosse assassinado. A operação foi autorizada.

Desde então, a inteligência israelense também usou a ferramenta de áudio junto com mapas e fotos do labirinto de túneis subterrâneos de Gaza para localizar reféns. Com o tempo, a ferramenta foi refinada para localizar indivíduos com mais precisão.

O post IA em Gaza: experimentos de Israel na região traz preocupações éticas apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2025/04/25/pro/ia-em-gaza-experimentos-de-israel-na-regiao-traz-preocupacoes-eticas/