“O horror do bombardeio assistido por IA em tempo de guerra: morte programada por algoritmos”

O impacto devastador do bombardeio assistido por IA na guerra

À medida que os debates sobre a aprendizagem automática questionam a ameaça da inteligência artificial para a humanidade, os bombardeamentos assistidos por IA revelam uma nova dimensão de morte programada por algoritmos na guerra.

Em 1º de dezembro de 2023, as Forças de Defesa de Israel (IDF) divulgaram um mapa da Faixa de Gaza transformado em uma grade de mais de 600 blocos. Esses blocos destinam-se a ajudar os civis a identificar zonas de combate ativas. O mapa, ao qual os palestinianos devem aceder através de um código QR, apesar dos cortes de energia e dos bombardeamentos, visa alertá-los sobre ordens de evacuação direcionadas para áreas que sofrem fortes bombardeamentos.

Este mapa fornece precisão e funciona como uma ferramenta de relações públicas destinada a moldar a opinião internacional sobre a proteção de civis. Utilizado pelas FDI como prova dos seus esforços para minimizar as vítimas civis, o mapa interactivo pretende mostrar ao mundo que, para as FDI, os residentes da Faixa de Gaza não são o inimigo.

De acordo com a Human Rights Watch, estas ordens de evacuação ignoram a realidade no terreno e não devem apagar as protecções proporcionadas pelas leis da guerra. Em 5 de dezembro, o porta-voz do Fundo das Nações Unidas para a Infância (UNICEF), James Elder, disse que viajar para as chamadas zonas de evacuação seguras era uma sentença de morte.

Uma investigação publicada em 30 de novembro pelas plataformas de jornalismo independente +972 Magazine e Local Call questiona o uso mais amplo da IA ​​na guerra de Israel contra Gaza. Com base em entrevistas com actuais e antigos membros da comunidade de inteligência israelita, mostra que as unidades de inteligência das FDI se tornaram uma “fábrica de assassinatos em massa” que opera sob a cobertura de ferramentas de inteligência estatisticamente significativas, precisas e tecnicamente avançadas.

A investigação expõe o uso de um sistema denominado “Habsora” (“o Evangelho”), que utiliza tecnologia de IA para gerar quatro tipos de alvos: táticos, subterrâneos, elétricos e familiares. Os alvos são produzidos com base na probabilidade de combatentes do Hamas estarem nas instalações. Para cada alvo, é anexado um arquivo que “estipula o número de civis que provavelmente serão mortos em um ataque”. Estes ficheiros fornecem números e baixas calculadas, de modo que, quando as unidades de inteligência realizam um ataque, os militares sabem quantos civis são susceptíveis de serem mortos.

Numa entrevista à organização de notícias sem fins lucrativos Democracy Now, Yuval Abraham disse que o uso da IA ​​depende de software automatizado para gerar alvos com consequências de vida ou morte.. Embora tenham havido limitações estritas sobre danos colaterais no passado, estes alvos gerados por IA não têm precedentes – são automatizados, dependem de tecnologias de processamento de dados alimentadas por IA, permitem potenciais perdas colaterais de centenas de civis e são produzidos “mais rapidamente do que o taxa de ataques”.

O ex-chefe do Estado-Maior das FDI, Aviv Kochavi, disse que a Direção de Alvos criada em 2019 processa dados para gerar metas acionáveis. Utilizando “capacidades de matriz”, o sistema gera “100 alvos num único dia, 50% dos quais são atacados”, enquanto no passado a unidade de inteligência produzia 50 alvos por ano. No processo de escalada dos alvos gerados pela IA, os critérios para matar civis foram significativamente flexibilizados.

Em 6 de dezembro, Malika Bilal, apresentadora do podcast The Take da Al Jazeera, lançou um episódio para investigar mais detalhadamente o protocolo de guerra dos militares israelenses e seu uso do evangelho. Uma das questões centrais que coloca é como e quando os limites de vítimas civis mudaram e quem optou por reduzir as restrições.

Bilal entrevistou Marc Owen Jones, professor associado de estudos do Oriente Médio na Universidade Hamad bin Khalifa em Doha, Qatar, que disse: “A IA está sendo usada para selecionar pessoas para morte e destruição”.

De acordo com Jones, quando os militares israelitas treinam modelos de IA, as unidades de inteligência sabem muito bem que estes alvos incluirão civis.

“Eles estão terceirizando as vidas e os destinos das pessoas para uma tecnologia que provavelmente herdou a ideologia da ocupação e do extermínio”, disse ele.

Quando os modelos de IA são treinados, isso é feito com base em precedentes estabelecidos. No caso do exército israelita, o assassinato de civis faz parte do padrão. Uma parte fundamental da tecnologia de IA é que ela depende dos dados coletados e do modelo utilizado. Não só a utilização da tecnologia de IA será tendenciosa se a tecnologia aprender com dados tendenciosos, mas o modelo de previsão e as recomendações operacionais também serão tendenciosos se forem implementadas num contexto em que a tecnologia é utilizada para servir e justificar uma determinada ideologia.

As IDF baseiam-se na correcção algorítmica, ignorando ao mesmo tempo procedimentos de justiça e responsabilização. A eficácia clínica dos seus alvos gerados pela IA é apresentada pelas alas de marketing político dos principais meios de comunicação social como ferramentas avançadas que garantem o direito de matar em nome da tecnologia.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *