Genocidio en Palestina: del cambio discursivo al nuevo armamento con IA
Softwares que seleccionan blancos para asesinar de manera “selectiva” y se activan con palabras clave: así utiliza Israel la inteligencia artificial al servicio del genocidio en Gaza.
Desde noviembre del año pasado, el reportero Yuval Abraham viene publicando una serie de investigaciones periodísticas para la revista digital israelí +972 Mag y para el portal de noticias Llamada Local en los que vincula la utilización de software basado en IA y el asesinato masivo de civiles por parte del ejército de ocupación israelí en Gaza.
Abraham es además realizador audiovisual. En febrero de 2024, la película palestino-israelí “No Other Land”, que codirigió con los palestinos Basel Adra y Hamdan Ballal, fue premiada como mejor documental en el Festival Internacional de Cine de Berlín. El film narra y analiza la expulsión masiva de los palestinos que viven en las aldeas de la gobernación de Masafer Yatta, en el sur de Cisjordania, territorio ocupado por Israel.
Tras la ceremonia de premiación, Abraham declaró: “En dos días regresaremos a una tierra donde no somos iguales. Yo vivo bajo una ley civil y Basel -el codirector-, bajo una ley militar. Vivimos a 30 minutos de distancia, pero yo tengo derechos electorales y Basel no los tiene. Yo soy libre de moverme donde quiera en esta tierra. Basel, como millones de palestinos, está encerrado en los territorios ocupados de Cisjordania. Esta situación de apartheid que existe entre nosotros, esta desigualdad, tiene que terminar”. A raíz de estas declaraciones, Abraham recibió varias amenazas de muerte.
La campaña más mortífera
Ya de regreso y aunque consciente del riesgo de posibles represalias, Abraham continuó con su labor periodística, concentrándose en informar sobre la campaña de exterminio de civiles por parte de Israel en Gaza. En los primeros meses posteriores a la ofensiva de octubre del 2023, Israel asesinó más civiles palestinos que en la sumatoria de todas las ofensivas anteriores desde el triunfo de Hamás en las elecciones legislativas en 2006 y el posterior bloqueo de Gaza en 2007 por tierra, aire y mar.
Desde entonces, y hasta un día antes del actual genocidio, Israel se había cobrado la vida de más de 5.000 civiles palestinos en Gaza durante los ataques de 2008, 2012, 2014 y 2021.
Cambio de paradigma
El aumento impresionante de la cantidad de palestinos asesinados por parte de Israel implica un profundo cambio de paradigma. La primera transformación es discursiva. En las cuatro guerras anteriores contra la población civil palestina de Gaza, el discurso político israelí buscaba mostrarse empático para con la población masacrada. Los voceros mediáticos, militares y políticos israelíes presentaban al asesinato de civiles como “daños colaterales”, como el precio lamentable que había que pagar por liberar a esa misma población civil del “yugo de Hamás”.
Esa retórica liberadora y paternalista iba acompañada de una política explícita de asesinatos selectivos de los líderes de la resistencia palestina durante los “períodos de paz”, y que se intensificaba durante las “guerras”.
Desde el año pasado, todo cambió drásticamente. Las palabras hipócritas articuladas con bombardeos “quirúrgicos” y con conciencia “humanitaria” fueron reemplazadas por incitaciones explícitas al genocidio. El escritor israelí Alon Mizrahi lo refleja perfectamente al recopilar lo que circula en las redes, los medios de comunicación y el discurso de todo el arco político israelí: “matar, destruir, exterminar, reducir a escombros; arrasar. No hay inocentes”.
Este cambio de paradigma discursivo vino de la mano de una transformación radical en el modo de atacar a la población civil de Gaza. Ya no se trata de destruir objetivos militares y de daños civiles colaterales, sino de producir el mayor daño en la población civil desde todos los aspectos posibles. Y es aquí donde tiene un rol fundamental la utilización de los programas basados en inteligencia artificial.
Inteligencia digital asesina
Según fuentes militares consultadas por el periodista y realizador audiovisual Yuval Abraham, “nada sucede por accidente”. Esa misma fuente señaló que “cuando una niña de 3 años muere en una casa en Gaza, es porque alguien en el ejército decidió que no era gran cosa para ella ser asesinada — que era un precio que valía la pena pagar para golpear [otro] objetivo—. Nosotros no somos Hamás. Estos no son cohetes aleatorios. Todo es intencional. Sabemos exactamente cuánto daño colateral hay en cada hogar.”
El aumento meteórico de asesinatos de civiles en tiempo récord se basa en la utilización de al menos tres programas de Inteligencia Artificial.
El programa Lavanda llegó a incluir 37 mil objetivos palestinos de Gaza vinculados supuestamente a los brazos armados de los movimientos de resistencia como Hamás o Yihad. Lavanda utiliza datos de los gigantes tecnológicos Google, Meta, Amazon, Microsoft e IBM, entre otros.
Este software se articula con otro llamado “¿Dónde está papá?”, que les indica a los operadores cuando el objetivo se encuentra en su casa junto a toda su familia durante la noche, lo que explica la desaparición de familias completas mientras duermen.
El programa Habsora (El Evangelio) “anuncia” cuáles son los edificios, infraestructuras estratégicos e instalaciones militares que deben ser destruidos.
En todos los casos, los operadores humanos cuentan con escasos segundos para decidir si el objetivo sugerido por la IA se elimina o no. El software produce un ranking de los blancos según su importancia jerárquica. A mayor importancia del blanco, mayor es la cantidad de civiles que vale la pena que mueran para acabar con el objetivo primario. Según Abraham, una fuente militar le confió que dedicaba 20 segundos por objetivo antes de autorizar el bombardeo de un presunto militante de bajo rango de Hamás, que en muchos casos puede ser un civil, asesinando así a esas personas dentro de sus casas.
Esta imprecisión forma parte estructural del sistema. Lavanda escanea la información en casi la totalidad de la población de Gaza, y califica a cada individuo entre uno y cien. Eso implica la probabilidad, según la máquina, de que ese individuo sea miembro de Hamás o de la Yihad Islámica. Las fuentes de este periodista israelí le aseguraron que los militares sabían, porque así lo comprobaron —tomaron una muestra aleatoria y lo verificaron caso por caso—, que aproximadamente el 10% de las personas que la máquina estaba señalando para ser asesinadas no eran militantes de Hamás. Algunos de ellos tenían una conexión vaga con Hamás, otros no tenían ninguna.
Otra fuente sostuvo que la máquina señalaba a gente que tenía exactamente el mismo nombre y el mismo apodo que un miembro de Hamás, o personas que tenían perfiles de comunicación similares. Estos últimos podrían ser trabajadores de la defensa civil o agentes de policía de Gaza.
De este modo, la responsabilidad jurídica, política y ética de las decisiones queda prácticamente en manos de los algoritmos. La deshumanización de los palestinos va de la mano con la deshumanización del proceso de decisión y de toma de responsabilidad por parte de los ejecutores del genocidio.