El genocidio desenmascarado: una inmersión profunda en las tácticas mortales del ejército israelí

**El drama de la guerra a través de los ojos de Rafah, Gaza**

En el tumulto del conflicto palestino-israelí, las trágicas historias de pérdidas humanas se multiplican, dejando tras de sí un paisaje de desolación en la ciudad de Rafah, Gaza. El 27 de mayo de 2024, la desgarradora imagen de los palestinos evacuando los cuerpos sin vida de dos miembros del personal del Hospital de Kuwait, víctimas de un ataque con aviones no tripulados del ejército israelí cerca del hospital, es testimonio de la violencia implacable que azota la región. Esta desgarradora escena captura la esencia de la crueldad de la guerra moderna, donde vidas inocentes son atacadas indiscriminadamente.

El 11 de enero de 2024, Sudáfrica acusó a Israel de actos genocidas ante la Corte Internacional de Justicia. Durante la audiencia pública, Sudáfrica destacó la intención genocida de los actos de destrucción y masacre masiva del pueblo palestino. Según el Estatuto de Roma de 1998, «genocidio» significa actos cometidos con la intención de destruir, total o parcialmente, a un grupo matando, causando daños corporales o mentales graves o imponiendo intencionalmente al grupo condiciones de vida calculadas para lograr su destrucción física total o parcial.

Se pidió a los jueces que se pronunciaran sobre la intención de Israel y concluyeron que se deben tomar medidas para prevenir actos de genocidio en la Franja de Gaza. La campaña de asesinatos de alta tecnología de Israel se basa en armas automáticas, lo que dificulta establecer la intención y la responsabilidad. Sin embargo, la tecnología del genocidio, programada por las Fuerzas de Defensa de Israel (FDI), depende de la acción humana: en ella reside el impulso de modelar las máquinas como sistemas automatizados de matanza algorítmica.

Dos investigaciones recientes, reveladas por las publicaciones independientes +972 Magazine y Local Call, detallan sistemas desarrollados y utilizados por las FDI para planificar bombardeos calculados en Gaza, capaces de programar la destrucción de objetivos utilizando la informática.

El primer sistema, llamado «El Evangelio», puede generar cuatro categorías distintas de objetivos, que van desde torres residenciales hasta casas familiares. Para cada objetivo, se adjunta un archivo que especifica el número de civiles que probablemente morirán en el ataque.

«Nada sucede por accidente», dijo un miembro de la comunidad de inteligencia de Israel entrevistado para la investigación. «Cuando una niña de tres años es asesinada en una casa en Gaza, es porque alguien en el ejército decidió que no era gran cosa que la mataran, que era un precio que valía la pena pagar para alcanzar [otro] objetivo. No somos Hamás. Estos no son cohetes al azar. Todo es intencional.».

Al intentar matar a un líder de Hamás, el mando militar puede aprobar la muerte de cientos de palestinos. Al llevar a cabo los ataques, los servicios de inteligencia del ejército saben de antemano cuántas personas morirán. En este caso, la intención de matar a un líder de Hamás es clara, pero esa intención viene acompañada de daños colaterales de civiles destinados a morir pronto.

Mientras que anteriormente los objetivos de poder, como los edificios de gran altura, estaban destinados a conmocionar a la sociedad civil, la última guerra contra los palestinos revela que los protocolos militares se han relajado para aumentar las matanzas de civiles.

El segundo sistema, Lavender, es una máquina controlada por inteligencia artificial que ha marcado hasta 37.000 palestinos como militantes sospechosos de asesinato. Lavender desarrolla una lista de presuntos objetivos en las ramas militares de Hamás y la Jihad Islámica Palestina.

Estos objetivos humanos fueron designados a pesar de que el sistema comete “errores” en aproximadamente el 10% de los casos. Una conexión débil, o ninguna conexión en absoluto, con grupos militantes es información válida utilizada por el sistema para producir un objetivo humano listo para el sacrificio.

¿Cómo verificar los datos utilizados para entrenar los sistemas de IA desarrollados por las FDI? Estos datos pueden recopilarse mediante acuerdos de usuario voluntarios de usuarios palestinos de teléfonos inteligentes y redes sociales, pero también mediante espionaje. Israel es conocido por diseñar el infame software espía Pegasus, que es capaz de eludir la detección y lo utilizan los gobiernos para espiar a periodistas, activistas y ciudadanos en varios países.

Los humanos no han revisado exhaustivamente la lista de muertes generada por la IA. Una fuente dijo que servían como “amortiguador” para las decisiones de la máquina. Ellos personalmente dedicaban unos «20 segundos» a cada objetivo antes de autorizar un bombardeo, sólo para asegurarse de que el objetivo marcado por Lavender sea un hombre y que el objetivo estuviera en casa.

Los datos utilizados por The Gospel y Lavender podrían ser datos sintéticos, es decir, datos generados por la propia máquina y luego utilizados para alimentar el programa y validar el modelo. En artículo de opinión: El problema ético más apremiante de la IA, Anika Collier Navaroli, investigadora principal de la Universidad de Columbia, revela las cuestiones éticas que rodean el uso de datos sintéticos.

Los datos sintéticos se refieren a información generada artificialmente. Estos datos se pueden utilizar para entrenar el aprendizaje automático o validar modelos. Pueden estar sesgados y dar forma al sistema, haciendo más difícil distinguir entre eventos reales y noticias falsas. En la cuestión de la intención de matar, la valoración del.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *