predicción de culpables sin que se haya cometido delito

Israel se ha convertido en un régimen criminal (todavía más que la antigua Suráfrica, pues a su política de despiadado apartheid contra los palestinos suma su colonial militarismo agresor contra casi todos sus vecinos). Y la UE sostiene, sin apenas matices, a ese régimen criminal: con todo lo que ello significa para la catadura moral de la UE.

Uno de los asuntos más terribles sobre los que hemos sabido en los últimos años se refiere a cómo el ejército y los servicios secretos israelíes emplean tecnologías informáticas avanzadas, e inteligencia artificial, para planear y ejecutar sus asesinatos. Júlia Nueno es una investigadora barcelonesa en el equipo de Forensic Architecture (University of London).[1] En una entrevista explica que las zonas residenciales de Gaza se bombardeaban más de noche –cuando más presencia civil había en las casas descansando–, y las comerciales durante el día –cuando más aglomeración civil se da en los mercados–: “Eso prueba que Israel bombardea siempre donde hay más presencia civil, maximizando el mayor daño posible”. Y prosigue:

“La IA ayuda a criminalizar a la ciudadanía porque siempre, en algún grado, será culpable. Una de las tecnologías que usa Israel, el sistema Lavender, otorga a la población una puntuación entre 1 y 100 de cuán posible es que forme parte de la resistencia armada. Si no hay valor 0, no hay posibilidad de inocencia”. En Cisjordania, “el ejército israelí empezó a usar las redes sociales para vigilar a la población y generar objetivos de posibles atacantes. Un ingeniero de la Shin Bet [también conocida como Shabak, la agencia de seguridad interna y contrainteligencia de Israel] reveló que habían desarrollado una herramienta que les permite llegar a casa de un adolescente una semana antes de que él incluso sepa que es un terrorista. El ejército ya no actúa como reacción a un acto violento, sino escudándose en la prevención” (¡como en la desasosegadora película Minority Report!). Vemos que se adopta la postura de la denominada sociedad de objetivos: “Las redes sociales son un sistema de objetivos. Cuando las usamos, recibimos una publicidad concreta porque hay patrones de uso que generan un perfil para ser objetivo de cierta publicidad. El sistema de ICE, la policía migratoria de Estados Unidos, también está analizando esos análisis de patrones para ver quién podría ser un migrante ilegal. Existen similitudes en cómo las Big Tech, la policía y los militares usan los sistemas de cálculo de probabilidad y generación de perfiles. El poder ya no espera que cometas un acto subversivo, se apoya en que el sistema pronostica que puedes hacerlo. (…) Es un sistema recursivo que se autojustifica. Te dice: tengo datos que justifican que maté a este individuo porque era un enemigo identificado. Esta creación constante de objetivos es una forma de justificar la guerra del futuro. Israel y Estados Unidos están generando nuevos objetivos sin descanso y la IA es su herramienta discursiva para justificar la guerra del futuro. Las guerras se aceleran porque predicen culpables sin que se cometa el delito.”[2]

 

[1] Forensic Architecture es una entidad multidisciplinar que aplica la minuciosidad forense sobre las violaciones de los derechos humanos, actuaciones extrajudiciales o crímenes de Estado.

[2] Júlia Nueno: “La IA acelera las guerras porque predice culpables sin que se cometa delito” (entrevista), El País, 20 de marzo de 2026; https://elpais.com/internacional/2026-03-20/julia-nueno-investigadora-del-genocidio-en-gaza-la-ia-acelera-las-guerras-porque-predice-culpables-sin-que-se-cometa-delito.html