La campaña de bombardeos del ejército israelí en Gaza ha sido impulsada por una base de datos alimentada por inteligencia artificial (IA), conocida como Lavender, que identificó 37,000 posibles objetivos vinculados a Hamas. Este sistema ha sido fundamental en el conflicto, permitiendo una rápida identificación de operativos "junior" para ser atacados. Sin embargo, este uso pionero de sistemas de IA en combate ha levantado serias preguntas legales y morales, transformando profundamente la relación entre el personal militar y la tecnología.
Los oficiales de inteligencia israelíes involucrados en el conflicto han proporcionado un testimonio inusualmente franco sobre su experiencia con Lavender, destacando su eficiencia pero también la preocupación por la reducida participación humana en la toma de decisiones. A medida que el conflicto se prolongaba, se confió cada vez más en Lavender para procesar grandes volúmenes de datos y seleccionar rápidamente a los potenciales objetivos.
A pesar de la eficacia técnica reportada, el empleo de Lavender ha conllevado una polémica estrategia de bombardeo. Se informó que, en las primeras etapas de la guerra, el sistema identificó a decenas de miles de hombres palestinos vinculados a Hamas o al Yihad Islámico Palestino (PIJ), lo que llevó a una serie de ataques que han sido criticados por su alto coste humano.
El uso de Lavender ha intensificado el debate sobre la guerra y la tecnología, poniendo en relieve la tensión entre la necesidad de seguridad nacional y la protección de los derechos humanos. La IA, con su capacidad para procesar y analizar grandes cantidades de datos rápidamente, ha ofrecido a Israel una herramienta sin precedentes en la guerra contra Hamas, pero también ha traído consigo desafíos éticos y legales significativos.