LA IA COMO ARMA: ISRAEL EN GAZA Y LOS ‘DAÑOS COLATERALES’
Óscar Ruiz / Escudo Digital
Es un hecho que la Inteligencia artificial ha revolucionado la forma en la que se están librando las batallas en los últimos años, especialmente con los sistemas autónomos que tienen la capacidad de identificar objetivos militares, y es por eso que a causa de este tipo de carrera armamentística aumenta la preocupación de la comunidad internacional para encontrar los mecanismos de gobernanza necesarios para gestionar el uso de esta tecnología disruptiva.
El uso de la Inteligencia Artificial en el campo de batalla no es precisamente nuevo porque los sistemas de defensa aéreo llevan muchos años usándola para seleccionar y eliminar objetivos de una manera autónoma, pero los enormes avances de los últimos años, y sobre todo los resultados mostrados en las guerras que se están desarrollando en la actualidad, han precipitado que esta tecnología evolucione de una manera sin parangón en los últimos tiempos.
Conflictos muy actuales como la guerra en Ucrania, nos muestran cada día la enorme efectividad del uso de drones autónomos por parte de ambos bandos. Aunque las imágenes que solemos ver de esta guerra en Europa son la de estos aparatos no tripulados con explosivos incorporados contra tropas o vehículos enemigos, esta tecnología de inteligencia artificial se está usando también con otros objetivos militares, permitiendo sobre todo mejorar la velocidad, precisión y las capacidades de toma de decisiones en estas operaciones de combate.
Además, los algoritmos de deep learning pueden procesar grandes volúmenes de datos para mejorar el mantenimiento de los sistemas de armamento, anticipar los movimientos del adversario y perfeccionar las tácticas y estrategias en operaciones militares. Asimismo, algunos de estos sistemas autónomos facilitan la ejecución de misiones como incursiones, bombardeos y asesinatos patrocinados por el estado, que de otro modo serían difíciles de llevar a cabo debido al riesgo de pérdida de pilotos, la repercusión política o diplomática y las implicaciones del derecho internacional. Este cambio de paradigma plantea numerosas cuestiones éticas y legales respecto a la responsabilidad en el uso y control de sistemas de armas autónomas, generando preocupación en la comunidad internacional.
ALGORITMOS QUE ATACAN PERSONAS EN GAZA
La guerra actual que mantiene Israel contra Hamas en la Franja de Gaza y que está costando la vida a miles de civiles, entre ellos mujeres y niños, hace aún más evidente la necesidad de mecanismos para regular el uso de la IA en el ámbito militar. Seis funcionarios de inteligencia israelíes afirmaron en un informe, escrito por el periodista de investigación Yuval Abraham y publicado por la revista israelí-palestina +972, que los sistemas de inteligencia artificial han desempeñado un papel clave en la identificación, y posible identificación errónea, de decenas de miles de objetivos en Gaza.
Y estamos hablando del sistema “Lavender”, un sistema de inteligencia artificial que durante los primeros días de la operación militar de los judíos en Gaza utilizó una base de datos para identificar hasta 37.000 posibles objetivos basados en supuestos vínculos con los terroristas de Hamas. El ejército Israelí podría haber dado su aprobación para que los militares siguieran al pie de la letra estas listas de objetivos generadas por la IA del Lavender sin ningún requisito de verificación previa, dando patente de corso al sistema para eliminar los elementos que esta inteligencia artificial designaba como terroristas, aunque Israel siempre ha negado oficialmente el uso de la IA en la guerra en Gaza.
Aquí se nos plantean dos cuestiones importantes sobre la ética de utilizar este tipo de sistemas armamentísticos con inteligencia artificial; el primero es la “facilidad” y el “ahorro de trabajo humano y de tiempo” que proporcionan estos sistemas, porque según algunos militares israelíes, el Lavender invertía unos 20 segundos en designar y destruir cada objetivo llevando a cabo varias docenas de ellos al día sin aportar ningún valor añadido al factor humano, y utilizándose básicamente como sello de aprobación. El segundo factor preocupante seria la aceptación de unos elevados daños colaterales de población civil por parte de los militares al usar estos sistemas de IA. Se aceptaban, de manera totalmente consciente, elevadas víctimas civiles colaterales en la búsqueda de los mandos intermedios y bajos de Hamas, sin evaluar la proporcionalidad de cada ataque.
REGULACIÓN INTERNACIONAL DE LA INTELIGENCIA ARTIFICIAL EN LA GUERRA
Actualmente, varios países han comenzado a establecer límites oficiales sobre el uso de la inteligencia artificial en el ámbito militar. Un ejemplo notable es la «Declaración Política sobre el Uso Responsable de la Inteligencia Artificial Militar y la Autonomía» la cual ha sido firmada por más de 60 países, incluidos Estados Unidos, China y varios miembros de la Unión Europea. Esta declaración, aunque no es legalmente vinculante, establece normas para el uso de la IA en el campo militar, enfatizando la necesidad de cumplir con las obligaciones legales internacionales, realizar pruebas rigurosas y mantener la responsabilidad humana en la toma de decisiones.
Entre las limitaciones específicas que se han discutido y propuesto en diversas conferencias y declaraciones, se incluyen:
– Garantizar el control humano. Es esencial que los sistemas de armas autónomas mantengan niveles adecuados de juicio humano, especialmente en decisiones que involucren el uso de la fuerza letal. Esto implica que las decisiones críticas deben ser supervisadas y aprobadas por humanos .
– Evaluación y pruebas rigurosas. Los sistemas de IA militar deben someterse a pruebas rigurosas para asegurar que operen dentro de los parámetros esperados y que los riesgos de comportamientos no intencionados sean minimizados. Esto incluye la implementación de mecanismos de apagado de emergencia para desactivar los sistemas en caso de mal funcionamiento.
– Transparencia y rendición de cuentas. Los países deben garantizar la transparencia en el desarrollo y uso de tecnologías de IA en el ámbito militar. Esto incluye la documentación clara y auditable de cómo funcionan los sistemas, así como la formación adecuada del personal militar para entender sus capacidades y limitaciones.
– Cumplimiento del Derecho Internacional Humanitario. Cualquier uso de la IA en operaciones militares debe cumplir estrictamente con el derecho internacional humanitario, lo cual incluye la evaluación de la proporcionalidad de los ataques y la minimización de daños colaterales. Esto es fundamental para asegurar que los ataques no causen un número desproporcionado de víctimas civiles.
– Prevención de sesgos y errores. Es muy importante que los sistemas de IA sean diseñados para evitar sesgos y errores que puedan llevar a la identificación incorrecta de objetivos, como se ha observado en conflictos recientes. Esto requiere el desarrollo de estándares éticos y regulatorios que guíen su uso.
Parece obvio que existe una voluntad internacional y estos esfuerzos reflejan una creciente preocupación global por las implicaciones éticas y legales del uso de la IA en el campo de batalla, subrayando la necesidad de una gobernanza global, lo más robusta posible, para evitar abusos y proteger a las población civil. El conflicto de Ucrania y Rusia, pero sobre todo el de Israel en Gaza contra Hamas, nos está mostrando que a pesar de los avances tecnológicos (o quizás a consecuencia de ellos), los daños colaterales se pueden multiplicar si no legislamos o mantenemos a la Inteligencia Artificial dentro de unos parámetros vigilados y estrictos, aunque al final no es la Inteligencia artificial la que mata a mujeres y niños, sino el ser humano que aprieta el botón.
————
Este artículo fue publicado originalmente en Escudo Digital, con cuya autorización reproducimos aquí.