Armas letales autónomas, se necesitan normas globales
Stefano Leszczynski - Ciudad del Vaticano
«Detener la amenaza de las armas autónomas letales: ideas y perspectivas para una normativa internacional» fue el tema de la reunión celebrada en Roma, en la Sala ISMA del Senado de la República, el encuentro promovido por la Red Italiana por la Paz y el Desarme con el apoyo del Instituto de Investigaciones Internacionales Archivo Desarme, para abrir un debate sobre el desarrollo y el uso de sistemas de armas autónomas letales, es decir, capaces de seleccionar y atacar objetivos sin un control humano significativo. Una perspectiva que plantea cuestiones éticas, jurídicas y humanitarias de extrema relevancia, poniendo en tela de juicio principios fundamentales del derecho internacional y de la protección de los derechos humanos.
Stop Killer Robots
Nicole van Rooijen, directora ejecutiva de la Campaña Internacional Stop Killer Robots, que reúne a 270 ONG de más de setenta países, ha definido las armas autónomas como «uno de los retos más profundos para la civilización contemporánea». Según van Rooijen, delegar en máquinas y algoritmos decisiones de vida o muerte representa una fractura ética inaceptable, porque sustrae esas decisiones de la responsabilidad humana, garantizando de hecho la impunidad jurídica en presencia de crímenes de guerra. De ahí el llamamiento a un compromiso político decidido para que la comunidad internacional llegue rápidamente a un tratado jurídicamente vinculante que prohíba o regule de manera estricta estas tecnologías.
Los derechos humanos en peligro
Las consecuencias del uso de sistemas de armas autónomas no solo afectan a un posible futuro, sino que ya son una dramática realidad. Riccardo Noury, portavoz de Amnesty International Italia, citó como ejemplo lo ocurrido recientemente en la Franja de Gaza. El uso de armas autónomas, explicó, además de contextos bélicos, podría tener un impacto directo en todos los demás ámbitos de los derechos humanos. Basta pensar en su uso en sectores relacionados con el orden público o la lucha contra la migración. En ausencia de normas claras y vinculantes, advirtió, se corre el riesgo de un uso indiscriminado de estas tecnologías, con efectos devastadores para la población civil y el acceso a la justicia para las víctimas. La falta de responsabilidad humana directa hace que sea difícil atribuir culpas en caso de violaciones. «El derecho internacional está bajo ataque», afirmó Noury. «Es necesario dar un paso adelante introduciendo nuevas normas sobre cuestiones fundamentales para los derechos humanos».
El derecho humanitario no es suficiente
Desde el punto de vista del derecho internacional humanitario, Tommaso Natoli, responsable de la Unidad Operativa de Derecho Internacional Humanitario de la Cruz Roja Italiana, subrayó que principios fundamentales como la distinción entre civiles y combatientes y la protección de la población civil no pueden garantizarse si la elección de los objetivos se confía a sistemas autónomos. Aunque reconoció la importancia del derecho internacional humanitario, Battistelli señaló que, por sí solo, no es suficiente. De ahí la necesidad de un acuerdo internacional en el marco de las Naciones Unidas, en contraposición a las posiciones de Estados Unidos y Rusia. El llamamiento es a tomar decisiones preventivas, antes de que estos sistemas sean plenamente operativos y se generalicen.
Ética, finanzas y responsabilidad colectiva
«Una verdadera defensa de la dignidad humana», afirmó monseñor Vincenzo Paglia, presidente emérito de la Pontificia Academia para la Vida, «implica impedir que la tecnología escape al control moral y jurídico del hombre: la reglamentación de las armas autónomas interpela directamente a la conciencia colectiva». Ante peligros que crecen de forma exponencial, como en el caso de la relación entre la inteligencia artificial y la energía nuclear, añadió monseñor Paglia, «no podemos dejar de instar a la política a razonar de forma global».
Un compromiso que continúa
La reunión de Roma confirmó la urgencia de reforzar el diálogo entre la sociedad civil, las instituciones y los responsables políticos para detener la amenaza de las armas autónomas letales. Al clausurar los trabajos, Francesco Vignarca, coordinador de la Red Italiana por la Paz y el Desarme, subrayó la necesidad de ejercer una mayor presión política mediante la sensibilización de la sociedad civil para que la automatización y la inteligencia artificial en el ámbito militar no se conviertan en nuevos instrumentos de deshumanización de la guerra, sino que se regulen respetando la paz, los derechos fundamentales y la dignidad humana.
Gracias por haber leído este artículo. Si desea mantenerse actualizado, suscríbase al boletín pulsando aquí