
Acuerdo mundial sobre sistemas de IA letales
Tras años de debate, una reunión de la ONU ha establecido directrices para los sistemas de armas autónomas (AWS). El marco crea medidas críticas de seguridad para el despliegue de tecnología militar de IA letal, sin imponer una prohibición total. Este avance se produce mientras los ejércitos de todo el mundo aceleran el desarrollo de sistemas capaces de seleccionar objetivos de forma autónoma.
Principios clave del nuevo marco
Las directrices establecen tres requisitos: control humano significativo sobre las decisiones de ataque, estricto cumplimiento del derecho humanitario y protocolos de prueba exhaustivos. Es crucial la prohibición de sistemas que ataquen indiscriminadamente a civiles o carezcan de anulación de emergencia.
"No se trata de detener la innovación", explica la presidenta de la comisión, la Dra. Lena Petrov. "Se trata de responsabilidad cuando las máquinas toman decisiones de vida o muerte. Hemos trazado líneas claras, pero las aplicaciones defensivas siguen siendo posibles".
Desacuerdos entre potencias
Aunque 78 países apoyaron el marco, persistieron diferencias. EE.UU. abogó por flexibilidad en sistemas antidrones, China enfatizó prohibiciones preventivas. Rusia se abstuvo, citando "intereses de seguridad".
Human Rights Watch calificó el acuerdo de insuficiente: "Sin prohibiciones vinculantes, normalizamos robots asesinos". Varias ONG siguen buscando prohibiciones totales a través de la Campaña para Detener a los Robots Asesinos.
Carrera tecnológica se acelera
Conflictos recientes mostraron capacidades AWS. El Iron Dome de Israel intercepta cohetes autónomamente, drones turcos Kargu realizaron ataques letales en Libia. El barco estadounidense Sea Hunter patrulló autónomamente el Pacífico.
Analistas militares señalan desarrollos preocupantes: el dron nuclear Poseidón de Rusia y selección de objetivos con IA en Ucrania. "Las directrices crean normas importantes", dice el investigador Thomas Weber de SIPRI, "pero la aplicación sigue siendo el desafío".