La ONU debate sobre una prohibición global de armas autónomas

La ONU debate una prohibición global de sistemas de armas autónomas. Mientras más de 30 países exigen restricciones, potencias militares se resisten. Importantes consultas comienzan el 12 de mayo de 2025, con preocupaciones sobre responsabilidad y ética en la guerra.
onu-armas-autonomas-prohibicion

El debate sobre armas autónomas se intensifica

La Asamblea General de las Naciones Unidas ha iniciado intensos debates sobre una prohibición global de sistemas de armas autónomas letales, comúnmente conocidos como "robots asesinos". Delegados de más de 90 países abogan por restricciones estrictas en sistemas militares impulsados por IA que pueden seleccionar y eliminar objetivos sin control humano. Estas discusiones ocurren mientras se planean consultas informales de la ONU para el 12-13 de mayo de 2025 en Nueva York.

¿Qué son las armas autónomas?

Según investigaciones del SIPRI, las armas autónomas son sistemas que "una vez activados, pueden buscar y eliminar objetivos de forma independiente basándose en parámetros programados". Ejemplos actuales incluyen enjambres de drones, submarinos de ataque autónomos y sistemas de defensa antimisiles impulsados por IA, como el Iron Dome de Israel. A diferencia de los drones controlados remotamente, estas armas toman decisiones letales sin supervisión humana.

Profundas divisiones internacionales

Más de 30 países, incluyendo Austria, Brasil y Nueva Zelanda, exigen una prohibición preventiva, argumentando que las armas de IA cruzan límites morales. "Las máquinas no deben tomar decisiones de vida o muerte", declaró un delegado argentino durante las discusiones preliminares.

Potencias militares como EE.UU., Rusia y China se oponen a restricciones vinculantes. Funcionarios del Pentágono afirman que el derecho humanitario internacional existente ya regula adecuadamente las nuevas tecnologías. Documentos estadounidenses sostienen que los sistemas autónomos "pueden reducir bajas civiles mediante ataques de precisión".

Peligros éticos

Organizaciones de derechos humanos señalan incidentes alarmantes, incluyendo informes de que Israel usó sistemas de IA como "Lavender" para identificar objetivos en Gaza con mínima verificación humana. Las principales preocupaciones incluyen:

  • Falta de responsabilidad en muertes ilegales causadas por sistemas autónomos
  • Riesgo de sesgos algorítmicos y ataques indiscriminados
  • Peligro de escalada rápida en zonas de conflicto

Tres vías diplomáticas

Las discusiones avanzan a través de canales paralelos:

  1. Convención de la ONU sobre Ciertas Armas Convencionales, donde los requisitos de consenso han causado estancamiento desde 2014
  2. Cumbres REAIM, iniciadas por Países Bajos y Corea del Sur sobre IA militar responsable
  3. Consultas de la Asamblea General de la ONU en mayo de 2025 que podrían romper el estancamiento

Como señala el Dr. Vincent Boulanin del SIPRI: "La pregunta central sigue siendo: ¿deberíamos permitir que las máquinas tomen decisiones letales? La respuesta definirá la guerra en el siglo XXI."

You Might Also Like