
La UE implementa regulación pionera de IA basada en riesgos
La Ley de Inteligencia Artificial (IA) de la Unión Europea entró en vigor el 1 de agosto de 2024, estableciendo el primer marco regulatorio integral para sistemas de IA en el mundo. Esta legislación clasifica las aplicaciones de IA por nivel de riesgo, con requisitos más estrictos para sistemas de alto riesgo.
Sistema de clasificación de riesgo
La ley define cuatro niveles de riesgo:
- Riesgo inaceptable: Aplicaciones prohibidas incluyen vigilancia biométrica en tiempo real en espacios públicos, sistemas de puntuación social e IA diseñada para manipular el comportamiento humano
- Alto riesgo: Sistemas usados en salud, educación, empleo y aplicación de la ley exigen evaluaciones de conformidad y de impacto en los derechos humanos
- Riesgo limitado: Aplicaciones como chatbots deben proporcionar transparencia sobre su naturaleza de IA
- Riesgo mínimo: Categoría no regulada que incluye la mayoría de las aplicaciones de IA para consumidores
Disposiciones especiales para IA de uso general
La legislación introduce reglas específicas para modelos fundamentales como ChatGPT. Los desarrolladores deben proporcionar resúmenes detallados de los datos de entrenamiento e implementar medidas de conformidad con derechos de autor. Modelos de alta capacidad que exceden 10^25 FLOPS pasan por evaluaciones adicionales de riesgos sistémicos.
Cronograma de implementación
Las disposiciones se implementarán gradualmente en 6-36 meses:
- Prohibiciones de aplicaciones de riesgo inaceptable entran en vigor inmediatamente
- Conformidad para sistemas de alto riesgo exigida hasta febrero de 2025
- Reglas para IA de uso general aplicables a partir de agosto de 2025
Mecanismos de fiscalización
La Oficina Europea de Inteligencia Artificial coordinará la fiscalización en todos los estados miembros. Proveedores fuera de la UE deben cumplir al ofrecer servicios en el mercado de la UE, con multas de hasta el 7% de los ingresos globales.