La Ley de IA de la UE, implementada en 2025, introduce un marco basado en riesgos para la regulación de la IA, centrado en transparencia y seguridad. Incluye normas estrictas para aplicaciones de alto riesgo y modelos fundacionales, generando reacciones diversas en la industria.

Ley de IA de la UE 2025: Una regulación pionera para la inteligencia artificial
La Unión Europea ha implementado oficialmente la Ley de IA, una regulación revolucionaria destinada a gestionar el desarrollo y despliegue de la inteligencia artificial en los estados miembros. A partir de agosto de 2024, la ley introduce un marco basado en riesgos para garantizar transparencia, seguridad y responsabilidad en las aplicaciones de IA.
Disposiciones clave de la Ley de IA
La ley clasifica los sistemas de IA en cuatro niveles de riesgo:
- Riesgo inaceptable: Aplicaciones prohibidas incluyen IA que manipula el comportamiento humano o utiliza identificación biométrica en tiempo real en espacios públicos.
- Alto riesgo: La IA utilizada en sectores críticos como salud, educación y aplicación de la ley debe cumplir con estrictos requisitos de transparencia y seguridad.
- Riesgo limitado: Los sistemas con potencial de daño mínimo deben informar a los usuarios que están interactuando con IA.
- Riesgo mínimo: Aplicaciones no reguladas con impacto insignificante.
Enfoque en modelos fundacionales
Una adición notable a la ley es la regulación de IA de uso general, como los modelos fundacionales tipo ChatGPT. Estos modelos deben cumplir con requisitos de transparencia, a menos que se publiquen como código abierto. Los modelos de alto impacto, incluyendo aquellos con más de 1025 FLOPS, están sujetos a evaluaciones rigurosas.
Reacciones de la industria
Las empresas tecnológicas han mostrado reacciones mixtas. Mientras algunos aplauden la claridad, otros critican la carga regulatoria. OpenAI y otros grandes actores están ajustando sus políticas para cumplir con las nuevas normas.
Para más detalles, visite la Estrategia Digital de la UE.