Agosto de 2026 marca un momento decisivo para la gobernanza global de la inteligencia artificial. Con la aplicación de las obligaciones para sistemas de IA de alto riesgo según la Ley de IA de la UE, las tres mayores potencias económicas han codificado marcos fundamentalmente incompatibles, creando un mercado global fragmentado que obliga a las empresas multinacionales a navegar regímenes de cumplimiento conflictivos. Este trilema regulatorio —entre las reglas vinculantes basadas en riesgo de la UE, el enfoque descentralizado de innovación primero de EE.UU. y los controles estatales de China— está remodelando cadenas de suministro, flujos de inversión y estrategias competitivas de los desarrolladores de IA.
La Ley de IA de la UE: El Código Más Estricto del Mundo
La Ley de IA de la UE clasifica los sistemas en cuatro niveles de riesgo. Los inaceptables están prohibidos; los de alto riesgo requieren estrictos controles, incluyendo gestión de riesgos, gobernanza de datos, documentación técnica, supervisión humana y evaluación de conformidad. Las multas son de hasta 35 millones de euros o el 7% de la facturación global anual. Su alcance extraterritorial afecta a empresas de todo el mundo que operan en la UE. Aunque solo 8 estados miembros tenían contactos de aplicación en 2026, el