Entrée en vigueur de la loi IA UE: Nouvelles exigences de conformité

L'application complète de la loi IA de l'UE commence, interdisant les systèmes d'IA à risque inacceptable et imposant des exigences strictes aux applications à haut risque avec portée extraterritoriale.

loi-ia-ue-exigences-conformite
Image for Entrée en vigueur de la loi IA UE: Nouvelles exigences de conformité

L'Union Européenne met en œuvre une régulation pionnière de l'IA

L'Artificial Intelligence Act de l'Union Européenne, l'un des cadres réglementaires d'IA les plus complets au monde, est officiellement entré dans sa phase d'application en septembre 2025. La législation, entrée en vigueur en août 2024, établit une approche basée sur les risques pour la gouvernance de l'intelligence artificielle dans les 27 États membres.

Système de classification basé sur les risques

La loi sur l'IA catégorise les systèmes d'IA en quatre niveaux de risque: inacceptable, élevé, limité et minimal. Les applications jugées présenter des risques inacceptables, tels que les systèmes de notation sociale et l'identification biométrique à distance en temps réel dans les espaces publics, sont désormais totalement interdites dans l'UE. 'Cela représente un changement fondamental dans notre approche de la gouvernance de l'IA - mettant les droits humains et la sécurité au premier plan,' a déclaré Margrethe Vestager, vice-présidente exécutive de la Commission européenne.

Exigences pour l'IA à haut risque

Les systèmes d'IA à haut risque, y compris ceux utilisés dans les soins de santé, l'éducation, les infrastructures critiques et l'application de la loi, doivent désormais respecter des obligations strictes de sécurité, de transparence et de qualité. Les fournisseurs doivent effectuer des évaluations de conformité et mettre en œuvre des mécanismes de supervision humaine. Ces systèmes nécessitent également des évaluations d'impact sur les droits fondamentaux avant le déploiement.

Transparence pour l'IA générale

La régulation introduit des dispositions spécifiques pour les modèles d'IA générale comme ChatGPT. Sauf s'ils sont publiés sous licences open source, ces modèles sont soumis à des exigences de transparence renforcées. Les modèles à haute capacité formés avec des capacités computationnelles dépassant 10^25 opérations en virgule flottante doivent subir des évaluations approfondies pour évaluer les risques systémiques potentiels.

Le Conseil européen de l'intelligence artificielle a été créé pour promouvoir la coopération entre les autorités nationales et assurer une application cohérente. La loi s'applique extraterritorialement, affectant les entreprises technologiques mondiales qui desservent des clients de l'UE. Commission européenne les responsables soulignent que la mise en œuvre progressive permet aux entreprises de s'adapter tout en protégeant les droits fondamentaux.