L'application de l'Acte IA complet de l'UE commence, établissant des régulations basées sur les risques avec applications interdites et obligations de transparence pour les systèmes d'IA.

L'Union européenne met en œuvre un cadre réglementaire historique pour l'IA
L'Acte sur l'intelligence artificielle de l'Union européenne, l'un des cadres réglementaires d'IA les plus complets au monde, est officiellement entré dans sa phase d'application en septembre 2025. La législation, entrée en vigueur en août 2024, établit une approche basée sur les risques pour la gouvernance de l'intelligence artificielle dans les 27 États membres.
Système de classification basé sur les risques
L'Acte IA catégorise les systèmes d'IA en quatre niveaux de risque distincts : risque inacceptable, risque élevé, risque limité et risque minimal. Cela représente un changement de paradigme dans notre approche de la gouvernance de l'IA,
a déclaré Maria Schmidt, porte-parole de la Commission européenne. Nous passons d'une régulation réactive à une gestion proactive des risques.
Les applications considérées comme présentant des risques inacceptables sont totalement interdites, y compris les systèmes d'IA qui manipulent le comportement humain ou utilisent l'identification biométrique à distance en temps réel dans les espaces publics. Les applications à haut risque, particulièrement celles utilisées dans les soins de santé, l'éducation et les infrastructures critiques, doivent subir des évaluations de conformité rigoureuses et maintenir une surveillance continue de la conformité.
Exigences pour l'IA à usage général
La législation traite spécifiquement des modèles de base comme ChatGPT, exigeant des obligations de transparence pour la plupart des systèmes et des évaluations supplémentaires pour les modèles à haute capacité. Les modèles open-source bénéficient d'exigences réduites,
a expliqué le Dr Thomas Weber, expert en politique d'IA, mais tous les fournisseurs doivent garantir que leurs systèmes respectent la protection des droits fondamentaux.
L'Acte crée un Conseil européen de l'intelligence artificielle pour promouvoir la coopération entre les autorités nationales et assurer une application cohérente dans toute l'UE. Comme le RGPD, l'Acte IA a une portée extraterritoriale, s'appliquant aux fournisseurs hors UE s'ils desservent des utilisateurs within the bloc.
Calendrier de mise en œuvre
Les dispositions seront progressivement introduites sur les 6 à 36 prochains mois, donnant aux organisations le temps d'adapter leurs systèmes d'IA aux nouvelles exigences. Les entreprises développant ou déployant l'IA within l'UE doivent désormais effectuer des évaluations de risques approfondies et mettre en œuvre des garanties appropriées.