Avec l'échéance d'application du règlement européen sur l'intelligence artificielle (AI Act) fixée au 2 août 2026, seuls 8 États membres sur 27 ont désigné les autorités nationales de contrôle requises, créant un dangereux vide d'application au sein du marché unique. Ce paysage inégal menace la conformité mondiale, alors que les amendes pour non-conformité atteignent jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial, exposant les entreprises technologiques à une incertitude juridique et à des risques d'arbitrage réglementaire.
Qu'est-ce que le fossé d'application de l'AI Act ?
L'AI Act, entré en vigueur le 1er août 2024, est le premier cadre juridique complet au monde pour l'intelligence artificielle. Conformément à l'article 70, les États membres devaient désigner des autorités nationales compétentes d'ici le 2 août 2025. Pourtant, début 2026, seuls huit pays — dont la France (DGCCRF), l'Allemagne (Bundesnetzagentur), l'Espagne (AESIA) et l'Irlande — ont rempli cette obligation. Les 19 États membres restants ne disposent pas des organes d'application nécessaires, ce qui signifie que lorsque la plupart des dispositions entreront en vigueur le 2 août 2026, l'application sera au mieux inégale.
Cette échéance de conformité à l'AI Act n'est pas simplement administrative. Sans autorités désignées, les entreprises ne peuvent obtenir de conseils, enregistrer leurs systèmes d'IA à haut risque ou participer à des bacs à sable réglementaires. Le Bureau de l'IA de la Commission européenne peut partiellement remplacer les autorités nationales manquantes, mais sa capacité est limitée.
Le cadre de pénalités à enjeux élevés
L'AI Act introduit un système de sanctions échelonnées à l'article 99, rivalisant avec les dents financières du RGPD. Pour les pratiques d'IA interdites — telles que la notation sociale, l'IA manipulatrice ou la reconnaissance des émotions sur le lieu de travail — les amendes atteignent 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial, le montant le plus élevé étant retenu. Pour les violations des systèmes d'IA à haut risque, l'amende est de 15 millions d'euros ou 3 % du chiffre d'affaires. La fourniture d'informations incorrectes aux autorités entraîne des amendes de 7,5 millions d'euros ou 1,5 % du chiffre d'affaires. Ces pénalités s'appliquent aux fournisseurs, déployeurs, importateurs et distributeurs.
La sévérité de ces amendes signifie que les entreprises technologiques mondiales ne peuvent ignorer la conformité, même si les autorités locales ne sont pas encore opérationnelles. Comme l'a noté un expert en conformité : L'AI Act s'applique directement en tant que règlement de l'UE. Les entreprises sont responsables indépendamment du fait que leur autorité nationale ait été mise en place.
Retard des normes harmonisées et incertitude accrue
Un pilier essentiel du cadre de conformité de l'AI Act est l'élaboration de normes techniques harmonisées par le comité technique conjoint 21 (JTC 21) du CEN et du CENELEC. Ces normes doivent offrir une présomption de conformité pour les systèmes d'IA à haut risque. Cependant, JTC 21 n'a pas respecté son délai de l'automne 2025. Selon les dernières informations, aucune des sept normes prévues n'a atteint le stade de la publication, la plupart étant encore au niveau des projets de travail ou de comité. Le CEN/CENELEC vise désormais la fin 2026 pour l'achèvement, après la date d'application.
Ce retard des normes CEN CENELEC sur l'IA laisse les entreprises dans un vide de conformité. Sans normes harmonisées, elles doivent recourir à des voies d'évaluation de la conformité alternatives, plus coûteuses et longues. La Commission a également retardé la publication des lignes directrices de l'article 6 sur les règles de classification, ce qui embrouille davantage la situation.
Arbitrage réglementaire et réponse Omnibus numérique
Le paysage d'application inégal crée des opportunités d'arbitrage réglementaire. Les entreprises peuvent choisir d'établir leurs opérations d'IA dans des États membres dont l'infrastructure d'application est plus faible, tandis que les consommateurs et concurrents dans les juridictions mieux préparées subissent une surveillance plus stricte. Cette fragmentation sape l'égalité des conditions de concurrence du marché unique et pourrait conduire à un nivellement par le bas.
Reconnaissant ces défis, la Commission européenne a proposé le paquet Omnibus numérique le 19 novembre 2025. Cette proposition législative retarderait les obligations relatives aux systèmes d'IA à haut risque pour les systèmes autonomes au 2 décembre 2027, et pour les systèmes intégrés dans des produits réglementés au 2 août 2028. Le 7 mai 2026, le Conseil et le Parlement sont parvenus à un accord provisoire soutenant ces retards, ainsi que des interdictions supplémentaires concernant les images intimes non consensuelles générées par l'IA et les abus sexuels sur enfants. Cependant, l'Omnibus n'est pas encore une loi : le délai initial d'août 2026 reste juridiquement contraignant jusqu'à son adoption formelle.
Ce retard de l'AI Act via l'Omnibus numérique a été accueilli favorablement par l'industrie mais critiqué par les défenseurs des consommateurs. Les commissions IMCO et LIBE du Parlement ont adopté leur position commune le 18 mars 2026 et les négociations en trilogue se poursuivent.
Que doivent faire les entreprises mondiales maintenant ?
Pour toute organisation déployant l'IA sur le marché européen, le message est clair : n'attendez pas les autorités nationales ou les normes harmonisées. Les obligations de l'AI Act sont directement applicables et la responsabilité commerciale existe déjà. Les entreprises devraient :
- Classer tous les systèmes d'IA selon le cadre fondé sur les risques — interdit, haut risque, risque limité ou risque minimal.
- Mettre en œuvre des systèmes de gestion des risques pour l'IA à haut risque, couvrant la gouvernance des données, la documentation technique, la transparence, la surveillance humaine, l'exactitude et la cybersécurité.
- Préparer les évaluations de conformité et la documentation de marquage CE, même si les normes harmonisées ne sont pas encore disponibles.
- Établir des mécanismes de surveillance post-commercialisation et de signalement des incidents.
- Documenter les efforts de conformité de manière approfondie pour démontrer la bonne foi en cas de mesures d'exécution.
Les entreprises devraient également suivre de près les obligations relatives à l'IA à haut risque de l'AI Act, car l'Omnibus numérique pourrait décaler les délais mais pas les exigences sous-jacentes.
Points de vue d'experts
Les analystes du secteur avertissent que le fossé d'application pourrait compromettre l'ambition de l'UE d'établir une norme mondiale en matière de réglementation de l'IA. La crédibilité de l'AI Act dépend d'une application cohérente dans tous les États membres, a déclaré un conseiller réglementaire basé à Bruxelles. Si certains pays sont perçus comme des havres d'application, l'ensemble du cadre est affaibli.
Les experts juridiques soulignent également le risque de litiges privés. Même en l'absence d'application publique active, les concurrents, consommateurs et organisations de la société civile peuvent intenter des actions contre les entreprises non conformes en vertu des lois nationales, créant une exposition supplémentaire à la responsabilité.
Foire aux questions
Quelle est la date limite d'application de l'AI Act ?
La date principale est le 2 août 2026, date à laquelle la plupart des dispositions s'appliquent, y compris les règles relatives aux systèmes d'IA à haut risque, les obligations de transparence et le marquage des contenus générés par l'IA. Les pratiques interdites sont applicables depuis le 2 février 2025.
Quels pays de l'UE ont désigné des autorités IA ?
Début 2026, seuls 8 États membres sur 27 ont désigné des autorités nationales compétentes : France, Allemagne, Espagne, Irlande et quelques autres. Les 19 États restants n'ont pas respecté le délai légal d'août 2025.
Quelles sont les amendes pour non-conformité à l'AI Act ?
Les amendes sont échelonnées : jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial pour les pratiques interdites ; jusqu'à 15 millions d'euros ou 3 % pour les violations d'IA à haut risque ; et jusqu'à 7,5 millions d'euros ou 1,5 % pour la fourniture d'informations incorrectes. Le montant le plus élevé entre le montant fixe et le pourcentage du chiffre d'affaires s'applique.
L'Omnibus numérique va-t-il retarder les délais de l'AI Act ?
La proposition Omnibus numérique retarderait les obligations relatives à l'IA à haut risque jusqu'en décembre 2027 (systèmes autonomes) et août 2028 (systèmes intégrés). Un accord provisoire a été conclu en mai 2026, mais il n'est pas encore une loi. Le délai original d'août 2026 reste en vigueur.
Que doivent faire les entreprises pour se préparer ?
Les entreprises doivent classer leurs systèmes d'IA, mettre en œuvre des mesures de gestion des risques et de gouvernance des données, préparer des évaluations de conformité, établir une surveillance post-commercialisation et documenter tous les efforts de conformité. Attendre les autorités nationales ou les normes harmonisées n'est pas conseillé.
Conclusion : Un moment décisif pour la gouvernance européenne de l'IA
L'AI Act représente une tentative historique de réguler l'intelligence artificielle, mais son succès dépend d'une application efficace. Avec seulement huit États membres prêts, des normes retardées et une proposition législative encore en négociation, la voie vers le 2 août 2026 est semée d'incertitudes. Les entreprises technologiques mondiales doivent naviguer de manière proactive dans ce paysage complexe, en traitant la conformité comme une priorité stratégique. Les mois à venir détermineront si l'UE peut tenir sa promesse d'une IA digne de confiance ou si le fossé d'application deviendra une caractéristique permanente du paysage européen de l'IA.
Follow Discussion