Com o prazo de aplicação do AI Act da UE em 2 de agosto de 2026 a apenas meses de distância, apenas 8 dos 27 Estados-Membros designaram as autoridades nacionais de supervisão exigidas, criando uma perigosa lacuna de execução no mercado único. Este cenário irregular ameaça a conformidade global, com multas por não conformidade que atingem até 35 milhões de euros ou 7% do volume de negócios anual global, deixando as empresas tecnológicas perante incerteza jurídica e riscos de arbitragem regulatória.
O que é a Lacuna de Execução do AI Act da UE?
O AI Act da UE, em vigor desde 1 de agosto de 2024, é o primeiro quadro jurídico abrangente do mundo para inteligência artificial. Nos termos do artigo 70.º, os Estados-Membros deviam designar autoridades nacionais competentes até 2 de agosto de 2025. Contudo, no início de 2026, apenas oito países — incluindo França (DGCCRF), Alemanha (Bundesnetzagentur), Espanha (AESIA) e Irlanda — cumpriram esta obrigação. Os restantes 19 Estados-Membros carecem dos organismos de execução necessários para fiscalizar a conformidade, o que significa que, quando a maioria das disposições entrar em vigor em 2 de agosto de 2026, a execução será, na melhor das hipóteses, irregular.
Este prazo de conformidade do AI Act da UE não é meramente administrativo. Sem autoridades designadas, as empresas não podem obter orientação, registar sistemas de IA de alto risco ou participar em sandboxes regulatórias. O Gabinete de IA da Comissão Europeia pode substituir parcialmente as autoridades nacionais em falta, mas a sua capacidade é limitada.
O Sistema de Penalidades de Alto Risco
O AI Act da UE introduz um sistema de penalidades escalonado nos termos do artigo 99.º que rivaliza ou excede as sanções financeiras do RGPD. Para práticas proibidas de IA — como pontuação social, IA manipulativa ou reconhecimento de emoções em locais de trabalho — as multas atingem 35 milhões de euros ou 7% do volume de negócios anual global, consoante o valor mais elevado. Para violações de sistemas de IA de alto risco, a multa é de 15 milhões de euros ou 3% do volume de negócios. O fornecimento de informações incorretas às autoridades acarreta multas de 7,5 milhões de euros ou 1,5% do volume de negócios. Estas penalidades aplicam-se a fornecedores, implantadores, importadores e distribuidores.
A gravidade destas multas significa que as empresas tecnológicas globais não podem ignorar a conformidade, mesmo que as autoridades locais de execução ainda não estejam operacionais. Como observou um especialista em conformidade: O AI Act aplica-se diretamente como um regulamento da UE. As empresas são responsáveis independentemente de a sua autoridade nacional estar ou não constituída.
Atraso nas Normas Harmonizadas Aumenta a Incerteza
Um pilar crítico do quadro de conformidade do AI Act é o desenvolvimento de normas técnicas harmonizadas pelo Comité Técnico Conjunto 21 (JTC 21) do CEN e CENELEC. Estas normas devem fornecer uma presunção de conformidade para sistemas de IA de alto risco. No entanto, o JTC 21 não cumpriu o prazo do outono de 2025 para a entrega destas normas. De acordo com o último acompanhamento, nenhuma das sete normas previstas foi publicada, estando a maioria ainda em fase de projeto. O CEN/CENELEC agora prevê a conclusão para o final de 2026 — após a data de aplicação de agosto.
Este atraso nas normas de IA do CEN CENELEC deixa as empresas num vazio de conformidade. Sem normas harmonizadas, as empresas devem recorrer a vias alternativas de avaliação da conformidade, mais dispendiosas e morosas. A Comissão Europeia também atrasou a publicação das orientações do artigo 6.º sobre regras de classificação.
Arbitragem Regulatória e a Resposta do Omnibus Digital
O cenário irregular de execução cria oportunidades de arbitragem regulatória. As empresas podem optar por estabelecer operações de IA em Estados-Membros com infraestrutura de execução mais fraca, enquanto consumidores e concorrentes em jurisdições mais bem preparadas enfrentam uma supervisão mais rigorosa. Esta fragmentação prejudica a igualdade de condições do mercado único e pode levar a uma corrida para o fundo na governação da IA.
Reconhecendo estes desafios, a Comissão Europeia propôs o pacote Omnibus Digital em 19 de novembro de 2025. Esta proposta legislativa adiaria as obrigações de IA de alto risco para sistemas autónomos para 2 de dezembro de 2027 e para sistemas incorporados em produtos regulados para 2 de agosto de 2028. Em 7 de maio de 2026, o Conselho e o Parlamento chegaram a um acordo provisório que apoia estes adiamentos, juntamente com proibições adicionais de imagens íntimas não consensuais geradas por IA e material de abuso sexual infantil. No entanto, o Omnibus ainda não é lei — o prazo original de agosto de 2026 continua juridicamente vinculativo até à adoção formal.
O adiamento do AI Act pelo Omnibus Digital foi bem recebido pela indústria, mas criticado por defensores dos consumidores, que argumentam que deixa os cidadãos desprotegidos. As negociações do trílogo estão em curso.
O que as Empresas Globais Devem Fazer Agora
Para qualquer organização que implemente IA no mercado europeu, a mensagem é clara: não espere por autoridades nacionais ou normas harmonizadas. As obrigações do AI Act são diretamente aplicáveis e a responsabilidade comercial já existe. As empresas devem:
- Classificar todos os sistemas de IA de acordo com o quadro baseado no risco — proibido, alto risco, risco limitado ou risco mínimo.
- Implementar sistemas de gestão de risco para IA de alto risco, abrangendo governação de dados, documentação técnica, transparência, supervisão humana, precisão e cibersegurança.
- Preparar avaliações de conformidade e documentação de marcação CE, mesmo que as normas harmonizadas ainda não estejam disponíveis.
- Estabelecer mecanismos de monitorização pós-comercialização e comunicação de incidentes.
- Documentar exaustivamente os esforços de conformidade para demonstrar boa fé em caso de ações de execução.
As empresas devem também monitorizar de perto as obrigações de IA de alto risco do AI Act, uma vez que o Omnibus Digital pode alterar prazos, mas não os requisitos subjacentes.
Perspetivas de Especialistas
Os analistas do setor advertem que a lacuna de execução pode minar a ambição da UE de estabelecer uma norma global para a regulação da IA. A credibilidade do AI Act depende de uma execução consistente em todos os Estados-Membros, afirmou um consultor regulatório baseado em Bruxelas. Se alguns países forem vistos como paraísos de execução, todo o quadro fica enfraquecido.
Os especialistas jurídicos destacam também o risco de litígios privados. Mesmo sem execução pública ativa, concorrentes, consumidores e organizações da sociedade civil podem intentar ações contra empresas não conformes ao abrigo das leis nacionais, criando uma exposição adicional a responsabilidades.
Perguntas Frequentes
Qual é o prazo de execução do AI Act da UE?
A data principal de execução é 2 de agosto de 2026, quando a maioria das disposições se aplica, incluindo regras para sistemas de IA de alto risco, obrigações de transparência e marcação de água de conteúdo gerado por IA. As práticas proibidas são aplicáveis desde 2 de fevereiro de 2025.
Quais países da UE designaram autoridades de IA?
No início de 2026, apenas 8 dos 27 Estados-Membros designaram autoridades nacionais competentes: França, Alemanha, Espanha, Irlanda e alguns outros. Os restantes 19 ainda não cumpriram o prazo legal de agosto de 2025.
Quais são as multas por incumprimento do AI Act?
As multas são escalonadas: até 35 milhões de euros ou 7% do volume de negócios anual global para práticas proibidas; até 15 milhões de euros ou 3% para violações de IA de alto risco; e até 7,5 milhões de euros ou 1,5% por fornecimento de informações incorretas. Aplica-se o valor mais elevado entre o montante fixo ou a percentagem do volume de negócios.
O Omnibus Digital vai atrasar os prazos do AI Act?
A proposta do Omnibus Digital adiaria as obrigações de IA de alto risco para dezembro de 2027 (sistemas autónomos) e agosto de 2028 (sistemas incorporados). Foi alcançado um acordo provisório em maio de 2026, mas ainda não é lei. O prazo original de agosto de 2026 mantém-se em vigor.
O que devem as empresas fazer para se preparar para o AI Act?
As empresas devem classificar os seus sistemas de IA, implementar medidas de gestão de risco e governação de dados, preparar avaliações de conformidade, estabelecer monitorização pós-comercialização e documentar todos os esforços de conformidade. Não é aconselhável esperar por autoridades nacionais ou normas harmonizadas.
Conclusão: Um Momento Decisivo para a Governação Europeia da IA
O AI Act da UE representa uma tentativa histórica de regular a inteligência artificial, mas o seu sucesso depende de uma execução eficaz. Com apenas oito Estados-Membros prontos, normas atrasadas e uma proposta de correção legislativa ainda em negociação, o caminho para 2 de agosto de 2026 está repleto de incertezas. As empresas tecnológicas globais devem navegar proativamente neste cenário complexo, tratando a conformidade como uma prioridade estratégica. Os próximos meses determinarão se a UE conseguirá cumprir a sua promessa de uma IA fiável — ou se a lacuna de execução se tornará uma característica permanente do panorama europeu da IA.
Fontes
- World Reporter: Prazo do AI Act da UE em agosto de 2026
- Artificial Intelligence Act: Cronograma de Implementação
- Comissão Europeia: Governação e Execução do AI Act
- AI Acto: Autoridades Nacionais dos Estados-Membros 2026
- DQS Global: Adiamento do AI Act
- Mapa de Normas Harmonizadas do AI Act
- Hogan Lovells: Legisladores da UE concordam com adiamento
Follow Discussion