A Lei de IA da UE, implementada em 2025, introduz um quadro baseado em risco para regulamentação de IA, com foco em transparência e segurança. Inclui regras rígidas para aplicações de alto risco e modelos de base, gerando reações mistas da indústria.

Lei de IA da UE 2025: Uma regulamentação inovadora para inteligência artificial
A União Europeia implementou oficialmente a Lei de IA, uma regulamentação revolucionária destinada a gerenciar o desenvolvimento e a implantação de inteligência artificial nos estados membros. A partir de agosto de 2024, a lei introduz um quadro baseado em risco para garantir transparência, segurança e responsabilidade nas aplicações de IA.
Principais disposições da Lei de IA
A lei categoriza os sistemas de IA em quatro níveis de risco:
- Risco inaceitável: Aplicações proibidas incluem IA que manipula o comportamento humano ou usa identificação biométrica em tempo real em espaços públicos.
- Alto risco: IA usada em setores críticos como saúde, educação e aplicação da lei deve cumprir requisitos rigorosos de transparência e segurança.
- Risco limitado: Sistemas com potencial mínimo de dano devem informar os usuários que estão interagindo com IA.
- Risco mínimo: Aplicações não regulamentadas com impacto insignificante.
Foco em modelos de base
Uma adição notável à lei é a regulamentação de IA de uso geral, como modelos de base como o ChatGPT. Esses modelos devem atender a requisitos de transparência, a menos que sejam lançados como open-source. Modelos de alto impacto, incluindo aqueles com mais de 1025 FLOPS, passam por avaliações rigorosas.
Reações da indústria
Empresas de tecnologia expressaram reações mistas. Enquanto alguns elogiam a clareza, outros criticam o ônus da conformidade. OpenAI e outros grandes players estão ajustando suas políticas para cumprir as novas regras.
Para mais detalhes, visite a Estratégia Digital da UE.