
EU AI-wet 2025: Een baanbrekende regulering voor kunstmatige intelligentie
De Europese Unie heeft officieel de AI-wet geïmplementeerd, een revolutionaire regulering gericht op het beheren van de ontwikkeling en inzet van kunstmatige intelligentie in lidstaten. Vanaf augustus 2024 introduceert de wet een op risico gebaseerd kader om transparantie, veiligheid en verantwoordelijkheid in AI-toepassingen te waarborgen.
Belangrijke bepalingen van de AI-wet
De wet categoriseert AI-systemen in vier risiconiveaus:
- Onacceptabel risico: Verboden toepassingen omvatten AI die menselijk gedrag manipuleert of real-time biometrische identificatie in openbare ruimtes gebruikt.
- Hoog risico: AI gebruikt in kritieke sectoren zoals gezondheidszorg, onderwijs en wetshandhaving moet voldoen aan strenge transparantie- en veiligheidseisen.
- Beperkt risico: Systemen met minimaal schadepotentieel moeten gebruikers informeren dat ze met AI interacteren.
- Minimaal risico: Ongereguleerde toepassingen met verwaarloosbare impact.
Focus op foundation-modellen
Een opvallende toevoeging aan de wet is de regulering van algemeen bruikbare AI, zoals foundation-modellen zoals ChatGPT. Deze modellen moeten voldoen aan transparantie-eisen, tenzij ze als open-source worden vrijgegeven. Hoogimpactmodellen, inclusief die met meer dan 1025 FLOPS, ondergaan rigoureuze evaluaties.
Reacties uit de industrie
Technologiebedrijven hebben gemengde reacties geuit. Hoewel sommigen de duidelijkheid toejuichen, bekritiseren anderen de compliance-last. OpenAI en andere grote spelers passen hun beleid aan om aan de nieuwe regels te voldoen.
Voor meer details, bezoek de EU Digitale Strategie.