De EU AI ACT. Dit moet je weten over de AI-wet!

Vanaf 2 februari 2025 is AI-geletterdheid verplicht voor organisaties in de EU. Dit is onderdeel van de AI Act, de nieuwe AI-wet die bepaalt hoe AI veilig en verantwoord gebruikt moet worden. Of je nu AI ontwikkelt, aanbiedt of gebruikt, deze regels gaan jou raken. Wat betekent dit in de praktijk? Welke AI-systemen worden verboden? En hoe zorg je dat jouw organisatie voldoet aan de wet? In deze blog lees je alles wat je moet weten over de AI Act. 

Leestijd

4 minuten

Diensten / categorie
Publicatiedatum

19 maart 2025

Wat is de AI Act?

De Artificial Intelligence Act (AI Act) is de eerste Europese AI-wet die AI-regels vastlegt. Het doel? Zorgen dat AI veilig, transparant en verantwoord wordt gebruikt. De wet beoordeelt AI-systemen op risico's en bepaalt hoe ze mogen worden ontwikkeld en gebruikt. Zo helpt de AI Act om risico's zoals privacy schendingen, discriminatie en misbruik te voorkomen. 

Voor wie geldt de AI Act?

De AI Act is er niet alleen voor techbedrijven, maar voor iedereen die AI gebruikt in de EU:

  • AI-ontwikkelaars: De mensen achter de schermen die AI-oplossingen ontwerpen en bouwen. 
  • Dienstverleners: Bedrijven die AI-systemen aanbieden aan andere organisaties of eindgebruikers.
  • Organisaties die AI gebruiken: Van overheden en zorginstellingen tot bedrijven die AI inzetten in hun dagelijkse processen. 

Werk je met AI? Dan geldt deze AI-wet ook voor jou!

Hoe beoordeelt de AI Act risico's?

De AI Act deelt AI-systemen in op basis van risico's. Hoe groter de impact op mensen en de samenleving, hoe strenger de regels zijn. Dit zijn de vier categorieën:

Onacceptabel risico (verboden)

Sommige AI-toepassingen zijn simpelweg te gevaarlijk en worden verboden, omdat ze fundamentele rechten schenden of een groot risico vormen voor de samenleving. Dit geldt voor:

  • Manipulatieve of misleidende AI-systemen.
  • Social scoring, waarbij mensen worden beoordeeld op gedrag of kenmerken. 
  • Real-time gezichtsherkenning in openbare ruimtes (uitzondering: wetshandhaving).

Hoog risico (strenge regels)

AI-systemen die een grote invloed hebben op mensenlevens moeten voldoen aan strikte regels op het gebied van transparantie, risicobeheer en audits. Denk aan:

  • AI in recruitment: Algoritmes die sollicitanten screenen. 
  • AI in de gezondheidszorg: Systemen die diagnoses stellen. 
  • AI voor kredietbeoordeling: Beslissingen over leningen. 

Beperkt risico (transparantieplicht)

Bij minder ingrijpende toepassingen zijn de regels soepeler, maar moet wel duidelijk worden vermeld dat AI wordt gebruikt. Voorbeelden zijn:

  • Chatbots en virtuele assistenten. 
  • Deepfake-technologie, zoals gezichtsfilters. 
  • Generatieve AI-tools, die moeten aangeven hoe ze content creëren. 
  • Machine learning voor product aanbevelingen en klantgedrag-analyse. 

Laag risico (geen extra regels)

AI die weinig risico's met zich meebrengt, valt in deze categorie. Hier gelden geen extra verplichtingen. Denk aan:

  • Spamfilters in e-mailprogramma's.
  • AI-gestuurde videogamepersonages.
  • Aanbevelingssystemen voor streamingsdiensten. 

De AI Act: stapsgewijze invoering

Fase 1
Fase 1: Verboden AI-systemen per 1 februari 2025

AI-systemen met onacceptabele risico’s zijn verboden. Denk aan misleidende AI, het bewust beïnvloeden van kwetsbare groepen, social scoring en realtime gezichtsherkenning op straat.

Fase 2
Fase 2: 1 mei 2025

AI-aanbieders moeten documentatie en gedragscodes bijhouden. 

Fase 3
Fase 3: 2 augustus 2025

AI-systemen met beperkt risico moeten voldoen aan de regels. Lees hier meer over fase 3.

Fase 4
Fase 4: 1 augustus 2026

AI-systemen met hoog risico moeten aan strenge eisen voldoen (met uitzondering van grootschalige IT-systemen).

Fase 5
Fase 5: 1 augustus 2027

Ook Large Scale IT-systems, zoals systemen voor grenscontroles, moeten aan de hoog risico-regels voldoen. 

Welke eisen stelt de AI Act per 1 februari 2025?

Per 1 februari 2025 moeten organisaties voldoen aan de eerste eisen van de AI Act. Het belangrijkste? AI-systemen met onacceptabele risico's zijn verboden. Dit betekent dat de volgende toepassingen niet meer zijn toegestaan:

  • Manipulatie: AI die mensen op misleidende wijze beïnvloedt;
  • Misbruik van kwetsbare groepen: zoals kinderen of ouderen;
  • Social scoring: systemen die beoordelen op gedrag of persoonlijke kenmerken;
  • Real-time biometrische identificatie: zoals gezichtsherkenning op straat;
  • Misbruik van emotieherkenning: bijvoorbeeld om mensen ongemerkt te categoriseren op basis van gedrag.

Met deze eerste fase wil de EU AI veiliger en eerlijker maken. Zorg dus dat jouw organisatie zich hieraan houdt! 

AI-geletterdheid verplicht

Artikel 4 van de EU AI Act verplicht aanbieders en gebruikers van AI-systemen AI-geletterdheid te zijn. AI-geletterdheid draait om kennis, vaardigheden en bewustzijn rondom het gebruik van AI. Iedereen die met AI werkt, moet deze technologie verantwoord en geïnformeerd kunnen inzetten. Dit betekent niet alleen weten wat AI is, maar ook hoe je het op de juiste manier gebruikt. 

Wie moet AI-geletterd zijn?

Volgens de AI-wet moeten zowel aanbieders als gebruikers van AI-systemen zorgen dat hun personeel en betrokkenen AI-geletterd zijn. Dit geldt voor iedereen in je organisatie die met AI werkt (zoals ChatGPT, Microsoft Copilot of andere AI-systemen).

Wat moet jouw organisatie nu doen?

Om te voldoen aan de eisen van de AI Act, moet je deze stappen zetten:

  • Controleer of je AI gebruikt en in welke risicocategorie je valt.
  • Zorg voor AI-geletterdheid binnen je organisatie (door trainingen of e-learnings te volgen). Wij hebben een AI Awareness training.
  • Bepaal of je AI-systemen moet aanpassen om aan de regels te voldoen. 
  • Houd de komende fasen van de AI Act in de gaten en blijf up-to-date. 

Wil je meer informatie over het veilig gebruik van AI?