De Europese Unie zet met de AI Act een wereldwijde standaard. Ook voor recruitment. Met de invoering van de AI Act wordt het gebruik van AI binnen recruitment en HR strenger gereguleerd. Dit heeft directe gevolgen voor organisaties die AI inzetten of overwegen te implementeren.
Wat je gaat leren
ToggleWat is de EU AI Act
De EU AI Act is de eerste uitgebreide wetgeving voor kunstmatige intelligentie. De wet werkt met een risk-based model; hoe groter de impact op mensen, hoe strenger de regels. Voor recruitment is dat meteen relevant. Want alles wat invloed heeft op wie wordt aangenomen of afgewezen, valt vrijwel altijd in een hogere risicocategorie.
De wet is al ingegaan in augustus 2024 en wordt gefaseerd uitgerold richting 2026 en 2027.
Waarom recruitment ‘high-risk AI’ is
Veel AI-toepassingen binnen recruitment worden aangemerkt als ‘high-risk’. Dit komt doordat deze systemen invloed hebben op hele belangrijke beslissingen, denk aan het selecteren en afwijzen van kandidaten. Hierdoor worden er hogere eisen gesteld aan transparantie, controle en betrouwbaarheid.
Denk aan:
- CV-screening tools
- AI die kandidaten rangschikt
- Video-interview analyse (bijv. gezichts- of stemanalyse)
Kort gezegd: alles wat kandidaten beoordeelt is vrijwel zeker high-risk.
Tijdlijn: wat verandert er in 2026 en 2027?
De implementatie van de EU AI ACT gebeurt gefaseerd in stappen:
- Februari 2025 → verboden AI-praktijken gaan in
- Augustus 2025 → regels voor algemene AI-modellen
- Augustus 2026 → verplichtingen voor high-risk AI (zoals recruitmenttools)
- Augustus 2027 → volledige implementatie
Momenteel wordt er gesproken over uitstel naar eind 2027 voor high-risk systemen, maar dit is nog niet definitief. Voor nu staat 2 augustus 2027 gepland als datum waarbij de wet volledig van kracht is.
Wat mag niet meer? (en wat wordt streng gereguleerd)
De AI Act verbiedt of beperkt bepaalde toepassingen.
Denk aan:
- AI die emoties van kandidaten analyseert (bijv. via video)
- Manipulatieve AI die gedrag beïnvloedt
- Discriminerende algoritmes
- Social scoring (profielen bouwen op basis van gedrag buiten werk)
Wat mag nog wél met AI in recruitment?
Gelukkig blijft er nog enorm veel mogelijk.
Dit soort tools zijn toegestaan:
- CV parsing en matching
- AI sourcing tools
- Chatbots voor candidate experience
- Interview scheduling automatisering
- Skills-based matching
Maar je moet voldoen aan strenge eisen zoals:
- Transparantie
- Menselijke controle
- Bias monitoring
- Documentatie
In het kort: AI mag helpen, maar mag niet autonoom beslissen zonder toezicht.
De 9 verplichtingen voor high-risk AI in recruitment
De AI Act legt voor high-risk systemen negen concrete verplichtingen op. Hieronder lees je per verplichting wat het inhoudt, waarom het bestaat en wat je er in de praktijk mee moet doen.
1. Risicobeheer (art. 9)
Wat is het?
Je moet doorlopend nadenken over wat er mis kan gaan met je AI-tool. Welke risico’s loopt een kandidaat? Wat als het systeem fouten maakt? En wat doe je dan?
In de praktijk:
- Stel een risicoregister op voor elke AI-tool die je gebruikt in recruitment.
- Beschrijf welke risico’s er zijn (bijv. onterechte afwijzing) en welke maatregelen je neemt.
- Evalueer dit minstens jaarlijks (of eerder als je de tool aanpast).
2. Datakwaliteit en datagovernance (art. 10)
Wat is het?
AI is zo goed als de data waarop het is getraind. Als een systeem vooral is getraind op data van witte mannen van middelbare leeftijd, zal het die groep systematisch voortrekken. De wet verplicht je om hier actief op te sturen.
In de praktijk:
- Vraag je leverancier: op welke data is deze tool getraind en hoe divers is die data?
- Test regelmatig of bepaalde groepen systematisch slechter scoren zonder goede reden.
- Leg vast welke databronnen je gebruikt en hoe je data actualiseert.
3. Technische documentatie en logging (art. 11 & 12)
Wat is het?
Je AI mag geen ‘black box’ zijn. Je moet kunnen aantonen hoe het systeem werkt, welke keuzes het maakt en wat er is gebeurd als er iets misgaat. Het systeem moet automatisch bijhouden wat het doet een soort digitaal logboek.
In de praktijk:
- Stel een technisch dossier op: hoe werkt de tool, welke data gebruikt hij en wat zijn de beperkingen?
- Zorg dat het systeem automatisch logs bijhoudt van elke beslissing (wie werd afgewezen, wanneer, op basis waarvan)
- Bewaar deze logs zodat je ze kunt overleggen aan een toezichthouder als dat nodig is.
4. Transparantie naar kandidaten (art. 13 & 50)
Wat is het?
Kandidaten hebben het recht te weten dat AI een rol speelt in hun sollicitatieprocedure. Je mag dit niet verbergen of verstoppen in kleine lettertjes. De uitleg moet begrijpelijk zijn en dus niet vol juridisch jargon.
In de praktijk:
- Vermeld in bij je sollicitatieformulier dat AI wordt gebruikt.
- Leg in makkelijk, begrijpbare taal uit wat de AI doet. Bijvoorbeeld: “Wij gebruiken software die jouw cv automatisch vergelijkt met de functie-eisen.”
- Geef kandidaten de mogelijkheid om vragen te stellen over hoe AI hun sollicitatie heeft beoordeeld.
5. Menselijk toezicht, human in the loop (art. 14)
Wat is het?
AI mag nooit het laatste woord hebben. Een mens moet altijd de uitkomst kunnen bekijken, beoordelen en overrulen. Niet heel gek, want beslissingen over mensen verdienen menselijke aandacht.
In de praktijk:
- Stel een recruiter of HR-medewerker in als eindverantwoordelijke voor elke AI-selectiebeslissing
- Zorg dat de AI een advies geeft, geen definitief oordeel.
- Train je team zodat zij AI-uitkomsten kritisch kunnen beoordelen en niet blind vertrouwen op het systeem.
6. Nauwkeurigheid, robuustheid en cyberbeveiliging (art. 15)
Wat is het?
Je AI-tool moet altijd betrouwbaar werken. Daarnaast moeten kandidaatgegevens goed beveiligd zijn. Een lek of een gehackt systeem dat selectiebeslissingen beïnvloedt, is onacceptabel.
In de praktijk:
- Test de tool regelmatig: geeft hij consistente en correcte uitkomsten?
- Controleer of je leverancier voldoet aan gangbare beveiligingsstandaarden (denk aan ISO 27001).
- Leg vast wat je doet als het systeem uitvalt of onjuiste resultaten geeft.
7. Conformiteitsbeoordeling en registratie (art. 16 & 43)
Wat is het?
Voordat je een high-risk AI-tool mag inzetten, moet je aantonen dat die voldoet aan de eisen van de AI Act. Dit heet een conformiteitsbeoordeling. Vervolgens moet het systeem worden geregistreerd in een Europese database. Een soort openbaar register van AI-systemen.
In de praktijk:
- Voer een conformiteitscheck uit voordat je een nieuwe high-risk tool in gebruik neemt. Dit is primair een taak voor de leverancier, maar jij bent er als gebruiker medeverantwoordelijk voor.
- Controleer of de tool al geregistreerd staat in de EU AI-database.
- Vraag leveranciers om hun conformiteitsdocumentatie. Kunnen zij die niet aanleveren, dan is dat een groot waarschuwingssignaal.
8. AI-geletterdheid van je team (art. 4)
Wat is het?
Iedereen die met AI werkt moet begrijpen wat de tool doet, wat de beperkingen zijn en hoe je ermee omgaat. Blind vertrouwen op AI mag niet. Deze verplichting geldt trouwens al sinds februari 2025.
In de praktijk:
- Organiseer een training voor iedereen die met AI-recruitmenttools werkt.
- Leg trainingen en deelname vast (dit is onderdeel van je compliance-dossier).
- Herhaal trainingen wanneer je een nieuwe tool introduceert of als het systeem significant wijzigt.
9. Vendor due diligence: jij bent eindverantwoordelijk
Wat is het?
“Maar wij hebben de tool niet gemaakt, dus wij zijn er niet verantwoordelijk voor.” Dit argument gaat niet op. Als gebruiker van een high-risk AI-tool ben jij altijd mede-eindverantwoordelijk!
In de praktijk:
- Evalueer je leveranciers jaarlijks: werken zij actief aan compliance? Staan zij open voor vragen en audits?
- Vraag iedere AI-leverancier om hun compliance-documentatie vóór je tekent.
- Leg in contracten vast wie verantwoordelijk is voor wat en wat er gebeurt als de leverancier niet compliant blijkt.
Wat gebeurt er als je je niet aan de AI-wet houdt?
Wie de regels van de EU AI Act negeert, riskeert een flinke boete. De wet voorziet in boetes die kunnen oplopen tot 35 miljoen euro óf 7 procent van de totale wereldwijde jaaromzet als dat bedrag hoger uitkomt. De toezichthouder kiest altijd het hoogste van de twee.
Check dus nu al welke AI-tools je gebruikt of ze onder de wet vallen en wat je nog moet regelen. Dat scheelt later een hoop stress. En mogelijk een boete die je liever niet betaalt.
