AI-systemen die worden gebruikt bij tewerkstelling, arbeidsbeheer en toegang tot zelfstandige activiteiten zijn uitdrukkelijk vermeld in Bijlage III van de EU AI Act als hoog-risico AI-systemen. Dit betekent dat AI-tools die worden gebruikt bij rekrutering, selectie, promotie, prestatiebeoordeling, taakverdeling en monitoring van het gedrag van werknemers onderworpen zijn aan het volledige compliance-kader van de AI Act voor hoog-risico systemen. Gezien de snelheid waarmee AI is geïntegreerd in HR-functies — van cv-screening en geautomatiseerde interviewbeoordeling tot werknemersanalyse en productiviteitsmonitoring — heeft deze classificatie onmiddellijke en verstrekkende gevolgen voor werkgevers in alle sectoren.
De classificatie geldt ongeacht de omvang van de organisatie of de vraag of het AI-systeem commercieel is aangeschaft of intern is ontwikkeld. Een grote onderneming die een extern applicant tracking system met AI-gestuurde screening gebruikt en een start-up die een op maat gebouwd prestatiemonitoringtool inzet, exploiteren beide hoog-risico AI-systemen in de arbeidscontext. Zowel de provider (die het systeem heeft gebouwd) als de deployer (de werkgever die het gebruikt) hebben nalevingsverplichtingen op grond van de AI Act.
Bijlage III, punt 4, omschrijft de categorie werkgelegenheid en arbeidsbeheer ruim: AI-systemen bestemd voor rekrutering of selectie van natuurlijke personen, met name voor het plaatsen van gerichte vacatureadvertenties, het analyseren en filteren van sollicitaties en het beoordelen van kandidaten tijdens interviews of tests; AI-systemen bestemd voor beslissingen over promotie en beëindiging van arbeidsrelaties; en AI-systemen bestemd voor taakverdeling, monitoring of evaluatie van de prestaties en het gedrag van personen in dergelijke contractuele relaties.
Dit dekt een aanzienlijk deel van de moderne HR-technologiestack. CV-parsingstools met algoritmische rangschikking, videointerview-platformen die kandidaten beoordelen op basis van gezichtsuitdrukkingen of spraakpatronen, personeelsplanningstools die diensten toewijzen op basis van productiviteitsgegevens en werknemersmonitoringsoftware die output of gedrag bijhoudt, vallen allemaal binnen het toepassingsgebied. De uitzondering voor systemen die geen significant risico vormen en enkel voorbereidende taken uitvoeren, kan van toepassing zijn op sommige eenvoudige categorisatie- of informatieopslagtools, maar deze uitzondering vereist een gedocumenteerde beoordeling en kan niet worden aangenomen zonder analyse.
Werkgevers die hoog-risico AI inzetten in HR-contexten zijn deployers onder de AI Act en hebben een specifieke reeks verplichtingen. Zij moeten de gebruiksaanwijzingen van de provider volgen en het systeem niet gebruiken voor andere doeleinden dan waarvoor het is bestemd. Zij moeten zorgen voor adequate menselijke supervisie — beslissingen die individuele werknemers raken, moeten een betekenisvolle menselijke beoordeling omvatten en mogen niet volledig worden gedelegeerd aan het AI-systeem. Zij moeten transparantie bieden aan betrokkenen: werknemers en kandidaten moeten worden geïnformeerd wanneer een hoog-risico AI-systeem is gebruikt in een beslissing die hen raakt, en moeten een betekenisvolle uitleg over de logica van de beslissing kunnen verkrijgen.
Voor werkgevers specifiek geldt een aanvullende notificatieplicht onder de AI Act die niet van toepassing is in andere deploymentcontexten: werknemers en hun vertegenwoordigers moeten worden geïnformeerd voordat een hoog-risico AI-systeem in de arbeidscontext wordt ingezet. Deze verplichting sluit aan bij bestaande transparantie- en raadplegingsverplichtingen onder nationaal arbeidsrecht en ondernemingsraadrichtlijnen, maar de AI Act introduceert haar als een zelfstandige nalevingsvereiste die losstaat van deze kaders.
Werkgevers die onder het toepassingsgebied van de AI Act vallen en publiekrechtelijke organen zijn — overheidsinstanties, publieke instellingen, door de overheid gefinancierde organisaties — zijn onderworpen aan de verplichting tot het uitvoeren van een Grondrechteneffectbeoordeling (FRIA) voor hoog-risico AI-systemen. Deze beoordeling moet worden uitgevoerd vóór de inzet van het systeem en moet de mogelijke impact op grondrechten documenteren, waaronder het recht op non-discriminatie, privacy en rechten van verdediging.
AI in de arbeidscontext betreft vrijwel altijd de verwerking van persoonsgegevens, en vaak bijzondere categorieën: gezondheidsgegevens bij aanwezigheidsmonitoring, gegevens over vakbondslidmaatschap in collectieve onderhandelingscontexten, of biometrische gegevens bij identiteitsverificatie of toegangscontrole. Dit maakt GDPR-naleving een gelijktijdige en even veeleisende verplichting naast de AI Act.
Artikel 22 GDPR is bijzonder relevant: het verleent werknemers en kandidaten het recht om niet onderworpen te zijn aan beslissingen die uitsluitend op geautomatiseerde verwerking zijn gebaseerd en die rechtsgevolgen of vergelijkbaar significante gevolgen voor hen hebben. Rekruteringsbeslissingen, prestatiebeoordelingen en ontslagbeslissingen op basis van AI-output zijn paradigmatische voorbeelden. Verwerkingsverantwoordelijken moeten ofwel over een rechtsgrond beschikken voor verwerking op grond van artikel 22 (toestemming, overeenkomst of wet), ofwel waarborgen dat de AI-output niet de enige grondslag voor de beslissing is. De menselijke-supervisievereis van de AI Act en het verbod op uitsluitend geautomatiseerde beslissingen van artikel 22 zijn complementair: beide vereisen dat een mens de AI-output beoordeelt voordat ingrijpende beslissingen worden genomen.
Vrijwel zeker ja, tenzij het systeem enkel een voorbereidende administratieve functie vervult zonder enige filtering, rangschikking of scoring van kandidaten. Een AI-systeem dat cv's rangschikt, sollicitaties filtert op criteria of kandidaten op enige dimensie beoordeelt, is een AI-systeem bestemd voor het analyseren en filteren van sollicitaties in de zin van Bijlage III punt 4. Als werkgever die dit systeem gebruikt, bent u deployer van een hoog-risico AI-systeem met de bijbehorende verplichtingen: menselijke supervisie, transparantie naar kandidaten, notificatie van werknemers en naleving van de gebruiksaanwijzingen van de provider.
Ja. Deployers van hoog-risico AI-systemen moeten transparantie bieden aan betrokkenen. Wanneer een AI-systeem is gebruikt in een rekruterings- of selectieproces dat de uitkomst voor een kandidaat heeft beïnvloed, moet de kandidaat worden geïnformeerd. Deze verplichting geldt ongeacht of de kandidaat hierom vraagt. Zij staat los van, maar is complementair aan, de rechten van betrokkenen onder de GDPR op grond van artikel 13/14 (informatie over geautomatiseerde besluitvorming) en artikel 22 (recht om niet uitsluitend onderworpen te zijn aan geautomatiseerde beslissingen).
Zinvolle menselijke supervisie betekent dat de persoon die de arbeidsrechtelijke beslissing neemt de AI-output daadwerkelijk heeft beoordeeld, begrijpt wat het systeem heeft geanalyseerd en hoe, en een zelfstandig oordeel velt in plaats van de aanbeveling van het AI-systeem zonder meer te bekrachtigen. Het volstaat niet dat een mens eenvoudigweg een door AI gegenereerde shortlist ondertekent zonder de onderliggende bewijzen te beoordelen. Governance-kaders moeten de supervisieprocedure documenteren, bepalen wie deze uitvoert en een auditspoor aanleggen dat aantoont dat supervisie heeft plaatsgevonden vóór ingrijpende beslissingen zijn genomen.
Systemen voor prestatiemonitoring van medewerkers vallen binnen de hoog-risico AI-categorie indien zij de prestaties of het gedrag van personen in arbeidsrelaties evalueren. Het gebruik van dergelijke systemen vereist naleving van zowel de AI Act (menselijke supervisie, transparantie, notificatie van werknemers) als de GDPR (rechtsgrond voor monitoring, dataminimalisatie, transparantie en beperkingen op geautomatiseerde besluitvorming met significante gevolgen voor werknemers). Nationaal arbeidsrecht en ondernemingsraadreglementen zullen in veel jurisdicties aanvullende beperkingen opleggen. Een juridische beoordeling vóór inzet is onontbeerlijk.
