{ "@context": "https://schema.org", "@type": "Article", "headline": "AI Act-risicoklassificatie uitgelegd", "description": "AI Act-risicoklassificatie: vier lagen van verboden tot minimaal risico en de nalevingsgevolgen per tier.", "image": "https://cdn.prod.website-files.com/60742f6cabb8945a71074706/68a6ef2b6c129968f8b6a91f_binary-code-numbers-in-blue-abstract-speed-motion-2024-10-18-09-15-15-utc.jpeg", "datePublished": "", "author": { "@type": "Person", "name": "Bart Lieben" }, "publisher": {"@id": "https://www.pitch.law/#organization"} }
Search

Waarom een risicogebaseerde aanpak

De EU AI Act probeert niet alle AI-systemen op dezelfde manier te reguleren. In plaats daarvan classificeert zij AI-systemen in vier risicotiers — onaanvaardbaar risico (verboden), hoog risico, beperkt risico en minimaal risico — en past een progressief zwaarder nalevingskader toe naarmate het vastgestelde risiconiveau toeneemt. Deze aanpak weerspiegelt een beleidskeuze dat sommige AI-toepassingen gewoon te gevaarlijk zijn om toe te staan, dat andere serieuze pre-marktvereisten voor conformiteit en voortdurende monitoring rechtvaardigen, en dat de grote meerderheid van AI-toepassingen kan opereren onder lichtere transparantievereisten of vrijwillige verbintenissen.

De risicoklassificatie is de eerste analytische stap voor elke organisatie die AI-systemen ontwikkelt, inzet of aanschaft: vóór enig nalevingsprogramma kan worden ontworpen, moet de toepasselijke risicotier worden bepaald. Het onjuist classificeren van een systeem — het behandelen van een hoog-risico toepassing als beperkt risico, bijvoorbeeld — is niet louter een papieren fout. Het betekent het nalaten de vereiste conformiteitsbeoordeling uit te voeren, het weglaten van vereiste technische documentatie en het inzetten van een systeem dat niet op de markt had mogen worden gebracht zonder voorafgaand nalevingswerk. Deze fouten trekken aanzienlijke regelgevende blootstelling aan.

Tier 1: Verboden AI-toepassingen

Artikel 5 van de AI Act stelt een kleine categorie van AI-praktijken vast die volstrekt verboden zijn vanaf 2 februari 2025. Verbod betekent dat deze toepassingen niet kunnen worden ontwikkeld, op de markt gebracht of in gebruik genomen in de EU, onder welke omstandigheid ook, ongeacht toestemming of doel.

De verboden praktijken omvatten: AI-systemen die subliminale of manipulatieve technieken inzetten om het gedrag van mensen te verstoren op een manier die schadelijk is voor henzelf of anderen; systemen die kwetsbaarheden exploiteren met betrekking tot leeftijd, handicap of sociale of economische situatie; real-time biometrische identificatie op afstand van natuurlijke personen in publiek toegankelijke ruimten door rechtshandhaving (met beperkte uitzonderingen); sociale scoresystemen die door overheidsinstanties worden beheerd; AI-systemen die worden gebruikt om strafbare feiten te voorspellen op basis van persoonlijke kenmerken; en AI-systemen die gevoelige kenmerken (ras, religie, seksuele gerichtheid, politieke opvattingen) afleiden uit biometrische gegevens.

Tier 2: Hoog-risico AI-systemen

Hoog-risico AI-systemen zijn onderworpen aan het meest veeleisende nalevingskader. Er zijn twee routes naar een hoog-risico-classificatie. De eerste is van toepassing op AI-systemen die veiligheidscomponenten zijn van producten die worden gereguleerd door bestaande EU-productveiligheidswetgeving vermeld in Bijlage I — medische hulpmiddelen, machines, liften, speelgoed, motorvoertuigen en vergelijkbare categorieën. De tweede is van toepassing op AI-systemen die vallen binnen de acht sectoren vermeld in Bijlage III: biometrische identificatiesystemen; AI-systemen die worden gebruikt in kritieke infrastructuur; AI-systemen die worden gebruikt in onderwijs en beroepsopleiding; AI-systemen die worden gebruikt bij tewerkstelling, arbeidsbeheer en toegang tot zelfstandige activiteiten; AI-systemen die worden gebruikt bij toegang tot en genot van essentiële privédiensten en openbare diensten; AI-systemen die worden gebruikt bij rechtshandhaving; AI-systemen die worden gebruikt bij migratie- en grensbeheer; en AI-systemen die worden gebruikt bij rechtsbedeling en democratische processen.

Een belangrijke kwalificatie werd ingevoerd voor Bijlage III-systemen: niet elk AI-systeem dat in deze sectoren wordt gebruikt, is automatisch hoog-risico. Voor Bijlage III-categorieën anders dan biometrische identificatie wordt een AI-systeem niet als hoog-risico beschouwd als het geen significant risico op schade vormt, als het alleen voorbereidende taken uitvoert, of als het is ontworpen om patronen in grootschalige gegevens te detecteren zonder te resulteren in individuele profilering. Deze uitzondering vereist een beoordeling en kan niet worden aangenomen zonder analyse.

Tier 3: AI met beperkt risico

AI-systemen die interageren met mensen — chatbots, virtuele assistenten, door AI gegenereerde contentsystemen, emotieherkenningssystemen en deep-fake-technologieën — vallen in de beperkt-risico-tier. De nalevingsverplichting is primair transparantie: het systeem moet aan gebruikers bekendmaken dat zij interageren met een AI, en door AI gegenereerde content moet machineleesbaar worden gelabeld als kunstmatig gegenereerd. Deep-fake video- en audiocontent is onderworpen aan openbaarmakingsverplichtingen in specifieke contexten (electorale content, entertainment). Deze verplichtingen zijn relatief licht, maar vereisen technische implementatie en, in sommige gevallen, wijzigingen in het gebruikersgerichte ontwerp.

Tier 4: Minimaal risico

De grote meerderheid van AI-toepassingen — spamfilters, door AI ondersteunde zoekopdrachten, aanbevelingssystemen in andere contexten dan de Bijlage III-sectoren, voorraadbeheerstools, CRM-analyses — valt in de minimaal-risico-tier. Er zijn geen verplichte verplichtingen voor minimaal-risico AI buiten het algemene verbod op verboden praktijken. De AI Act moedigt aan, maar vereist niet, vrijwillige gedragscodes en naleving van de transparantie- en robuustheidsprincipes van de AI Act.

Veelgestelde Vragen

Hoe bepaal ik of mijn AI-systeem hoog-risico is?

Hoog-risico-classificatie volgt een tweestapstest. Stap één: is het AI-systeem een veiligheidscomponent van een product vermeld in Bijlage I? Stap twee: valt het AI-systeem binnen een van de gebruikscases vermeld in Bijlage III? Als een van beide stappen een positief antwoord oplevert, is het systeem prima facie hoog-risico. Voor Bijlage III-systemen (anders dan biometrische identificatie) is een verdere beoordeling vereist om te bepalen of de uitzondering van toepassing is: of het systeem een significant risico vormt, alleen voorbereidende taken uitvoert, of patronen detecteert zonder individuele profilering. Deze beoordeling dient te worden gedocumenteerd.

Kan de risicoklassificatie van een AI-systeem in de loop van de tijd veranderen?

Ja. Als het beoogde gebruik van een systeem verandert, als het ingrijpend wordt gewijzigd, of als het wordt geïntegreerd in een nieuwe context die een andere Bijlage III-categorie triggert, dient de risicoklassificatie te worden herboordeeld. De definitie van provider in de AI Act omvat entiteiten die een bestaand AI-systeem ingrijpend wijzigen — dergelijke wijzigingen kunnen een nieuwe conformiteitsbeoordelingsplicht triggeren, zelfs voor een systeem dat eerder compliant was. Continue monitoring van gebruikscases en systeemwijzigingen is onderdeel van een solide AI-governanceprogramma.

Wat zijn de gevolgen van het onjuist classificeren van een hoog-risico systeem als beperkt of minimaal risico?

Het inzetten van een hoog-risico AI-systeem zonder de vereiste conformiteitsbeoordeling te voltooien, zonder registratie in de EU AI-database of zonder de vereiste technische documentatie bij te houden, is een schending van de AI Act die boetes van maximaal €15 miljoen of 3% van de jaarlijkse mondiale omzet kan aantrekken. Bovendien kan een systeem ingezet zonder conformiteitsbeoordeling worden verplicht van de markt te worden teruggetrokken. De classificatiefout heeft ook productaansprakelijkheidsimplicaties: het inzetten van een niet-conform systeem is een grondslag voor aansprakelijkheid onder het kader van de AI Liability Directive zodra die van toepassing wordt.

Bart Lieben
Attorney-at-Law
key takeaways

More related articles

WhatsApp messaging icon for live chat support
Pitch Chatbot
Contact us right away
Pitch Chatbot
Hi there,
How can we help you today?
Start Whatsapp Chat
By clicking “Accept All Cookies”, you agree to the storing of cookies on your device to enhance site navigation, analyze site usage and assist in our marketing efforts. More info
No items found.