Brief van de tijdelijke commissie Grondrechten en Constitutionele toetsing over een advies op verzoek van de vaste commissie voor Digitale Zaken over EU-voorstel: Verordening Digitale Omnibus AI COM (2025) 836
Nieuwe Commissievoorstellen en initiatieven van de lidstaten van de Europese Unie
Brief commissie
Nummer: 2026D15671, datum: 2026-04-02, bijgewerkt: 2026-04-02 14:45, versie: 1
Directe link naar document (.docx), link naar pagina op de Tweede Kamer site.
Gerelateerde personen:- Eerste ondertekenaar: T.J. Bushoff, voorzitter van de tijdelijke commissie Grondrechten en constitutionele toetsing (GroenLinks-PvdA)
- Mede ondertekenaar: Y.C. Kling, griffier
Onderdeel van kamerstukdossier 22112 -4302 Nieuwe Commissievoorstellen en initiatieven van de lidstaten van de Europese Unie.
Onderdeel van zaak 2026Z06964:
- Voortouwcommissie: vaste commissie voor Digitale Zaken
- Stemmingen en besluiten:
- 2026-04-02 09:30 ⇒ De tijdelijke commissie besluit het advies vast te stellen. (Besluit)
- 2026-04-02 09:30: Procedurevergadering tijdelijke commissie Grondrechten en constitutionele toetsing (Procedurevergadering), tijdelijke commissie Grondrechten en constitutionele toetsing
Preview document (🔗 origineel)
22 112 Nieuwe Commissievoorstellen en initiatieven van de lidstaten van de Europese Unie
Nr. 4302 BRIEF VAN DE TIJDELIJKE COMMISSIE GRONDRECHTEN EN CONSTITUTIONELE TOETSING
Aan de Leden
Den Haag, 2 april 2026
De tijdelijke commissie Grondrechten en Constitutionele toetsing
(hierna: de tijdelijke commissie) heeft tijdens haar
procedurevergadering van 5 maart 2026 besloten naar aanleiding van het
verzoek van de vaste commissie voor Digitale Zaken van 25 februari 2026
(2026D08516) een adviestraject te starten over constitutionele en
grondrechtelijke aspecten in het voorstel voor de EU-verordening
Digitale Omnibus inzake AI COM (2025) 836.1 De
vaste commissie voor Digitale Zaken is hierover geïnformeerd met een
brief van 5 maart 2026 (2026D10051).
Europese wetgevingsprocedure
De Digitale Omnibus inzake AI is een Europees voorstel. Dat betekent dat
niet de nationale, maar de Europese wetgevingsprocedure hierop van
toepassing is. De tijdelijke commissie merkt in dit verband op dat de
Europese wetgevingsprocedure ten tijde van de vaststelling van dit
advies nog gaande is. Tijdens het adviestraject is in de Raad een
compromis bereikt over een nieuwe onderhandelingstekst. Dit compromis
adresseert (waarschijnlijk) twee van de oorspronkelijke aandachtspunten
(zie onderdelen F en G). Ook het Europees Parlement heeft intussen een
standpunt ingenomen.2 Dit vond plaats in de afrondende
fase van dit advies, waardoor het niet meer kon worden meegenomen. Mocht
de vaste commissie voor Digitale Zaken hier prijs op stellen, dan kan de
tijdelijke commissie hierover aanvullend adviseren.
De standpuntbepaling door het Europees Parlement betekent dat de
onderhandelingen tussen het Europees Parlement, het Voorzitterschap van
de Raad en de Europese Commissie (de triloogfase) aanvangen, waarbij het
Omnibus AI-voorstel mogelijk nog wordt aangepast. Verder wordt opgemerkt
dat waar de tijdelijke commissie in dit advies adviseert om bepaalde
informatie op te vragen bij de Europese Commissie (de Commissie), geldt
dat de leden van de vaste commissie voor Digitale Zaken dit gedurende de
Europese wetgevingsprocedure op verschillende manieren kunnen doen.
Naast een verzoek aan het kabinet om de desbetreffende informatie bij de
Commissie op te vragen, kan de Kamer dergelijke verzoeken ook
rechtstreeks tot de Commissie richten via een politieke dialoog.3
Doel Omnibus AI-voorstel en AI-verordening
Het Omnibus AI-voorstel heeft als doel de administratieve lasten die
voortvloeien uit de AI-verordening, voor bedrijven en overheden in de EU
terug te dringen. De Commissie wil ervoor zorgen dat de regels uit de
AI-verordening innovatie en groei ondersteunen en het
concurrentievermogen versterken. Verder is volgens de Commissie tijdige
implementatie van de AI-verordening op 2 augustus 2026 in de praktijk
niet haalbaar.4 Het Omnibus AI-voorstel wijzigt om
deze redenen diverse regels uit de AI-verordening. De AI-verordening is
in 2024 vastgesteld en is het eerste juridische raamwerk ter wereld dat
de kansen en risico’s van AI adresseert. De regels moeten zowel de
innovatie van AI in de EU versterken en tegelijkertijd de gezondheid,
veiligheid, fundamentele rechten en mensgeoriënteerde AI garanderen.5 De AI-verordening regelt voor
burgers een recht op uitleg bij individuele besluitvorming door
hoog-risico AI-systemen en een recht om geïnformeerd te worden wanneer
zij communiceren met een AI-systeem.6 Verder verbiedt de
verordening bepaalde AI-praktijken, zoals emotie-herkenning op werk of
manipulatieve of misleidende AI met aanzienlijke schade als gevolg.7 De AI-verordening heeft een
risico-gebaseerde aanpak en richt zich voornamelijk tot hoog-risico
AI-systemen.8 AI-systemen worden aangemerkt als
‘hoog risico’ wanneer zij een significant risico geven op schade voor de
gezondheid, veiligheid of grondrechten van personen. Denk bijvoorbeeld
aan AI die is verwerkt in producten zoals medische hulpmiddelen,
industriële machines, auto’s en speelgoed.9 Of
aan AI-systemen die worden gebruikt om te beoordelen of burgers in
aanmerking komen voor essentiële overheidsuitkeringen of bij de levering
van elektriciteit.10
Verzoek commissie Digitale Zaken
De vaste commissie voor Digitale Zaken heeft de tijdelijke commissie
verzocht in het advies in het bijzonder in te gaan op de rechtszekerheid
en effectieve grondrechtenbescherming bij uitstel en gefaseerde
toepassing van hoog-risico-verplichtingen in de AI-Verordening. De
tijdelijke commissie gaat daar in onderdeel A op in. Ook is de
tijdelijke commissie gevraagd te adviseren over mogelijke andere
grondrechtelijke of constitutionele aandachtspunten die de commissie van
belang acht. Alvorens de tijdelijke commissie in onderdelen B tot en met
G daarop ingaat, staat zij hieronder eerst stil bij de rechtszekerheid
en de impact die AI kan hebben op grondrechten.
Rechtszekerheid
De rechtszekerheid is een algemeen
rechtsbeginsel waaruit volgt dat het voor iedereen in
redelijke mate voorzienbaar moet zijn wat de rechtsgevolgen zijn van
zijn gedrag (voorzienbaarheid). De rechtszekerheid is hierdoor een
belangrijk element voor het vertrouwen in het rechtssysteem.11 De tijdelijke commissie
onderstreept dat de rechtszekerheid ook van invloed is op het
ondernemingsklimaat en de concurrentiepositie. Wanneer regelgeving
duidelijk, voorspelbaar en uitvoerbaar is, hebben zowel burgers als
ondernemers hier immers baat bij.12
AI en grondrechten
Het gebruik van AI-systemen kan in de praktijk raken aan diverse
grondrechten,13 zoals het recht op privacy14 en het recht op
non-discriminatie.15 Inzet van AI kan ook een impact
hebben op andere grondrechten zoals het recht op onderwijs, het recht op
arbeid en de onschuldpresumptie.16 Zo blijkt uit de
laatste rapportage van de Autoriteit Persoonsgegevens (AP) dat AI steeds
meer wordt ingezet bij werving- en selectieprocedures, bijvoorbeeld om
cv’s te filteren met behulp van kernwoorden. De keuze voor woorden
waarop wordt gefilterd kan (onbedoeld) tot effect hebben dat bepaalde
(bevolkings)groepen sneller worden uitgesloten, terwijl ze even geschikt
zouden zijn voor de functie.17 Een ander voorbeeld,
dat raakt aan het recht op onderwijs,18
is dat in 2024 ophef ontstond over het gebruik van AI-systemen bij
doorstroomtoetsen die leiden tot een schooladvies voor leerlingen in
groep 8. Veel scholen gaven aan de uitslagen niet te kunnen plaatsen en
dat deze niet overeenkwamen met het beeld op basis van het
leerlingvolgsysteem.19 Verder zijn er AI-systemen in
gebruik om het recidiverisico van jonge zedendelinquenten te voorspellen
of die inzicht moeten geven in de kenmerken van jongeren die het risico
lopen betrokken te raken bij drugscriminaliteit. Het College voor de
Rechten van de Mens wijst erop dat gebruik van AI bij rechtshandhaving
het recht op een eerlijk proces20 kan bedreigen omdat
veel AI-systemen burgers onvoldoende inzicht geven in de
besluitvorming.21 Dit opgemerkt hebbende, brengt de
tijdelijke commissie de volgende grondrechtelijke aandachtspunten naar
voren ten aanzien van de Digitale Omnibus inzake AI.
A. Uitstel inwerkingtreding regels voor hoog-risico AI-systemen
(artikel 113)
Met het Omnibus AI-voorstel stelt de Commissie voor de regels voor alle
hoog-risico AI-systemen later in werking te laten treden. De Commissie
geeft hiervoor als redenen dat de geharmoniseerde standaarden met uitleg
van de regels nog niet beschikbaar zijn en dat nog niet in alle
lidstaten toezichthouders zijn aangewezen.22
Concreet stelde de Commissie een flexibele inwerkingtreding voor met als
doel de regels in werking te laten treden zes tot twaalf maanden nadat
de geharmoniseerde standaarden beschikbaar zijn, afhankelijk van het
soort AI-systeem. Daarbij was ook een ‘valbijl’-clausule opgenomen: de
regels zouden in ieder geval op 2 december 2027 of 2 augustus 2028 in
werking treden.
Intussen is op 13 maart een compromis bereikt in de Raad. Het kabinet
geeft daarover in een brief aan dat er voldoende steun lijkt te zijn om
te werken met vaste data voor inwerkingtreding, in plaats van deze data
te koppelen aan de beschikbaarheid van standaarden. Het kabinet geeft
verder aan liever te zien dat de inwerkingtreding van de bepalingen voor
de categorie hoog-risico AI-systemen minder lang wordt uitgesteld, maar
hier is volgens het kabinet onvoldoende steun voor.23
De tijdelijke commissie constateert dat dit zou betekenen dat de
inwerkingtreding van de regels voor hoog-risico AI-systemen die een
impact hebben op het leven van mensen (zoals bij werving en selectie),
met zestien maanden worden uitgesteld. Voor de regels voor hoog-risico
AI-systemen die zijn verwerkt in producten zoals medische hulpmiddelen
of auto’s, is dat twaalf maanden.
Ook de gezamenlijke Europese privacytoezichthouders, verenigd in de
European Data Protection Board (EDPB)24
uiten zorgen over de potentiële effecten van het uitstel van de
inwerkingtreding van de regels op de bescherming van fundamentele
rechten in het snel veranderende AI-landschap. De EDPB adviseert de
Europese wetgever te overwegen of het passend en haalbaar is om de
huidige tijdlijn te handhaven voor bepaalde verplichtingen, zoals over
transparantie. Mocht het uitstel van de inwerkingtreding er toch komen,
dan roept de EDPB op om de vertraging zo veel mogelijk te beperken.25
De tijdelijke commissie merkt op dat de regels die door het voorstel
worden uitgesteld bijvoorbeeld gaan over de kwaliteit van de data die
wordt gebruikt om AI-modellen te trainen. Ook vereisen deze regels een
transparant ontwerp van AI-systemen zodat voldoende duidelijk is hoe het
AI-systeem werkt en de uitkomsten van het AI-systeem op een passende
manier worden gebruikt en geïnterpreteerd. Verder bevatten de regels het
vereiste dat er menselijk toezicht is op hoog-risico AI-systemen,
waardoor deze personen kunnen besluiten het systeem stop te zetten, de
uitkomsten niet te gebruiken of beslissingen terug te draaien.26 Het belang van deze regels voor
hoog-risico AI-systemen wordt geïllustreerd in een recent rapport van de
EU Fundamental Rights Agency. Daaruit blijkt dat aanbieders en
gebruikers niet goed weten hoe zij risico’s voor fundamentele rechten
moeten beoordelen of beperken.27
De tijdelijke commissie merkt op dat uitstel van de inwerkingtreding ook
raakt aan de rechtszekerheid voor aanbieders en gebruikers van
hoog-risico AI-systemen. De tijdelijke commissie constateert dat de
inwerkingtreding vrij recent - in 2024 – is bepaald in de
AI-verordening, maar met het Omnibus AI-voorstel alweer wordt
uitgesteld. Tegelijkertijd begrijpt de tijdelijke commissie de behoefte
van gebruikers, aanbieders en toezichthouders aan geharmoniseerde
standaarden voor de toepassing en implementatie van de AI-verordening.
De tijdelijke commissie vindt het overigens positief dat de
(rechts)onzekerheid over de flexibele inwerkingtreding met het
raadscompromis lijkt te zijn weggenomen. Dit neemt niet weg dat uitstel
van de inwerkingtreding van de AI-verordening ook uitstel betekent van
effectieve grondrechtenbescherming van burgers, zo merkt de tijdelijke
commissie op. De regels uit de AI-verordening over transparantie,
menselijk toezicht en datakwaliteit voor hoog-risico AI-systemen zijn
daarvoor van groot belang.
De tijdelijke commissie geeft de vaste commissie voor Digitale
Zaken in overweging het kabinet te vragen de Europese Commissie te
verzoeken om een inschatting van de termijn die nodig is voor het
opstellen van geharmoniseerde standaarden bij de belangrijkste
verplichtingen voor hoog-risico AI-systemen, om te bezien of eerdere
inwerkingtreding voor enkele of meerdere bepalingen - zoals over
transparantie - alsnog mogelijk is.
Een voorstel uit de Omnibus AI dat in het verlengde ligt van de
uitgestelde inwerkingtreding, is het voorstel om de uitzondering voor
zogenaamde legacy-systemen te verruimen (artikel 111). Legacy-systemen
zijn hoog risico AI-systemen die al op de markt zijn gebracht in de EU
voordat de AI-verordening van toepassing zou worden (2 augustus 2026).
Deze legacy-systemen hoeven met uitzondering van verboden AI-praktijken,
nooit aan de AI-verordening te gaan voldoen, tenzij zij aanzienlijke
wijzigingen in hun systeem ondergaan.28
Met de Omnibus AI wordt voorgesteld dat ook systemen die op de markt
wordt gebracht tussen 2 augustus 2026 en de nieuwe, latere datum van
inwerkingtreding, óók grotendeels nooit hoeven te voldoen aan de regels
uit de AI-verordening. De uitzondering voor legacy-systemen wordt
daarmee verruimd.
De EDPB wijst in zijn advies ook op deze uitzondering die ervoor zorgt
dat een toenemend aantal hoog-risico AI-systemen voordeel hebben van
deze uitzondering.29 De tijdelijke commissie merkt op
dat verruiming van de uitzondering ook een mogelijke prikkel inhoudt om
een AI-systeem nog in deze periode op de markt te brengen zodat men niet
aan de regels hoeft te voldoen. Verder heeft dit tot gevolg dat de
grondrechtenbescherming die de AI-verordening biedt, niet zal worden
geboden aan burgers bij de inzet van een groter aantal hoog-risico
AI-systemen: ook de systemen die tussen de oude en de nieuwe
inwerkingtredingsdatum op de Europese markt worden gebracht.
De tijdelijke commissie geeft in overweging te vragen wat de
noodzaak is van het verruimen van de uitzondering voor legacy-systemen,
waardoor ook hoog-risico AI-systemen die in de handel worden gebracht
tussen de oude en de nieuwe inwerkingtredingsdata, (met uitzondering van
de verboden praktijken) nooit aan de regels uit de AI-verordening hoeven
te voldoen, tenzij zij aanzienlijke wijzigingen in hun systeem
ondergaan.
B. AI-geletterdheid (artikel 4)
In de AI-verordening is nu de verplichting opgenomen dat aanbieders en
gebruikers zoveel mogelijk moeten zorgen voor AI-geletterdheid bij hun
personeel. Het voorstel is om dit te wijzigen naar een verplichting voor
de Commissie en lidstaten om gebruikers en aanbieders van AI-systemen
aan te sporen ervoor te zorgen dat hun personeel en andere gebruikers
voldoende AI-geletterd zijn. AI-geletterdheid wordt in de AI-verordening
omschreven als vaardigheden, kennis en begrip die aanbieders en
gebruikers in staat stellen geïnformeerd AI-systemen in te zetten en
zich bewuster te worden van de kansen en risico’s van AI en de mogelijke
schade die zij kan veroorzaken.30
De tijdelijke commissie constateert met de EDPB dat de wijziging van de
bepaling over AI-geletterdheid een afzwakking inhoudt. De EDPB geeft in
zijn advies dan ook aan dat de oorspronkelijke bepaling niet zou moeten
vervallen. AI-geletterdheid is volgens de EDPB cruciaal voor de
bescherming van fundamentele rechten. AI-geletterdheid zorgt voor een
begrip van AI en helpt bij het creëren van ethisch en maatschappelijk
bewustzijn over de voordelen en risico’s van AI. Het zorgt ervoor dat
personeel kritisch kan nadenken over het gebruik van deze nieuwe
technologie en goed geïnformeerd beslissingen neemt, aldus de EDPB. Als
wordt vastgehouden aan de nieuw voorgestelde verplichting voor de
Commissie en lidstaten om AI-geletterdheid te bevorderen, dan zou deze
volgens de EDPB moeten gaan gelden naast de huidige
verplichting in de AI-verordening voor aanbieders en
gebruiksverantwoordelijken.31
Uit de brief van het kabinet over het raadscompromis blijkt dat er in de
Raad voldoende steun lijkt om in de aangepaste bepaling over
AI-geletterdheid op te nemen dat aanbieders en gebruikers van
AI-systemen nog steeds verantwoordelijkheden en verplichtingen hebben om
voor voldoende training en vaardigheden te zorgen bij hun werknemers.
Ook zal er, zoals de EDPB adviseert,32 duidelijkheid komen
over de uitleg van de verplichting tot AI-geletterdheid. Het kabinet
geeft tot slot aan verdere verduidelijking te verwelkomen.33
De tijdelijke commissie merkt op dat uit de brief van het kabinet niet
duidelijk wordt welke verantwoordelijkheden en verplichtingen aanbieders
en gebruikers precies zullen behouden volgens het
raadscompromis. Het advies van de EDPB om de oude en nieuwe verplichting
naast elkaar te handhaven lijkt niet te zijn opgevolgd met het
raadscompromis.
De tijdelijke commissie adviseert de vaste commissie voor
Digitale Zaken het kabinet te vragen om toe te lichten welke
verantwoordelijkheden en verplichtingen aanbieders en gebruikers precies
zullen behouden volgens het raadscompromis en of daarmee het advies van
de EDPB wordt opgevolgd om de inspanningsverplichting voor
AI-geletterdheid zoals die nu geldt, te handhaven naast het voorstel uit
de Omnibus AI.
C. Versimpeling verplichtingen SMCs en SMEs (diverse
artikelen34)
Met het Omnibus AI-voorstel worden soepeler regels die nu gelden voor
Small and Medium-sized Enterprises (SMEs) ook van toepassing op Small
Mid-cap Companies (SMCs),35 om ervoor te zorgen
dat de administratieve lasten proportioneel zijn aan het doel van de
regels. Of een bedrijf een SME of SMC is wordt bepaald op basis van de
hoeveelheid personeel en de omzet- of balanscijfers. Een SME is een
onderneming waar minder dan 250 personen werkzaam zijn en waarvan de
jaaromzet niet hoger is dan 50 miljoen euro of het jaarlijkse
balanstotaal 43 miljoen euro niet overschrijdt.36
SMCs zijn ondernemingen waar tussen de 250 en 749 personen werkzaam zijn
en waarvan de jaaromzet tussen de 50 en 150 miljoen euro ligt of het
jaarlijkse balanstotaal tussen de 43 en 129 miljoen euro.37
De EDPB merkt op dat het voorstel op basis van de hoeveelheid personeel
of balanscijfers de soepeler regels uit de AI-verordening uitbreidt naar
SMEs en SMCs. Deze factoren zouden volgens de EDPB niet van
doorslaggevend belang moeten zijn, maar de vraag in hoeverre het gebruik
van een AI-systeem gepaard gaat met risico’s. Hierbij spelen
bijvoorbeeld de mate waarin een AI-systeem autonoom opereert of de mate
waarin een AI-systeem kan worden opgeschaald een rol. Uit het BNC-fiche
blijkt dat kabinet de voorgestelde wijzigingen kan steunen omdat deze
het voor organisaties eenvoudiger maken om aan de AI-verordening te
voldoen, zonder afbreuk te doen aan de doelen van de verordening.38
De tijdelijke commissie merkt op dat het vanuit het perspectief van
grondrechtenbescherming van belang is om vast te houden aan de
risico-gebaseerde regels39 in plaats van regels
op basis van ondernemingsgrootte. Tegelijkertijd heeft de Commissie het
legitieme streven om de administratieve lasten uit de AI-Verordening te
verminderen. De tijdelijke commissie vraagt zich af of de balans die met
het voorstel is gevonden – waarbij SMEs en SMCs aan minder regels hoeven
te voldoen – ook de juiste is gezien het effect op
grondrechtenbescherming. Dit is niet toegelicht in het voorstel van de
Commissie (zie ook onderdeel E). Het zou verhelderend zijn geweest als
de Commissie was ingegaan op de risico’s die al dan niet gepaard gaan
met het gebruik van AI-systemen door SMEs en SMCs en waarom versimpeling
van de regels verantwoord is.
De tijdelijke commissie adviseert de vaste commissie voor
Digitale Zaken het kabinet te vragen om de Europese Commissie te
verzoeken toe te lichten wat het effect is van de afzonderlijke regels
voor SMEs en SMCs op grondrechtenbescherming voor burgers en waarom deze
regels afwijken van de insteek van risico-gebaseerd toezicht in de
AI-verordening.
D. Bevoegdheden toezichthouders (artikel 57-58 en artikel
77)
Het Omnibus AI-voorstel introduceert AI-testomgevingen voor regelgeving
op Europees niveau, naast de bestaande mogelijkheid om nationale
testomgevingen op te richten. Een testomgeving (‘regulatory sandbox’)
biedt aanbieders van AI-systemen de mogelijkheid een innovatief
AI-systeem te ontwikkelen, trainen en testen onder begeleiding van een
toezichthouder.40 Het AI-bureau kan dergelijke EU
testomgevingen opzetten, bijvoorbeeld voor AI-modellen voor algemene
doeleinden. Over het toezicht op AI-testomgevingen op EU-niveau beveelt
de EDPB aan dat nationale gegevensbeschermingstoezichthouders, net als
bij testomgevingen op nationaal niveau, betrokken zijn bij het toezicht
op EU-niveau om de rechtszekerheid te bevorderen. Het kan in de
testomgeving op EU-niveau namelijk gaan om toezicht op dezelfde gegevens
als in de nationale testomgeving. Ook zou in de AI-verordening moeten
worden geregeld dat de EDPB een adviserende rol krijgt bij de
EU-testomgevingen om te zorgen voor een consistente en gecoördineerde
aanpak.41
Verder wordt in de Omnibus AI voorgesteld dat mensenrechtenautoriteiten
informatie kunnen inzien bij, of informatieverzoeken kunnen laten doen
door een markttoezichthouder, die in dat laatste geval ook beoordeelt of
het verzoek noodzakelijk en proportioneel is. Op grond van de huidige
AI-verordening kunnen nationale mensenrechtenautoriteiten direct
informatieverzoeken doen aan aanbieders of gebruikers van AI-systemen.
De EDPB vindt de voorgestelde wijziging onwenselijk en vindt dat
markttoezichthouders alleen een contactpunt dienen te zijn voor
informatieverzoeken. Zij zouden geen beoordeling moeten uitvoeren van de
noodzakelijkheid en proportionaliteit van informatieverzoeken van
mensenrechtenautoriteiten. Wel kunnen zij zich richten op een
efficiëntere procedure voor informatieverzoeken, aldus de EDPB.42
Over deze twee punten merkt de tijdelijke commissie op dat
verduidelijking of aanpassing aangewezen lijkt om de rechtszekerheid te
bevorderen voor bedrijven, en voor burgers om het effectief toezicht op
hun grondrechten te verzekeren. Voor de betrokkenheid van de EDPB en
nationale toezichthouders bij de EU testomgevingen geldt dat dit zorgt
voor consistentie in het toezicht binnen de EU, wat de rechtszekerheid
verhoogt. Ook acht de tijdelijke commissie het van belang dat er geen
belemmeringen zijn bij informatieverzoeken door
mensenrechtenautoriteiten, zodat mensenrechtenautoriteiten hun rol en
taken effectief kunnen vervullen.
De tijdelijke commissie geeft de vaste commissie voor Digitale
Zaken in overweging bij het kabinet onder de aandacht te brengen dat de
bevoegdheden van de nationale toezichthouders en de EDPB bij
AI-testomgevingen op EU-niveau, en van mensenrechtenautoriteiten bij
informatieverzoeken aan aanbieders of gebruikers van AI-systemen, nog
verduidelijking behoeven in het licht van het bevorderen van de
rechtszekerheid en de bescherming van grondrechten.
E. Ontbreken impact assessment en het aanmerken van het voorstel
als ‘Omnibus’
Het Omnibus AI-voorstel heeft tot doel de administratieve lasten van de
AI-verordening aanzienlijk terug te dringen om zo het
concurrentievermogen van de EU te versterken, zonder de doelstellingen
van de AI-verordening – waaronder bescherming van de grondrechten - in
gevaar te brengen.43 In de toelichting bij het Omnibus
AI-voorstel stelt de Commissie dat de voorgestelde wijzigingen van de
AI-verordening technisch van aard zijn en moeten zorgen voor een
efficiëntere uitvoering van de regels. De Commissie schrijft in de
toelichting ook dat zij niet verwacht dat het Omnibus AI-voorstel de
impact van de AI-verordening op fundamentele rechten zal wijzigen.44 Reden hiervoor is dat de
voorstellen volgens de Commissie niet zien op de reikwijdte van de
AI-verordening of op materiële vereisten voor AI-systemen.45
De tijdelijke commissie constateert dat het Omnibus AI-voorstel niet
alleen technische wijzigingen bevat. Het voorstel wijzigt ook materiële
vereisten (bijvoorbeeld de AI-geletterdheid) en het toepassingsgebied
van AI-systemen (bijvoorbeeld de soepeler regels voor SMCs).46 In de toelichting die wordt gegeven
door de Commissie wordt bijvoorbeeld niet stilgestaan bij wat uitstel
van de regels voor hoog-risico AI-systemen betekent voor de bescherming
van fundamentele rechten van burgers of beargumenteerd waarom uitstel,
gezien alle belangen, evenredig is. De tijdelijke commissie signaleert
dat uit de richtsnoeren van de Commissie volgt dat in een impact
assessment juist aandacht zou zijn besteed aan de impact van het
voorstel op grondrechten.47 Ook het kabinet geeft
in het BNC-fiche aan dat het ontbreken van een impact assessment het
moeilijk maakt om de effecten van het voorstel te beoordelen.48
De tijdelijke commissie adviseert de vaste commissie voor
Digitale Zaken het kabinet te vragen om de Europese Commissie te
verzoeken om – vanwege het ontbreken van een impact assessment - een
nadere motivering van de noodzaak en proportionaliteit van de
voorgestelde wijzigingen van de AI-verordening uit onderdelen A tot en
met D van dit advies.
De tijdelijke commissie adviseert om te verzoeken of in deze
nadere motivering in ieder geval kan worden ingegaan op de verwachte
impact op grondrechten, waaraan volgens de richtsnoeren van de Europese
Commissie in een impact assessment bijzondere aandacht zou zijn
besteed.
F. Uitbreiding juridische basis verwerking bijzondere
persoonsgegevens voor detectie en correctie vooringenomenheid (artikel
4a (nieuw))
De Commissie stelt met de Omnibus AI voor om de juridische basis uit te
breiden voor de verwerking van bijzondere persoonsgegevens49 voor het opsporen en corrigeren van
vooringenomenheid in AI-systemen. Daardoor mogen niet alleen aanbieders
van hoog-risico systemen deze gegevens verwerken, maar alle
aanbieders van AI-systemen. Ook hoeft ingevolge het voorstel de
verwerking niet langer strikt noodzakelijk te zijn voor
opsporing en correctie van vooringenomenheid, maar enkel
noodzakelijk.
De tijdelijke commissie kan zich vinden in het standpunt van de EDPB,
die de uitbreiding van de juridische basis in beginsel steunt, mits
daarbij in aanvullende waarborgen wordt voorzien. Het verwerken van
bijzondere persoonsgegevens levert volgens de EDPB weliswaar risico’s op
voor de bescherming van persoonsgegevens,50
maar vooringenomenheid in AI-systemen kan evengoed risico’s opleveren
voor grondrechten, zoals het recht op gelijke behandeling.51 De EDPB stelt daarom dat, om
misbruik te voorkomen, de gevallen waarin bijzondere persoonsgegevens
mogen worden verwerkt, duidelijk moeten worden omschreven en beperkt tot
gevallen waarin de risico’s voldoende serieus zijn52
om verwerking te rechtvaardigen. In dit licht beveelt de EDPB aan om in
de wettekst de voorwaarde te behouden dat de verwerking van bijzondere
persoonsgegevens beperkt moet blijven tot die situaties waarin dit
strikt noodzakelijk is.53
In de recente brief van het kabinet over het raadscompromis geeft het
kabinet aan dat er in de Raad voldoende steun lijkt om – in lijn met het
advies van de EDPB - de voorgestelde bevoegdheid te beperken tot
verwerkingen die strikt noodzakelijk zijn voor het opsporen,
corrigeren en voorkomen van vooringenomen die waarschijnlijk de
gezondheid en veiligheid van personen aantast, grondrechten schaadt of
tot discriminatie leidt. Het kabinet acht de nieuwe grondslag
proportioneel met deze aanvullende waarborgen, gezien het feit dat
vooringenomenheid in AI ook grondrechten kan schaden.54
De tijdelijke commissie constateert met het kabinet dat hiermee de
adviezen van de EDPB lijken te zijn opgevolgd.
De tijdelijke commissie constateert dat met het Raadscompromis
het aandachtspunt over de uitbreiding van de juridische basis voor de
verwerking van bijzondere persoonsgegevens voor het opsporen en
corrigeren van vooringenomenheid, lijkt te zijn
geadresseerd.
G. Afschaffing verplichting tot registratie in database voor
niet-hoog-risico systemen (artikel 49, lid 2)
Met de Omnibus AI wordt voorgesteld dat AI-systemen die niet worden
beschouwd als hoog-risico, niet langer hoeven te worden geregistreerd in
de EU-databank. Als een AI-systeem geen significant risico oplevert voor
de gezondheid, veiligheid of grondrechten wordt deze gezien als niet
hoog-risico. Dit is het geval als het AI-systeem de besluitvorming niet
wezenlijk beïnvloedt, omdat er bijvoorbeeld ook een menselijke
beoordeling van de uitkomst is.55 Aanbieders beoordelen
zelf of een AI-systeem een hoog risico vormt of niet,56
en registreren dit vervolgens in de databank. Deze administratieve last
kan volgens de Commissie worden weggenomen voor AI-systemen die niet als
hoog-risico worden beschouwd.
De EDPB beveelt aan de registratieverplichting te handhaven, ook al
heeft de aanbieder geconcludeerd dat het systeem niet hoog-risico is.
Het afschaffen van de registratie creëert volgens de EDPB namelijk een
prikkel om een AI-systeem als niet hoog-risico te kwalificeren en
vermindert daardoor de mate waarin aanbieders verantwoording afleggen
over de AI-systemen die zij aanbieden. Potentieel risicovolle systemen
vallen hierdoor mogelijk buiten het zicht van het publiek en de
toezichthouders, waardoor het risico op gevaarlijke incidenten volgens
de EDPB toeneemt.57 Ook het kabinet bleek om dezelfde
reden geen voorstander van deze wijziging.58
Temeer omdat deze maatregel volgens het kabinet en de EDPB slechts een
beperkte verlichting van de regeldruk oplevert.59
In de recente brief over het Raadcompromis schrijft het kabinet dat de
registratieplicht voor niet hoog-risico AI-systemen waarschijnlijk
behouden blijft in de Raadspositie.60
De tijdelijke commissie is met de EDPB van mening dat door opname in de
databank verantwoording en transparantie over de kwalificatie van een
AI-systeem wordt gestimuleerd.61 Dit is van belang
omdat kwalificatie van een AI-systeem als niet hoog-risico tot gevolg
heeft dat de regels voor hoog-risico AI-systemen, die bescherming bieden
tegen inbreuken op grondrechten, niet van toepassing zijn.62 Registratie maakt het mogelijk voor
burgers en gebruikers van AI-systemen om zich te informeren over de
redenen waarom het systeem geen hoog risico vormt. Dit geldt ook voor
toezichthouders, die aanbieders van AI-systemen op basis van de
kwalificatie in de databank kunnen verzoeken om informatie over de
uitgevoerde beoordeling en indien nodig, maatregelen kunnen nemen.
Verantwoording en transparantie in de EU-databank dragen volgens de
tijdelijke commissie bij aan de zorgvuldigheid van het
kwalificatieproces.
De tijdelijke commissie constateert dat het aandachtspunt over
het afschaffen van de registratieplicht voor niet-hoog-risico
AI-systemen in het Raadscompromis waarschijnlijk is
geadresseerd.
De hiervoor genoemde punten kunnen betrokken worden bij de verdere
behandeling van het voorstel.
De voorzitter van de tijdelijke commissie Grondrechten en
Constitutionele toetsing,
Bushoff
De griffier van de tijdelijke commissie Grondrechten en Constitutionele
toetsing,
Kling
VERORDENING VAN HET EUROPEES PARLEMENT EN DE RAAD tot wijziging van de Verordeningen (EU) 2024/1689 en (EU) 2018/1139 wat betreft vereenvoudiging van de uitvoering van geharmoniseerde regels betreffende artificiële intelligentie (digitale omnibus inzake AI) (COM (2025) 836).↩︎
Uit mediaberichtgeving blijkt dat in het standpunt een verbod is opgenomen op AI waarmee nepnaaktbeelden kunnen worden gemaakt.↩︎
Gezien de voortgang van de Europese wetgevingsprocedure is een kanttekening bij deze laatste optie dat de Europese Commissie dergelijke verzoeken doorgaans binnen drie maanden beantwoordt.↩︎
Toelichting op het Digitale Omnibus inzake AI-voorstel, COM(2025) 836, p. 1 en 2.↩︎
Overweging 1 bij de AI-Verordening (2024/1689).↩︎
Artikel 86 respectievelijk artikel 50 van de AI-Verordening.↩︎
Zie artikel 5 van de AI-Verordening voor meer verboden toepassingen. Emotie-herkenning op werk is overigens wel toegestaan voor veiligheids- of medische doeleinden.↩︎
Een AI-systeem is gedefinieerd als een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat uit de ontvangen input voor expliciete of impliciete doelen afleidt hoe output te genereren, zoals: voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen.↩︎
Voor hoog-risico AI-systemen op basis van artikel 6, lid 1 van de AI-verordening: zie bijlage I bij de AI-verordening voor de lijst met EU-wetgeving waarin die zaken gereguleerd zijn. Zie ook overweging 50.↩︎
Zie bijlage III bij de AI-verordening voor de omschrijving van de hoog-risico AI-systemen op basis van artikel 6, lid 2 van de AI-verordening. Zie ook overweging 52.↩︎
Patricia Popelier, Rechtszekerheid als beginsel voor behoorlijke regelgeving, p. 130, 161 en 176.↩︎
Zie in dit kader onder meer de kernindicatoren van het Nederlandse bedrijvenbeleid, zoals bijgehouden door het Ministerie van Economische Zaken en Klimaat: https://www.bedrijvenbeleidinbeeld.nl/kernindicatoren.↩︎
In overweging 52 bij de AI-Verordening worden verder genoemd: het recht op menselijke waardigheid, de vrijheid van meningsuiting, de vrijheid van vergadering en vereniging, de rechten van personen met een handicap, intellectuele-eigendomsrechten, het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht, het recht op verdediging, het recht op behoorlijk bestuur, de rechten van het kind en het recht op een hoog niveau van milieubescherming.↩︎
Het recht op eerbiediging van de privacy is neergelegd in artikel 10 Grondwet, artikel 8 Handvest van de grondrechten van de EU en artikel 14 EVRM.↩︎
Het recht op non-discriminatie is vastgelegd in artikel 1 Grondwet, artikel 21 Handvest van de grondrechten van de EU en artikel 8 EVRM.↩︎
Het recht op arbeid in artikel 15 Handvest van de grondrechten van de EU, artikel 6 IVESCR en artikel 19 Grondwet.↩︎
Rapportage AI & Algoritmes in Nederland, Autoriteit Persoonsgegevens, 6e editie, p. 38.↩︎
Het recht op onderwijs is vastgelegd in artikel 14 Handvest van de grondrechten van de EU en artikel 13 IVESCR.↩︎
Rapportage AI & Algoritmes in Nederland, Autoriteit Persoonsgegevens, 4e editie, p. 14 en 15.↩︎
Zoals vastgelegd in artikel 17 Grondwet, artikel 6 EVRM en artikel 47 van het Handvest van de grondrechten van de EU.↩︎
Grondrechtenbescherming in de AI-Verordening, College voor de Rechten van de Mens, december 2025, p. 22.↩︎
Toelichting op het Digitale Omnibus inzake AI-voorstel, COM(2025) 836, p. 2.↩︎
Kamerstukken II 2025/26, 22112, nr. 4287, p. 2.↩︎
De EDPB is het samenwerkingsverband van alle nationale privacytoezichthouders uit de Europese lidstaten en de European Data Protection Supervisor (EDPS). De voornaamste taak van de EDPB is ervoor zorgen dat het gegevensbeschermingsrecht in de gehele Europese Unie op een coherente manier wordt uitgelegd en toegepast.↩︎
EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 4 en 15.↩︎
Zie voor alle regels Hoofdstuk III, afdeling I t/m III van de AI-verordening. ↩︎
Assessing high-risk AI, fundamental rights risks, EU Fundamental Rights Agency, 2025, p. 10-11.↩︎
Uitzonderingen hierop zijn (1) AI-systemen die bedoeld zijn voor de overheid en (2) AI-systemen die component zijn van grootschalige AI-systemen. Deze moeten uiterlijk 2 augustus 2030 voldoen aan de verordening. Voor AI-modellen voor algemene doeleinden gelden andere overgangsregels, zie daarvoor artikel 111, leden 3 en 4 (nieuw).↩︎
EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 14 en 15. De EDPB heeft in zijn advies bij de AI-verordening al bezwaar gemaakt tegen opname van de uitzondering voor legacy-systemen. Zie EDPB-EDPS Joint Opinion 5/2021 on the proposal for a Regulation of the EP and of the Council laying down harmonised rules on artificial intelligence, adopted on 18 June 2021, p. 13.↩︎
Zie artikel 3, onderdeel 56, van de AI-Verordening.↩︎
EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 4, 13 en 14.↩︎
Idem.↩︎
Kamerstukken II 2025/26, 22112, nr. 4287, p. 3.↩︎
Het betreft wijzigingen van artikel 11, 17, 57, lid 9, punt e, 63, 70, lid 8, 95, lid 4, en 99 van de AI-Verordening.↩︎
Het gaat onder andere om: simpelere technische documentatie, vereenvoudigde vereisten voor kwaliteitsmanagementsystemen of het faciliteren en versnellen van toegang tot de AI-testomgeving.↩︎
Artikel 2 van de bijlage bij Aanbeveling 2003/361/EG van de Commissie.↩︎
Punt 2 van de bijlage bij Aanbeveling (EU) 2025/1099 van de Commissie.↩︎
Kamerstukken II 2025/26, 22112, nr. 4223, p. 8.↩︎
Zie bijvoorbeeld overweging 26 van de AI-Verordening.↩︎
Zie artikel 3, onderdeel 55 van de AI-Verordening.↩︎
EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 3 en 10.↩︎
EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 4, 12 en 13.↩︎
Toelichting op het Omnibus AI-voorstel, COM (2025) 836, p. 2 en 5.↩︎
Zie ook het Staff working document bij het Omnibus AI-voorstel, SWD (2025) 836, p. 81. Daar staat nog dat uitstel van de inwerkingtreding de positieve effecten van bescherming van fundamentele rechten zou kunnen vertragen. Geen uitstel heeft het risico in zich dat toepassing van de regels praktisch niet haalbaar of heel duur zou zijn. Dat zou de impact op andere rechten, zoals de vrijheid van ondernemerschap kunnen beperken. Tegen die achtergrond wordt uitstel van de inwerkingtreding proportioneel geacht.↩︎
Toelichting op het Omnibus AI-voorstel, COM (2025) 836, p. 2 en 6.↩︎
De tijdelijke commissie wijst in dit verband ook op een aanbeveling van de Europese Ombudsman, waarin de Commissie wordt opgeroepen een keuze voor een Omnibusvoorstel zorgvuldig te motiveren: Recommendation on the European Commission’s compliance with ‘Better Regulation’ rules and other procedural requirements in preparing legislative proposals that it considered to be urgent (983/2025/MAS - the “Omnibus” case, 2031/2024/VB - the “migration” case, and 1379/2024/MIK - the “CAP” case).↩︎
European Commission, Better Regulation Guidelines, SWD(2021) 305 final, 3 November 2021, p. 35.↩︎
Kamerstukken II 2025/26, 22112, nr. 4223, p. 6.↩︎
Bijzondere persoonsgegevens zijn bijvoorbeeld gegevens over ras, politieke opvattingen of seksuele gerichtheid en zijn extra privacygevoelig. Het heeft extra impact op personen als deze worden verwerkt. Daarom worden deze gegevens extra beschermd door de AVG. Zie: Wat zijn persoonsgegevens? | Autoriteit Persoonsgegevens.↩︎
Het gaat om het recht op bescherming van persoonsgegevens (artikel 8 EU Handvest, artikel 10, lid 2 Grondwet met uitwerking in de AVG) en het recht op privacy (artikel 10 Grondwet, artikel 8 Handvest van de grondrechten van de EU en artikel 14 EVRM).↩︎
Ook het kabinet gaf aan dat de verwerking van bijzondere categorieën van persoonsgegevens, ook als die is bedoeld om vooringenomenheid te voorkomen, in zijn algemeenheid risico’s met zich brengt, zoals datalekken en misbruik van gegevens, zie: Kamerstukken II 2025/26, 22112, nr. 4223, p. 7. Zie verder hierboven de paragraaf ‘AI en grondrechten’.↩︎
Het moet gaan om risico’s voor de gezondheid, veiligheid, fundamentele rechten (waaronder het recht op non-discriminatie, zoals nu bepaald in artikel 10 (lid 5 jo. lid 2, f en g).↩︎
EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 3 en 6 tot en met 8.↩︎
Kamerstukken II 2025/26, 22112, nr. 4287, p. 2.↩︎
Zie artikel 6, lid 3 van de AI-verordening. Het kan bijvoorbeeld ook gaan om AI-systemen die een beperkte procedurele taak uitvoeren. De Commissie moet richtsnoeren opstellen met voorbeelden van (niet) hoog-risico AI.↩︎
Zie artikel 6, lid 4 van de AI-Verordening. Een aanbieder moet de beoordeling ook documenteren. Op verzoek van de toezichthouder verstrekt de aanbieder de documentatie van de beoordeling.↩︎
EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 3, 8 en 9.↩︎
Kamerstukken II 2025/26, 22112, nr. 4223, p. 9.↩︎
Het zou gaan om geschatte registratiekosten van EUR 100 voor 1485 bedrijven, aldus het staff working document (2025/836), p. 78.↩︎
Kamerstukken II 2025/26, 22112, nr. 4287, p. 2.↩︎
EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 3, 8 en 9.↩︎
Zo’n regel is bijvoorbeeld dat transparant moet zijn hoe een AI-systeem werkt, zodat de gebruiker de uitkomsten juist interpreteert en gebruikt (zie ook onderdeel A).↩︎