[overzicht] [activiteiten] [ongeplande activiteiten] [besluiten] [commissies] [geschenken] [kamerleden] [kamerstukdossiers] [🧑mijn] [open vragen]
[toezeggingen] [stemmingen] [verslagen] [🔍 uitgebreid zoeken] [wat is dit?]

Brief van de tijdelijke commissie Grondrechten en Constitutionele toetsing over een advies op verzoek van de vaste commissie voor Digitale Zaken over EU-voorstel: Verordening Digitale Omnibus AI COM (2025) 836

Nieuwe Commissievoorstellen en initiatieven van de lidstaten van de Europese Unie

Brief commissie

Nummer: 2026D15671, datum: 2026-04-02, bijgewerkt: 2026-04-02 14:45, versie: 1

Directe link naar document (.docx), link naar pagina op de Tweede Kamer site.

Gerelateerde personen:

Onderdeel van kamerstukdossier 22112 -4302 Nieuwe Commissievoorstellen en initiatieven van de lidstaten van de Europese Unie.

Onderdeel van zaak 2026Z06964:

Onderdeel van activiteiten:

Preview document (🔗 origineel)


22 112 Nieuwe Commissievoorstellen en initiatieven van de lidstaten van de Europese Unie

Nr. 4302 BRIEF VAN DE TIJDELIJKE COMMISSIE GRONDRECHTEN EN CONSTITUTIONELE TOETSING

Aan de Leden

Den Haag, 2 april 2026

De tijdelijke commissie Grondrechten en Constitutionele toetsing (hierna: de tijdelijke commissie) heeft tijdens haar procedurevergadering van 5 maart 2026 besloten naar aanleiding van het verzoek van de vaste commissie voor Digitale Zaken van 25 februari 2026 (2026D08516) een adviestraject te starten over constitutionele en grondrechtelijke aspecten in het voorstel voor de EU-verordening Digitale Omnibus inzake AI COM (2025) 836.1 De vaste commissie voor Digitale Zaken is hierover geïnformeerd met een brief van 5 maart 2026 (2026D10051).

Europese wetgevingsprocedure
De Digitale Omnibus inzake AI is een Europees voorstel. Dat betekent dat niet de nationale, maar de Europese wetgevingsprocedure hierop van toepassing is. De tijdelijke commissie merkt in dit verband op dat de Europese wetgevingsprocedure ten tijde van de vaststelling van dit advies nog gaande is. Tijdens het adviestraject is in de Raad een compromis bereikt over een nieuwe onderhandelingstekst. Dit compromis adresseert (waarschijnlijk) twee van de oorspronkelijke aandachtspunten (zie onderdelen F en G). Ook het Europees Parlement heeft intussen een standpunt ingenomen.2 Dit vond plaats in de afrondende fase van dit advies, waardoor het niet meer kon worden meegenomen. Mocht de vaste commissie voor Digitale Zaken hier prijs op stellen, dan kan de tijdelijke commissie hierover aanvullend adviseren.

De standpuntbepaling door het Europees Parlement betekent dat de onderhandelingen tussen het Europees Parlement, het Voorzitterschap van de Raad en de Europese Commissie (de triloogfase) aanvangen, waarbij het Omnibus AI-voorstel mogelijk nog wordt aangepast. Verder wordt opgemerkt dat waar de tijdelijke commissie in dit advies adviseert om bepaalde informatie op te vragen bij de Europese Commissie (de Commissie), geldt dat de leden van de vaste commissie voor Digitale Zaken dit gedurende de Europese wetgevingsprocedure op verschillende manieren kunnen doen. Naast een verzoek aan het kabinet om de desbetreffende informatie bij de Commissie op te vragen, kan de Kamer dergelijke verzoeken ook rechtstreeks tot de Commissie richten via een politieke dialoog.3

Doel Omnibus AI-voorstel en AI-verordening
Het Omnibus AI-voorstel heeft als doel de administratieve lasten die voortvloeien uit de AI-verordening, voor bedrijven en overheden in de EU terug te dringen. De Commissie wil ervoor zorgen dat de regels uit de AI-verordening innovatie en groei ondersteunen en het concurrentievermogen versterken. Verder is volgens de Commissie tijdige implementatie van de AI-verordening op 2 augustus 2026 in de praktijk niet haalbaar.4 Het Omnibus AI-voorstel wijzigt om deze redenen diverse regels uit de AI-verordening. De AI-verordening is in 2024 vastgesteld en is het eerste juridische raamwerk ter wereld dat de kansen en risico’s van AI adresseert. De regels moeten zowel de innovatie van AI in de EU versterken en tegelijkertijd de gezondheid, veiligheid, fundamentele rechten en mensgeoriënteerde AI garanderen.5 De AI-verordening regelt voor burgers een recht op uitleg bij individuele besluitvorming door hoog-risico AI-systemen en een recht om geïnformeerd te worden wanneer zij communiceren met een AI-systeem.6 Verder verbiedt de verordening bepaalde AI-praktijken, zoals emotie-herkenning op werk of manipulatieve of misleidende AI met aanzienlijke schade als gevolg.7 De AI-verordening heeft een risico-gebaseerde aanpak en richt zich voornamelijk tot hoog-risico AI-systemen.8 AI-systemen worden aangemerkt als ‘hoog risico’ wanneer zij een significant risico geven op schade voor de gezondheid, veiligheid of grondrechten van personen. Denk bijvoorbeeld aan AI die is verwerkt in producten zoals medische hulpmiddelen, industriële machines, auto’s en speelgoed.9 Of aan AI-systemen die worden gebruikt om te beoordelen of burgers in aanmerking komen voor essentiële overheidsuitkeringen of bij de levering van elektriciteit.10

Verzoek commissie Digitale Zaken
De vaste commissie voor Digitale Zaken heeft de tijdelijke commissie verzocht in het advies in het bijzonder in te gaan op de rechtszekerheid en effectieve grondrechtenbescherming bij uitstel en gefaseerde toepassing van hoog-risico-verplichtingen in de AI-Verordening. De tijdelijke commissie gaat daar in onderdeel A op in. Ook is de tijdelijke commissie gevraagd te adviseren over mogelijke andere grondrechtelijke of constitutionele aandachtspunten die de commissie van belang acht. Alvorens de tijdelijke commissie in onderdelen B tot en met G daarop ingaat, staat zij hieronder eerst stil bij de rechtszekerheid en de impact die AI kan hebben op grondrechten.

Rechtszekerheid
De rechtszekerheid is een algemeen rechtsbeginsel waaruit volgt dat het voor iedereen in redelijke mate voorzienbaar moet zijn wat de rechtsgevolgen zijn van zijn gedrag (voorzienbaarheid). De rechtszekerheid is hierdoor een belangrijk element voor het vertrouwen in het rechtssysteem.11 De tijdelijke commissie onderstreept dat de rechtszekerheid ook van invloed is op het ondernemingsklimaat en de concurrentiepositie. Wanneer regelgeving duidelijk, voorspelbaar en uitvoerbaar is, hebben zowel burgers als ondernemers hier immers baat bij.12

AI en grondrechten
Het gebruik van AI-systemen kan in de praktijk raken aan diverse grondrechten,13 zoals het recht op privacy14 en het recht op non-discriminatie.15 Inzet van AI kan ook een impact hebben op andere grondrechten zoals het recht op onderwijs, het recht op arbeid en de onschuldpresumptie.16 Zo blijkt uit de laatste rapportage van de Autoriteit Persoonsgegevens (AP) dat AI steeds meer wordt ingezet bij werving- en selectieprocedures, bijvoorbeeld om cv’s te filteren met behulp van kernwoorden. De keuze voor woorden waarop wordt gefilterd kan (onbedoeld) tot effect hebben dat bepaalde (bevolkings)groepen sneller worden uitgesloten, terwijl ze even geschikt zouden zijn voor de functie.17 Een ander voorbeeld, dat raakt aan het recht op onderwijs,18 is dat in 2024 ophef ontstond over het gebruik van AI-systemen bij doorstroomtoetsen die leiden tot een schooladvies voor leerlingen in groep 8. Veel scholen gaven aan de uitslagen niet te kunnen plaatsen en dat deze niet overeenkwamen met het beeld op basis van het leerlingvolgsysteem.19 Verder zijn er AI-systemen in gebruik om het recidiverisico van jonge zedendelinquenten te voorspellen of die inzicht moeten geven in de kenmerken van jongeren die het risico lopen betrokken te raken bij drugscriminaliteit. Het College voor de Rechten van de Mens wijst erop dat gebruik van AI bij rechtshandhaving het recht op een eerlijk proces20 kan bedreigen omdat veel AI-systemen burgers onvoldoende inzicht geven in de besluitvorming.21 Dit opgemerkt hebbende, brengt de tijdelijke commissie de volgende grondrechtelijke aandachtspunten naar voren ten aanzien van de Digitale Omnibus inzake AI.

A. Uitstel inwerkingtreding regels voor hoog-risico AI-systemen (artikel 113)
Met het Omnibus AI-voorstel stelt de Commissie voor de regels voor alle hoog-risico AI-systemen later in werking te laten treden. De Commissie geeft hiervoor als redenen dat de geharmoniseerde standaarden met uitleg van de regels nog niet beschikbaar zijn en dat nog niet in alle lidstaten toezichthouders zijn aangewezen.22 Concreet stelde de Commissie een flexibele inwerkingtreding voor met als doel de regels in werking te laten treden zes tot twaalf maanden nadat de geharmoniseerde standaarden beschikbaar zijn, afhankelijk van het soort AI-systeem. Daarbij was ook een ‘valbijl’-clausule opgenomen: de regels zouden in ieder geval op 2 december 2027 of 2 augustus 2028 in werking treden.

Intussen is op 13 maart een compromis bereikt in de Raad. Het kabinet geeft daarover in een brief aan dat er voldoende steun lijkt te zijn om te werken met vaste data voor inwerkingtreding, in plaats van deze data te koppelen aan de beschikbaarheid van standaarden. Het kabinet geeft verder aan liever te zien dat de inwerkingtreding van de bepalingen voor de categorie hoog-risico AI-systemen minder lang wordt uitgesteld, maar hier is volgens het kabinet onvoldoende steun voor.23 De tijdelijke commissie constateert dat dit zou betekenen dat de inwerkingtreding van de regels voor hoog-risico AI-systemen die een impact hebben op het leven van mensen (zoals bij werving en selectie), met zestien maanden worden uitgesteld. Voor de regels voor hoog-risico AI-systemen die zijn verwerkt in producten zoals medische hulpmiddelen of auto’s, is dat twaalf maanden.

Ook de gezamenlijke Europese privacytoezichthouders, verenigd in de European Data Protection Board (EDPB)24 uiten zorgen over de potentiële effecten van het uitstel van de inwerkingtreding van de regels op de bescherming van fundamentele rechten in het snel veranderende AI-landschap. De EDPB adviseert de Europese wetgever te overwegen of het passend en haalbaar is om de huidige tijdlijn te handhaven voor bepaalde verplichtingen, zoals over transparantie. Mocht het uitstel van de inwerkingtreding er toch komen, dan roept de EDPB op om de vertraging zo veel mogelijk te beperken.25

De tijdelijke commissie merkt op dat de regels die door het voorstel worden uitgesteld bijvoorbeeld gaan over de kwaliteit van de data die wordt gebruikt om AI-modellen te trainen. Ook vereisen deze regels een transparant ontwerp van AI-systemen zodat voldoende duidelijk is hoe het AI-systeem werkt en de uitkomsten van het AI-systeem op een passende manier worden gebruikt en geïnterpreteerd. Verder bevatten de regels het vereiste dat er menselijk toezicht is op hoog-risico AI-systemen, waardoor deze personen kunnen besluiten het systeem stop te zetten, de uitkomsten niet te gebruiken of beslissingen terug te draaien.26 Het belang van deze regels voor hoog-risico AI-systemen wordt geïllustreerd in een recent rapport van de EU Fundamental Rights Agency. Daaruit blijkt dat aanbieders en gebruikers niet goed weten hoe zij risico’s voor fundamentele rechten moeten beoordelen of beperken.27

De tijdelijke commissie merkt op dat uitstel van de inwerkingtreding ook raakt aan de rechtszekerheid voor aanbieders en gebruikers van hoog-risico AI-systemen. De tijdelijke commissie constateert dat de inwerkingtreding vrij recent - in 2024 – is bepaald in de AI-verordening, maar met het Omnibus AI-voorstel alweer wordt uitgesteld. Tegelijkertijd begrijpt de tijdelijke commissie de behoefte van gebruikers, aanbieders en toezichthouders aan geharmoniseerde standaarden voor de toepassing en implementatie van de AI-verordening. De tijdelijke commissie vindt het overigens positief dat de (rechts)onzekerheid over de flexibele inwerkingtreding met het raadscompromis lijkt te zijn weggenomen. Dit neemt niet weg dat uitstel van de inwerkingtreding van de AI-verordening ook uitstel betekent van effectieve grondrechtenbescherming van burgers, zo merkt de tijdelijke commissie op. De regels uit de AI-verordening over transparantie, menselijk toezicht en datakwaliteit voor hoog-risico AI-systemen zijn daarvoor van groot belang.

De tijdelijke commissie geeft de vaste commissie voor Digitale Zaken in overweging het kabinet te vragen de Europese Commissie te verzoeken om een inschatting van de termijn die nodig is voor het opstellen van geharmoniseerde standaarden bij de belangrijkste verplichtingen voor hoog-risico AI-systemen, om te bezien of eerdere inwerkingtreding voor enkele of meerdere bepalingen - zoals over transparantie - alsnog mogelijk is.

Een voorstel uit de Omnibus AI dat in het verlengde ligt van de uitgestelde inwerkingtreding, is het voorstel om de uitzondering voor zogenaamde legacy-systemen te verruimen (artikel 111). Legacy-systemen zijn hoog risico AI-systemen die al op de markt zijn gebracht in de EU voordat de AI-verordening van toepassing zou worden (2 augustus 2026). Deze legacy-systemen hoeven met uitzondering van verboden AI-praktijken, nooit aan de AI-verordening te gaan voldoen, tenzij zij aanzienlijke wijzigingen in hun systeem ondergaan.28 Met de Omnibus AI wordt voorgesteld dat ook systemen die op de markt wordt gebracht tussen 2 augustus 2026 en de nieuwe, latere datum van inwerkingtreding, óók grotendeels nooit hoeven te voldoen aan de regels uit de AI-verordening. De uitzondering voor legacy-systemen wordt daarmee verruimd.

De EDPB wijst in zijn advies ook op deze uitzondering die ervoor zorgt dat een toenemend aantal hoog-risico AI-systemen voordeel hebben van deze uitzondering.29 De tijdelijke commissie merkt op dat verruiming van de uitzondering ook een mogelijke prikkel inhoudt om een AI-systeem nog in deze periode op de markt te brengen zodat men niet aan de regels hoeft te voldoen. Verder heeft dit tot gevolg dat de grondrechtenbescherming die de AI-verordening biedt, niet zal worden geboden aan burgers bij de inzet van een groter aantal hoog-risico AI-systemen: ook de systemen die tussen de oude en de nieuwe inwerkingtredingsdatum op de Europese markt worden gebracht.

De tijdelijke commissie geeft in overweging te vragen wat de noodzaak is van het verruimen van de uitzondering voor legacy-systemen, waardoor ook hoog-risico AI-systemen die in de handel worden gebracht tussen de oude en de nieuwe inwerkingtredingsdata, (met uitzondering van de verboden praktijken) nooit aan de regels uit de AI-verordening hoeven te voldoen, tenzij zij aanzienlijke wijzigingen in hun systeem ondergaan.

B. AI-geletterdheid (artikel 4)
In de AI-verordening is nu de verplichting opgenomen dat aanbieders en gebruikers zoveel mogelijk moeten zorgen voor AI-geletterdheid bij hun personeel. Het voorstel is om dit te wijzigen naar een verplichting voor de Commissie en lidstaten om gebruikers en aanbieders van AI-systemen aan te sporen ervoor te zorgen dat hun personeel en andere gebruikers voldoende AI-geletterd zijn. AI-geletterdheid wordt in de AI-verordening omschreven als vaardigheden, kennis en begrip die aanbieders en gebruikers in staat stellen geïnformeerd AI-systemen in te zetten en zich bewuster te worden van de kansen en risico’s van AI en de mogelijke schade die zij kan veroorzaken.30

De tijdelijke commissie constateert met de EDPB dat de wijziging van de bepaling over AI-geletterdheid een afzwakking inhoudt. De EDPB geeft in zijn advies dan ook aan dat de oorspronkelijke bepaling niet zou moeten vervallen. AI-geletterdheid is volgens de EDPB cruciaal voor de bescherming van fundamentele rechten. AI-geletterdheid zorgt voor een begrip van AI en helpt bij het creëren van ethisch en maatschappelijk bewustzijn over de voordelen en risico’s van AI. Het zorgt ervoor dat personeel kritisch kan nadenken over het gebruik van deze nieuwe technologie en goed geïnformeerd beslissingen neemt, aldus de EDPB. Als wordt vastgehouden aan de nieuw voorgestelde verplichting voor de Commissie en lidstaten om AI-geletterdheid te bevorderen, dan zou deze volgens de EDPB moeten gaan gelden naast de huidige verplichting in de AI-verordening voor aanbieders en gebruiksverantwoordelijken.31

Uit de brief van het kabinet over het raadscompromis blijkt dat er in de Raad voldoende steun lijkt om in de aangepaste bepaling over AI-geletterdheid op te nemen dat aanbieders en gebruikers van AI-systemen nog steeds verantwoordelijkheden en verplichtingen hebben om voor voldoende training en vaardigheden te zorgen bij hun werknemers. Ook zal er, zoals de EDPB adviseert,32 duidelijkheid komen over de uitleg van de verplichting tot AI-geletterdheid. Het kabinet geeft tot slot aan verdere verduidelijking te verwelkomen.33

De tijdelijke commissie merkt op dat uit de brief van het kabinet niet duidelijk wordt welke verantwoordelijkheden en verplichtingen aanbieders en gebruikers precies zullen behouden volgens het raadscompromis. Het advies van de EDPB om de oude en nieuwe verplichting naast elkaar te handhaven lijkt niet te zijn opgevolgd met het raadscompromis.

De tijdelijke commissie adviseert de vaste commissie voor Digitale Zaken het kabinet te vragen om toe te lichten welke verantwoordelijkheden en verplichtingen aanbieders en gebruikers precies zullen behouden volgens het raadscompromis en of daarmee het advies van de EDPB wordt opgevolgd om de inspanningsverplichting voor AI-geletterdheid zoals die nu geldt, te handhaven naast het voorstel uit de Omnibus AI.

C. Versimpeling verplichtingen SMCs en SMEs (diverse artikelen34)
Met het Omnibus AI-voorstel worden soepeler regels die nu gelden voor Small and Medium-sized Enterprises (SMEs) ook van toepassing op Small Mid-cap Companies (SMCs),35 om ervoor te zorgen dat de administratieve lasten proportioneel zijn aan het doel van de regels. Of een bedrijf een SME of SMC is wordt bepaald op basis van de hoeveelheid personeel en de omzet- of balanscijfers. Een SME is een onderneming waar minder dan 250 personen werkzaam zijn en waarvan de jaaromzet niet hoger is dan 50 miljoen euro of het jaarlijkse balanstotaal 43 miljoen euro niet overschrijdt.36 SMCs zijn ondernemingen waar tussen de 250 en 749 personen werkzaam zijn en waarvan de jaaromzet tussen de 50 en 150 miljoen euro ligt of het jaarlijkse balanstotaal tussen de 43 en 129 miljoen euro.37

De EDPB merkt op dat het voorstel op basis van de hoeveelheid personeel of balanscijfers de soepeler regels uit de AI-verordening uitbreidt naar SMEs en SMCs. Deze factoren zouden volgens de EDPB niet van doorslaggevend belang moeten zijn, maar de vraag in hoeverre het gebruik van een AI-systeem gepaard gaat met risico’s. Hierbij spelen bijvoorbeeld de mate waarin een AI-systeem autonoom opereert of de mate waarin een AI-systeem kan worden opgeschaald een rol. Uit het BNC-fiche blijkt dat kabinet de voorgestelde wijzigingen kan steunen omdat deze het voor organisaties eenvoudiger maken om aan de AI-verordening te voldoen, zonder afbreuk te doen aan de doelen van de verordening.38

De tijdelijke commissie merkt op dat het vanuit het perspectief van grondrechtenbescherming van belang is om vast te houden aan de risico-gebaseerde regels39 in plaats van regels op basis van ondernemingsgrootte. Tegelijkertijd heeft de Commissie het legitieme streven om de administratieve lasten uit de AI-Verordening te verminderen. De tijdelijke commissie vraagt zich af of de balans die met het voorstel is gevonden – waarbij SMEs en SMCs aan minder regels hoeven te voldoen – ook de juiste is gezien het effect op grondrechtenbescherming. Dit is niet toegelicht in het voorstel van de Commissie (zie ook onderdeel E). Het zou verhelderend zijn geweest als de Commissie was ingegaan op de risico’s die al dan niet gepaard gaan met het gebruik van AI-systemen door SMEs en SMCs en waarom versimpeling van de regels verantwoord is.

De tijdelijke commissie adviseert de vaste commissie voor Digitale Zaken het kabinet te vragen om de Europese Commissie te verzoeken toe te lichten wat het effect is van de afzonderlijke regels voor SMEs en SMCs op grondrechtenbescherming voor burgers en waarom deze regels afwijken van de insteek van risico-gebaseerd toezicht in de AI-verordening.

D. Bevoegdheden toezichthouders (artikel 57-58 en artikel 77)
Het Omnibus AI-voorstel introduceert AI-testomgevingen voor regelgeving op Europees niveau, naast de bestaande mogelijkheid om nationale testomgevingen op te richten. Een testomgeving (‘regulatory sandbox’) biedt aanbieders van AI-systemen de mogelijkheid een innovatief AI-systeem te ontwikkelen, trainen en testen onder begeleiding van een toezichthouder.40 Het AI-bureau kan dergelijke EU testomgevingen opzetten, bijvoorbeeld voor AI-modellen voor algemene doeleinden. Over het toezicht op AI-testomgevingen op EU-niveau beveelt de EDPB aan dat nationale gegevensbeschermingstoezichthouders, net als bij testomgevingen op nationaal niveau, betrokken zijn bij het toezicht op EU-niveau om de rechtszekerheid te bevorderen. Het kan in de testomgeving op EU-niveau namelijk gaan om toezicht op dezelfde gegevens als in de nationale testomgeving. Ook zou in de AI-verordening moeten worden geregeld dat de EDPB een adviserende rol krijgt bij de EU-testomgevingen om te zorgen voor een consistente en gecoördineerde aanpak.41

Verder wordt in de Omnibus AI voorgesteld dat mensenrechtenautoriteiten informatie kunnen inzien bij, of informatieverzoeken kunnen laten doen door een markttoezichthouder, die in dat laatste geval ook beoordeelt of het verzoek noodzakelijk en proportioneel is. Op grond van de huidige AI-verordening kunnen nationale mensenrechtenautoriteiten direct informatieverzoeken doen aan aanbieders of gebruikers van AI-systemen. De EDPB vindt de voorgestelde wijziging onwenselijk en vindt dat markttoezichthouders alleen een contactpunt dienen te zijn voor informatieverzoeken. Zij zouden geen beoordeling moeten uitvoeren van de noodzakelijkheid en proportionaliteit van informatieverzoeken van mensenrechtenautoriteiten. Wel kunnen zij zich richten op een efficiëntere procedure voor informatieverzoeken, aldus de EDPB.42

Over deze twee punten merkt de tijdelijke commissie op dat verduidelijking of aanpassing aangewezen lijkt om de rechtszekerheid te bevorderen voor bedrijven, en voor burgers om het effectief toezicht op hun grondrechten te verzekeren. Voor de betrokkenheid van de EDPB en nationale toezichthouders bij de EU testomgevingen geldt dat dit zorgt voor consistentie in het toezicht binnen de EU, wat de rechtszekerheid verhoogt. Ook acht de tijdelijke commissie het van belang dat er geen belemmeringen zijn bij informatieverzoeken door mensenrechtenautoriteiten, zodat mensenrechtenautoriteiten hun rol en taken effectief kunnen vervullen.

De tijdelijke commissie geeft de vaste commissie voor Digitale Zaken in overweging bij het kabinet onder de aandacht te brengen dat de bevoegdheden van de nationale toezichthouders en de EDPB bij AI-testomgevingen op EU-niveau, en van mensenrechtenautoriteiten bij informatieverzoeken aan aanbieders of gebruikers van AI-systemen, nog verduidelijking behoeven in het licht van het bevorderen van de rechtszekerheid en de bescherming van grondrechten.

E. Ontbreken impact assessment en het aanmerken van het voorstel als ‘Omnibus’
Het Omnibus AI-voorstel heeft tot doel de administratieve lasten van de AI-verordening aanzienlijk terug te dringen om zo het concurrentievermogen van de EU te versterken, zonder de doelstellingen van de AI-verordening – waaronder bescherming van de grondrechten - in gevaar te brengen.43 In de toelichting bij het Omnibus AI-voorstel stelt de Commissie dat de voorgestelde wijzigingen van de AI-verordening technisch van aard zijn en moeten zorgen voor een efficiëntere uitvoering van de regels. De Commissie schrijft in de toelichting ook dat zij niet verwacht dat het Omnibus AI-voorstel de impact van de AI-verordening op fundamentele rechten zal wijzigen.44 Reden hiervoor is dat de voorstellen volgens de Commissie niet zien op de reikwijdte van de AI-verordening of op materiële vereisten voor AI-systemen.45

De tijdelijke commissie constateert dat het Omnibus AI-voorstel niet alleen technische wijzigingen bevat. Het voorstel wijzigt ook materiële vereisten (bijvoorbeeld de AI-geletterdheid) en het toepassingsgebied van AI-systemen (bijvoorbeeld de soepeler regels voor SMCs).46 In de toelichting die wordt gegeven door de Commissie wordt bijvoorbeeld niet stilgestaan bij wat uitstel van de regels voor hoog-risico AI-systemen betekent voor de bescherming van fundamentele rechten van burgers of beargumenteerd waarom uitstel, gezien alle belangen, evenredig is. De tijdelijke commissie signaleert dat uit de richtsnoeren van de Commissie volgt dat in een impact assessment juist aandacht zou zijn besteed aan de impact van het voorstel op grondrechten.47 Ook het kabinet geeft in het BNC-fiche aan dat het ontbreken van een impact assessment het moeilijk maakt om de effecten van het voorstel te beoordelen.48

De tijdelijke commissie adviseert de vaste commissie voor Digitale Zaken het kabinet te vragen om de Europese Commissie te verzoeken om – vanwege het ontbreken van een impact assessment - een nadere motivering van de noodzaak en proportionaliteit van de voorgestelde wijzigingen van de AI-verordening uit onderdelen A tot en met D van dit advies.

De tijdelijke commissie adviseert om te verzoeken of in deze nadere motivering in ieder geval kan worden ingegaan op de verwachte impact op grondrechten, waaraan volgens de richtsnoeren van de Europese Commissie in een impact assessment bijzondere aandacht zou zijn besteed.

F. Uitbreiding juridische basis verwerking bijzondere persoonsgegevens voor detectie en correctie vooringenomenheid (artikel 4a (nieuw))
De Commissie stelt met de Omnibus AI voor om de juridische basis uit te breiden voor de verwerking van bijzondere persoonsgegevens49 voor het opsporen en corrigeren van vooringenomenheid in AI-systemen. Daardoor mogen niet alleen aanbieders van hoog-risico systemen deze gegevens verwerken, maar alle aanbieders van AI-systemen. Ook hoeft ingevolge het voorstel de verwerking niet langer strikt noodzakelijk te zijn voor opsporing en correctie van vooringenomenheid, maar enkel noodzakelijk.

De tijdelijke commissie kan zich vinden in het standpunt van de EDPB, die de uitbreiding van de juridische basis in beginsel steunt, mits daarbij in aanvullende waarborgen wordt voorzien. Het verwerken van bijzondere persoonsgegevens levert volgens de EDPB weliswaar risico’s op voor de bescherming van persoonsgegevens,50 maar vooringenomenheid in AI-systemen kan evengoed risico’s opleveren voor grondrechten, zoals het recht op gelijke behandeling.51 De EDPB stelt daarom dat, om misbruik te voorkomen, de gevallen waarin bijzondere persoonsgegevens mogen worden verwerkt, duidelijk moeten worden omschreven en beperkt tot gevallen waarin de risico’s voldoende serieus zijn52 om verwerking te rechtvaardigen. In dit licht beveelt de EDPB aan om in de wettekst de voorwaarde te behouden dat de verwerking van bijzondere persoonsgegevens beperkt moet blijven tot die situaties waarin dit strikt noodzakelijk is.53

In de recente brief van het kabinet over het raadscompromis geeft het kabinet aan dat er in de Raad voldoende steun lijkt om – in lijn met het advies van de EDPB - de voorgestelde bevoegdheid te beperken tot verwerkingen die strikt noodzakelijk zijn voor het opsporen, corrigeren en voorkomen van vooringenomen die waarschijnlijk de gezondheid en veiligheid van personen aantast, grondrechten schaadt of tot discriminatie leidt. Het kabinet acht de nieuwe grondslag proportioneel met deze aanvullende waarborgen, gezien het feit dat vooringenomenheid in AI ook grondrechten kan schaden.54 De tijdelijke commissie constateert met het kabinet dat hiermee de adviezen van de EDPB lijken te zijn opgevolgd.

De tijdelijke commissie constateert dat met het Raadscompromis het aandachtspunt over de uitbreiding van de juridische basis voor de verwerking van bijzondere persoonsgegevens voor het opsporen en corrigeren van vooringenomenheid, lijkt te zijn geadresseerd.

G. Afschaffing verplichting tot registratie in database voor niet-hoog-risico systemen (artikel 49, lid 2)
Met de Omnibus AI wordt voorgesteld dat AI-systemen die niet worden beschouwd als hoog-risico, niet langer hoeven te worden geregistreerd in de EU-databank. Als een AI-systeem geen significant risico oplevert voor de gezondheid, veiligheid of grondrechten wordt deze gezien als niet hoog-risico. Dit is het geval als het AI-systeem de besluitvorming niet wezenlijk beïnvloedt, omdat er bijvoorbeeld ook een menselijke beoordeling van de uitkomst is.55 Aanbieders beoordelen zelf of een AI-systeem een hoog risico vormt of niet,56 en registreren dit vervolgens in de databank. Deze administratieve last kan volgens de Commissie worden weggenomen voor AI-systemen die niet als hoog-risico worden beschouwd.
De EDPB beveelt aan de registratieverplichting te handhaven, ook al heeft de aanbieder geconcludeerd dat het systeem niet hoog-risico is. Het afschaffen van de registratie creëert volgens de EDPB namelijk een prikkel om een AI-systeem als niet hoog-risico te kwalificeren en vermindert daardoor de mate waarin aanbieders verantwoording afleggen over de AI-systemen die zij aanbieden. Potentieel risicovolle systemen vallen hierdoor mogelijk buiten het zicht van het publiek en de toezichthouders, waardoor het risico op gevaarlijke incidenten volgens de EDPB toeneemt.57 Ook het kabinet bleek om dezelfde reden geen voorstander van deze wijziging.58 Temeer omdat deze maatregel volgens het kabinet en de EDPB slechts een beperkte verlichting van de regeldruk oplevert.59 In de recente brief over het Raadcompromis schrijft het kabinet dat de registratieplicht voor niet hoog-risico AI-systemen waarschijnlijk behouden blijft in de Raadspositie.60

De tijdelijke commissie is met de EDPB van mening dat door opname in de databank verantwoording en transparantie over de kwalificatie van een AI-systeem wordt gestimuleerd.61 Dit is van belang omdat kwalificatie van een AI-systeem als niet hoog-risico tot gevolg heeft dat de regels voor hoog-risico AI-systemen, die bescherming bieden tegen inbreuken op grondrechten, niet van toepassing zijn.62 Registratie maakt het mogelijk voor burgers en gebruikers van AI-systemen om zich te informeren over de redenen waarom het systeem geen hoog risico vormt. Dit geldt ook voor toezichthouders, die aanbieders van AI-systemen op basis van de kwalificatie in de databank kunnen verzoeken om informatie over de uitgevoerde beoordeling en indien nodig, maatregelen kunnen nemen. Verantwoording en transparantie in de EU-databank dragen volgens de tijdelijke commissie bij aan de zorgvuldigheid van het kwalificatieproces.

De tijdelijke commissie constateert dat het aandachtspunt over het afschaffen van de registratieplicht voor niet-hoog-risico AI-systemen in het Raadscompromis waarschijnlijk is geadresseerd.

De hiervoor genoemde punten kunnen betrokken worden bij de verdere behandeling van het voorstel.

De voorzitter van de tijdelijke commissie Grondrechten en Constitutionele toetsing,
Bushoff

De griffier van de tijdelijke commissie Grondrechten en Constitutionele toetsing,
Kling


  1. VERORDENING VAN HET EUROPEES PARLEMENT EN DE RAAD tot wijziging van de Verordeningen (EU) 2024/1689 en (EU) 2018/1139 wat betreft vereenvoudiging van de uitvoering van geharmoniseerde regels betreffende artificiële intelligentie (digitale omnibus inzake AI) (COM (2025) 836).↩︎

  2. Uit mediaberichtgeving blijkt dat in het standpunt een verbod is opgenomen op AI waarmee nepnaaktbeelden kunnen worden gemaakt.↩︎

  3. Gezien de voortgang van de Europese wetgevingsprocedure is een kanttekening bij deze laatste optie dat de Europese Commissie dergelijke verzoeken doorgaans binnen drie maanden beantwoordt.↩︎

  4. Toelichting op het Digitale Omnibus inzake AI-voorstel, COM(2025) 836, p. 1 en 2.↩︎

  5. Overweging 1 bij de AI-Verordening (2024/1689).↩︎

  6. Artikel 86 respectievelijk artikel 50 van de AI-Verordening.↩︎

  7. Zie artikel 5 van de AI-Verordening voor meer verboden toepassingen. Emotie-herkenning op werk is overigens wel toegestaan voor veiligheids- of medische doeleinden.↩︎

  8. Een AI-systeem is gedefinieerd als een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat uit de ontvangen input voor expliciete of impliciete doelen afleidt hoe output te genereren, zoals: voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen.↩︎

  9. Voor hoog-risico AI-systemen op basis van artikel 6, lid 1 van de AI-verordening: zie bijlage I bij de AI-verordening voor de lijst met EU-wetgeving waarin die zaken gereguleerd zijn. Zie ook overweging 50.↩︎

  10. Zie bijlage III bij de AI-verordening voor de omschrijving van de hoog-risico AI-systemen op basis van artikel 6, lid 2 van de AI-verordening. Zie ook overweging 52.↩︎

  11. Patricia Popelier, Rechtszekerheid als beginsel voor behoorlijke regelgeving, p. 130, 161 en 176.↩︎

  12. Zie in dit kader onder meer de kernindicatoren van het Nederlandse bedrijvenbeleid, zoals bijgehouden door het Ministerie van Economische Zaken en Klimaat: https://www.bedrijvenbeleidinbeeld.nl/kernindicatoren.↩︎

  13. In overweging 52 bij de AI-Verordening worden verder genoemd: het recht op menselijke waardigheid, de vrijheid van meningsuiting, de vrijheid van vergadering en vereniging, de rechten van personen met een handicap, intellectuele-eigendomsrechten, het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht, het recht op verdediging, het recht op behoorlijk bestuur, de rechten van het kind en het recht op een hoog niveau van milieubescherming.↩︎

  14. Het recht op eerbiediging van de privacy is neergelegd in artikel 10 Grondwet, artikel 8 Handvest van de grondrechten van de EU en artikel 14 EVRM.↩︎

  15. Het recht op non-discriminatie is vastgelegd in artikel 1 Grondwet, artikel 21 Handvest van de grondrechten van de EU en artikel 8 EVRM.↩︎

  16. Het recht op arbeid in artikel 15 Handvest van de grondrechten van de EU, artikel 6 IVESCR en artikel 19 Grondwet.↩︎

  17. Rapportage AI & Algoritmes in Nederland, Autoriteit Persoonsgegevens, 6e editie, p. 38.↩︎

  18. Het recht op onderwijs is vastgelegd in artikel 14 Handvest van de grondrechten van de EU en artikel 13 IVESCR.↩︎

  19. Rapportage AI & Algoritmes in Nederland, Autoriteit Persoonsgegevens, 4e editie, p. 14 en 15.↩︎

  20. Zoals vastgelegd in artikel 17 Grondwet, artikel 6 EVRM en artikel 47 van het Handvest van de grondrechten van de EU.↩︎

  21. Grondrechtenbescherming in de AI-Verordening, College voor de Rechten van de Mens, december 2025, p. 22.↩︎

  22. Toelichting op het Digitale Omnibus inzake AI-voorstel, COM(2025) 836, p. 2.↩︎

  23. Kamerstukken II 2025/26, 22112, nr. 4287, p. 2.↩︎

  24. De EDPB is het samenwerkingsverband van alle nationale privacytoezichthouders uit de Europese lidstaten en de European Data Protection Supervisor (EDPS). De voornaamste taak van de EDPB is ervoor zorgen dat het gegevensbeschermingsrecht in de gehele Europese Unie op een coherente manier wordt uitgelegd en toegepast.↩︎

  25. EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 4 en 15.↩︎

  26. Zie voor alle regels Hoofdstuk III, afdeling I t/m III van de AI-verordening. ↩︎

  27. Assessing high-risk AI, fundamental rights risks, EU Fundamental Rights Agency, 2025, p. 10-11.↩︎

  28. Uitzonderingen hierop zijn (1) AI-systemen die bedoeld zijn voor de overheid en (2) AI-systemen die component zijn van grootschalige AI-systemen. Deze moeten uiterlijk 2 augustus 2030 voldoen aan de verordening. Voor AI-modellen voor algemene doeleinden gelden andere overgangsregels, zie daarvoor artikel 111, leden 3 en 4 (nieuw).↩︎

  29. EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 14 en 15. De EDPB heeft in zijn advies bij de AI-verordening al bezwaar gemaakt tegen opname van de uitzondering voor legacy-systemen. Zie EDPB-EDPS Joint Opinion 5/2021 on the proposal for a Regulation of the EP and of the Council laying down harmonised rules on artificial intelligence, adopted on 18 June 2021, p. 13.↩︎

  30. Zie artikel 3, onderdeel 56, van de AI-Verordening.↩︎

  31. EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 4, 13 en 14.↩︎

  32. Idem.↩︎

  33. Kamerstukken II 2025/26, 22112, nr. 4287, p. 3.↩︎

  34. Het betreft wijzigingen van artikel 11, 17, 57, lid 9, punt e, 63, 70, lid 8, 95, lid 4, en 99 van de AI-Verordening.↩︎

  35. Het gaat onder andere om: simpelere technische documentatie, vereenvoudigde vereisten voor kwaliteitsmanagementsystemen of het faciliteren en versnellen van toegang tot de AI-testomgeving.↩︎

  36. Artikel 2 van de bijlage bij Aanbeveling 2003/361/EG van de Commissie.↩︎

  37. Punt 2 van de bijlage bij Aanbeveling (EU) 2025/1099 van de Commissie.↩︎

  38. Kamerstukken II 2025/26, 22112, nr. 4223, p. 8.↩︎

  39. Zie bijvoorbeeld overweging 26 van de AI-Verordening.↩︎

  40. Zie artikel 3, onderdeel 55 van de AI-Verordening.↩︎

  41. EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 3 en 10.↩︎

  42. EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 4, 12 en 13.↩︎

  43. Toelichting op het Omnibus AI-voorstel, COM (2025) 836, p. 2 en 5.↩︎

  44. Zie ook het Staff working document bij het Omnibus AI-voorstel, SWD (2025) 836, p. 81. Daar staat nog dat uitstel van de inwerkingtreding de positieve effecten van bescherming van fundamentele rechten zou kunnen vertragen. Geen uitstel heeft het risico in zich dat toepassing van de regels praktisch niet haalbaar of heel duur zou zijn. Dat zou de impact op andere rechten, zoals de vrijheid van ondernemerschap kunnen beperken. Tegen die achtergrond wordt uitstel van de inwerkingtreding proportioneel geacht.↩︎

  45. Toelichting op het Omnibus AI-voorstel, COM (2025) 836, p. 2 en 6.↩︎

  46. De tijdelijke commissie wijst in dit verband ook op een aanbeveling van de Europese Ombudsman, waarin de Commissie wordt opgeroepen een keuze voor een Omnibusvoorstel zorgvuldig te motiveren: Recommendation on the European Commission’s compliance with ‘Better Regulation’ rules and other procedural requirements in preparing legislative proposals that it considered to be urgent (983/2025/MAS - the “Omnibus” case, 2031/2024/VB - the “migration” case, and 1379/2024/MIK - the “CAP” case).↩︎

  47. European Commission, Better Regulation Guidelines, SWD(2021) 305 final, 3 November 2021, p. 35.↩︎

  48. Kamerstukken II 2025/26, 22112, nr. 4223, p. 6.↩︎

  49. Bijzondere persoonsgegevens zijn bijvoorbeeld gegevens over ras, politieke opvattingen of seksuele gerichtheid en zijn extra privacygevoelig. Het heeft extra impact op personen als deze worden verwerkt. Daarom worden deze gegevens extra beschermd door de AVG. Zie: Wat zijn persoonsgegevens? | Autoriteit Persoonsgegevens.↩︎

  50. Het gaat om het recht op bescherming van persoonsgegevens (artikel 8 EU Handvest, artikel 10, lid 2 Grondwet met uitwerking in de AVG) en het recht op privacy (artikel 10 Grondwet, artikel 8 Handvest van de grondrechten van de EU en artikel 14 EVRM).↩︎

  51. Ook het kabinet gaf aan dat de verwerking van bijzondere categorieën van persoonsgegevens, ook als die is bedoeld om vooringenomenheid te voorkomen, in zijn algemeenheid risico’s met zich brengt, zoals datalekken en misbruik van gegevens, zie: Kamerstukken II 2025/26, 22112, nr. 4223, p. 7. Zie verder hierboven de paragraaf ‘AI en grondrechten’.↩︎

  52. Het moet gaan om risico’s voor de gezondheid, veiligheid, fundamentele rechten (waaronder het recht op non-discriminatie, zoals nu bepaald in artikel 10 (lid 5 jo. lid 2, f en g).↩︎

  53. EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 3 en 6 tot en met 8.↩︎

  54. Kamerstukken II 2025/26, 22112, nr. 4287, p. 2.↩︎

  55. Zie artikel 6, lid 3 van de AI-verordening. Het kan bijvoorbeeld ook gaan om AI-systemen die een beperkte procedurele taak uitvoeren. De Commissie moet richtsnoeren opstellen met voorbeelden van (niet) hoog-risico AI.↩︎

  56. Zie artikel 6, lid 4 van de AI-Verordening. Een aanbieder moet de beoordeling ook documenteren. Op verzoek van de toezichthouder verstrekt de aanbieder de documentatie van de beoordeling.↩︎

  57. EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 3, 8 en 9.↩︎

  58. Kamerstukken II 2025/26, 22112, nr. 4223, p. 9.↩︎

  59. Het zou gaan om geschatte registratiekosten van EUR 100 voor 1485 bedrijven, aldus het staff working document (2025/836), p. 78.↩︎

  60. Kamerstukken II 2025/26, 22112, nr. 4287, p. 2.↩︎

  61. EDPB-EDPS Joint Opinion 1/2026 on Digital Omnibus on AI, adopted on 20 January 2026, p. 3, 8 en 9.↩︎

  62. Zo’n regel is bijvoorbeeld dat transparant moet zijn hoe een AI-systeem werkt, zodat de gebruiker de uitkomsten juist interpreteert en gebruikt (zie ook onderdeel A).↩︎