[overzicht] [activiteiten] [ongeplande activiteiten] [besluiten] [commissies] [geschenken] [kamerleden] [kamerstukdossiers] [🧑mijn] [open vragen]
[toezeggingen] [stemmingen] [verslagen] [🔍 uitgebreid zoeken] [wat is dit?]

Verslag van een commissiedebat, gehouden op 28 januari 2025, over Inzet algoritmes en data-ethiek binnen de rijksoverheid

Informatie- en communicatietechnologie (ICT)

Verslag van een commissiedebat

Nummer: 2025D04120, datum: 2025-02-18, bijgewerkt: 2025-02-20 16:30, versie: 4

Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (kst-26643-1283).

Gerelateerde personen:

Onderdeel van kamerstukdossier 26643 -1283 Informatie- en communicatietechnologie (ICT).

Onderdeel van zaak 2024Z11902:

Onderdeel van activiteiten:

Preview document (🔗 origineel)


Tweede Kamer der Staten-Generaal 2
Vergaderjaar 2024-2025

26 643 Informatie- en communicatietechnologie (ICT)

32 761 Verwerking en bescherming persoonsgegevens

Nr. 1283 VERSLAG VAN EEN COMMISSIEDEBAT

Vastgesteld 18 februari 2025

De vaste commissie voor Digitale Zaken en de vaste commissie voor Financiën hebben op 28 januari 2025 overleg gevoerd met de heer Struycken, Staatssecretaris Rechtsbescherming, en de heer Szabó, Staatssecretaris Koninkrijksrelaties en Digitalisering, over:

de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 9 juli 2024 inzake uitstel toezending reactie op verzoek van het lid Idsinga, gedaan tijdens de regeling van werkzaamheden van 19 maart 2024, over een lijst te leveren van alle algoritmen binnen alle departementen die mogelijkerwijs illegaal zijn (Kamerstuk 26 643, nr. 1207);

de brief van de Staatssecretaris Fiscaliteit en Belastingdienst d.d. 25 oktober 2024 inzake advies Autoriteit Persoonsgegevens over geautomatiseerde selectie Belastingdienst, Dienst Toeslagen en Douane (Kamerstuk 32 761, nr. 309);

de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 2 december 2024 inzake resultaten van het ADR-onderzoek over de uitvoering van de motie van het lid Marijnissen c.s. over een voorstel hoe binnen overheidsinstellingen vervuilde data worden opgeruimd (Kamerstuk 35 510, nr. 21) (Kamerstuk 26 643, nr. 1247);

de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 3 december 2024 inzake reactie advies AP inzake geautomatiseerde selectietechnieken (Kamerstuk 32 761, nr. 310).

Van dit overleg brengen de commissies bijgaand geredigeerd woordelijk verslag uit.

De voorzitter van de vaste commissie voor Digitale Zaken,
Wingelaar

De voorzitter van de vaste commissie voor Financiën,
Nijhof-Leeuw

De griffier van de vaste commissie voor Digitale Zaken,
Boeve

Voorzitter: Valize

Griffier: Muller

Aanwezig zijn zeven leden der Kamer, te weten: Buijsse, Ergin, Kathmann, Koekkoek, Six Dijkstra, Valize en Vermeer,

en de heer Struycken, Staatssecretaris Rechtsbescherming, en de heer Szabó, Staatssecretaris Koninkrijksrelaties en Digitalisering.

Aanvang 17.29 uur.

De voorzitter:

Een hele goede avond allemaal, welkom. Het is vandaag dinsdagavond 28 januari 2025. Het is 17.30 uur en op de agenda staat een commissiedebat Digitale Zaken over data-ethiek en de inzet van algoritmes binnen de rijksoverheid. Aan de zijde van de Kamer zijn verschenen de volgende sprekers, van links naar rechts voor de mensen thuis en van mij uit van rechts naar links: de heer Six Dijkstra van Nieuw Sociaal Contract, de heer Ergin van DENK, mevrouw Koekkoek van Volt, de heer Buijsse van de VVD en de heer Vermeer van de BBB. Ikzelf, uw voorzitter, zal aansluitend ook het woord nemen. Dan wordt het voorzitterschap even overgedragen aan de heer Six Dijkstra. Aan de rechterzijde zijn aangeschoven de Staatssecretaris Digitale Zaken, de heer Szabó, en de Staatssecretaris van Justitie en Veiligheid, de heer Struycken.

Ik heb nog even een kleine huishoudelijke mededeling. Wegens ziekte kan de Staatssecretaris van Financiën, de heer Van Oostenbruggen, niet bij het debat aanwezig zijn. De Staatssecretaris Digitale Zaken zal voor zover mogelijk de feitelijke vragen op het terrein van de Staatssecretaris van Financiën namens hem beantwoorden. Hij zal de Staatssecretaris van Financiën vragen om de meer inhoudelijke vragen schriftelijk te beantwoorden, met uw welbevinden. Dan is ook nog aangeschoven mevrouw Kathmann van GroenLinks-Partij van de Arbeid.

Het belooft een leuk debat te worden. We hebben vijf minuten spreektijd per persoon. Dat is behoorlijk wat spreektijd, dus doe er uw voordeel mee. Dan wil ik als eerste het woord geven aan de heer Six Dijkstra, maar ik heb nog één mededeling. We hebben voor de eerste termijn van de Kamer een aantal interrupties van vier, inclusief de vervolgvragen. Dan geef ik het woord aan de heer Six Dijkstra.

De heer Six Dijkstra (NSC):

Dank, voorzitter. Kent de Staatssecretaris van Justitie de film Minority Report? Het is een sciencefictionfilm uit 2002 over een politiestaat waarin van tevoren voorspeld wordt welke mensen een misdaad zullen plegen en deze daarom preventief gearresteerd worden. Net als elk dystopisch verhaal is deze film bedoeld als waarschuwing, niet als handleiding. Ik moest niet geheel toevallig aan deze film denken toen ik las over Preselect Recidive, het algoritme van het Openbaar Ministerie dat de kans inschat dat een jongere recidiveert nadat hij in aanraking is gekomen met de politie. Maar waar de drie orakels uit Minority Report tenminste nog accurate voorspellingen deden, is dit algoritme zeer foutgevoelig, en dat terwijl het zomaar het verschil kan maken tussen of een jongere naar bureau Halt moet of strafrechtelijk vervolgd wordt en mogelijk een strafblad krijgt. Bovendien worden betrokkenen niet eens geïnformeerd over het bestaan van dit algoritme, laat staan over de uitkomst ervan. Is de Staatssecretaris het met mij eens dat dit rechtsongelijkheid in de hand werkt?

Voorzitter. Ja, de Nederlandse overheid mag wettelijk gezien met behulp van algoritmen aan risicoselectie doen. Daar is de Autoriteit Persoonsgegevens ook duidelijk over in haar advies aan de regering, maar dit mag enkel als er passende maatregelen getroffen worden. Zo niet, dan wordt gewoon de wet overtreden. Ik hoor graag van de Staatssecretaris van JenV welke door de AP genoemde maatregelen getroffen zijn in het geval van Preselect Recidive en aanverwante algoritmen. Op welke manier wordt onderzocht of er sprake is van discriminatie en willekeur bij het gebruik van risicoprofileringsalgoritmen en hoe periodiek gebeurt dit? Heeft hij een aanpak voor hoe hij discriminatie en willekeur gaat uitsluiten? Worden er al concrete stappen ondernomen om burgers proactief te informeren over hun betrokkenheid bij algoritmische risicoselectie? Welke zijn dit en worden burgers gewezen op hun rechten?

Voorzitter. Het probleem is natuurlijk veel breder dan dit ene algoritme. De regering geeft aan geen separate inventarisatie van risicoprofileringsalgoritmen te organiseren, nu vastgesteld is dat deze niet automatisch in strijd zijn met de wet. Dat snap ik, maar het is niet zo dat alle overige algoritmen automatisch wel wetmatig zijn. Wordt bijvoorbeeld overheidsbreed aan alle door de AP genoemde maatregelen voldaan, vraag ik de regering. Ik som ze op. A. Er moeten passende wiskundige en statistische procedures worden gehanteerd. B. Er moeten technische en organisatorische maatregelen worden getroffen waarmee het risico op fouten wordt geminimaliseerd en onjuistheden worden gecorrigeerd. C. Persoonsgegevens moeten zodanig worden bewaard dat rekening wordt gehouden met de potentiële risico’s voor de belangen en rechten van de betrokkenen en discriminerende gevolgen worden voorkomen. D. Burgers hebben recht op menselijke tussenkomst, recht om hun standpunt kenbaar te maken en recht om de beslissing aan te vechten. Aangezien er geen algemene inventarisatie komt, wil ik wel een overheidsbreed overzicht van de risicoprofileringsalgoritmen die niet aan deze eisen voldoen en een tijdspad wanneer dit gerepareerd wordt. Kan het kabinet dit toezeggen?

Voorzitter. Reeds vorig jaar april heeft de regering het lid Palmen de toezegging gedaan de resultaten van een onderzoek naar het effect van risicoselectie en aselecte steekproeven op te sturen. Wanneer kan de Kamer deze ontvangen? In het hoofdlijnenakkoord is bepaald dat er een verplichte wetenschappelijke standaard voor de inzet van algoritmen en modellen komt. Beide moeten openbaar en navolgbaar zijn. De bijsluiter maakt duidelijk waarvoor ze wel en waarvoor ze niet bedoeld zijn en gebruikt kunnen worden. Dit is vorige week nogmaals bekrachtigd met de aangenomen Kamermotie-Omtzigt/Six Dijkstra. Ik merk nog niet heel veel enthousiasme bij de regering om hiermee aan de slag te gaan. Ik hoor dan ook graag van de regering hoe en wanneer ze deze ontraden motie gaat uitvoeren.

Voorzitter. Ik rond af. De Nederlandse overheid heeft een hardnekkig geloof in data en modellen als oplossing voor alle problemen. Als ooit ergens in dit land iets onvoorspelbaars gebeurt, dan wordt steevast de schuld gegeven aan het feit dat er te weinig gegevens over burgers gedeeld mochten worden. De AVG wordt dan vooral gezien als irritant, en privacy als nice to have in plaats van als grondrecht. Het zelotisme dat koste wat het kost iedere fraudeur in het vizier moest zijn, heeft in het verleden al te veel onschuldige mensen diep in de problemen gebracht.

Daarom wil ik tot slot beide Staatssecretarissen vragen welk mensbeeld zij vinden dat er achter de risicoselectie van de overheid moet zitten. Dit bedoel ik als serieuze vraag. Zijn mensen meer dan datapunten en de relaties daartussen? Dat over groepen mensen statistische voorspellingen te doen zijn, lijkt me niet zo controversieel. Maar geloven de Staatssecretarissen werkelijk dat het toekomstig gedrag van individuen te vangen is in voorspellende algoritmen? Zo niet, welke gevolgen verbinden zij daar concreet aan in hun beleid?

Dank u wel.

De voorzitter:

Dank, meneer Six Dijkstra, voor uw inbreng. U heeft een interruptie van de heer Ergin van DENK.

De heer Ergin (DENK):

Ik hoor een aantal goede punten die collega Six Dijkstra inbrengt. Waar ik in aanloop naar dit debat ook een beetje mee bezig was, is de vraag of we op dit moment in Nederland een situatie hebben waarbij er sprake is van goede wetgeving, dus wetgeving die voldoende waarborgen biedt, en of het slechts een uitvoeringskwestie is. Mijn vraag aan de heer Six Dijkstra is of hij van mening is dat er op dit moment in Nederland sprake is van voldoende kwalitatief goede wettelijke borging als het gaat om het toepassen van algoritmen, al dan niet geautomatiseerd.

De heer Six Dijkstra (NSC):

Ik dank de heer Ergin voor zijn vraag. Ik denk ten dele. In zekere zin legt de AP hier risicoselectie-algoritmen duidelijk uit en zegt: daar moeten bepaalde voorwaarden aan gesteld worden. Ik zie nog te weinig, eigenlijk zelden, dat al die voorwaarden nageleefd worden. Dan hebben we het gewoon over de AVG en een duidelijke uitleg van de AVG. Wat dat betreft is de AVG best een sterke wet, die best als een goede basis kan dienen, in elk geval wel als het gaat om risicoselectie. Geheel toevallig ben ik zelf ook in de voorbereidende fase van een initiatiefwet voor het wettelijk vastleggen van het publieke standaard voor risicoprofileringsalgoritmen, waarbij het gaat om een kwalitatieve toets en een kwantitatieve toets. Ik denk dat dat echt een goede toevoeging kan zijn, opdat je ook overheidsdepartementen er heel duidelijk aan kan houden dat ze altijd zullen moeten toetsen of iets wel voldoet aan de standaard die nodig is om bijvoorbeeld discriminatie uit te sluiten. Ik denk dus dat er zeker nog verbetering mogelijk is.

De voorzitter:

Nog een vervolgvraag van de heer Ergin.

De heer Ergin (DENK):

Jazeker. Aangezien collega Six Dijkstra bezig is met een initiatiefwet, ga ik ervan uit dat zijn conclusie is dat dit onvoldoende is, dat er meer kan of dat het beter kan. Ik zat er bijvoorbeeld mee dat er in het SCHUFA-arrest maar ook in het advies van de AP wordt gezegd: geautomatiseerde selectie mag, mits er sprake is van – wat was het? – «betekenisvolle menselijke tussenkomst». Ik heb eigenlijk nergens in de stukken of in de wetgeving, in richtlijnen of in de handreikingen die door de voorgaande Staatssecretaris zijn opgesteld, kunnen achterhalen wat dat nou precies betekent. Zou de heer Six Dijkstra mij wijzer kunnen maken? Wat betekent «betekenisvolle menselijke tussenkomst»? En hoe en door wie kan dat getoetst worden?

De heer Six Dijkstra (NSC):

Daarmee vraagt de heer Ergin mij om een uitleg van de AVG. Dit gaat om artikel 22 van de AVG, over bepaalde voorwaarden waaraan voldaan moet worden. Hij noemt daar inderdaad eentje van. Er zijn andere zaken. Ik heb er ook al een aantal genoemd: passende wiskundige en statistische procedures; de manier van bewaren van persoonsgegevens; het recht om standpunten kenbaar te maken en beslissingen aan te vechten. Betekenisvolle menselijke tussenkomst betekent dat iets niet volledig geautomatiseerd mag zijn. Het betekent dus dat als een algoritme wordt toegepast, dit geen duidelijke rechtsgevolgen mag hebben voor iemand zonder dat er een mens naar gekeken heeft en iemand zich daarop kan beroepen. Dat is in ieder geval hoe de AP de AVG uitlegt. Die uitleg kan ik in principe goed volgen.

De voorzitter:

Ik dank de heer Six Dijkstra voor zijn bijdrage. We gaan door naar de heer Ergin van DENK voor zijn bijdrage.

De heer Ergin (DENK):

Voorzitter, dank u wel. We zagen deze week met DeepSeek dat de technologische ontwikkelingen elkaar vliegensvlug opvolgen. In de techsector praten ze over een wonder in de AI-wereld, en we zien steeds meer hoe bepalend AI wordt in het dagelijks leven. AI en algoritmen zijn natuurlijk niet twee exact dezelfde dingen, maar we kunnen in ieder geval wel zeggen dat we bij de rijksoverheid, als het gaat om algoritmen, niet kunnen spreken van een wonder. Kijk bijvoorbeeld naar het openbare Algoritmeregister. Dat werd na de toeslagenmisdaad geopend. Vorig jaar bleek dat slechts 5% van de systemen in het register was opgenomen. We zijn een paar maanden verder. Hoeveel procent is dat nu? In de beantwoording van de schriftelijke vragen die laatst zijn gesteld, geeft de Staatssecretaris aan dat eind 2025 alle hoogrisicoalgoritmen erin opgenomen zullen zijn.

Voorzitter. Dat brengt mij bij mijn volgende punt. Is de Staatssecretaris de boel niet vooruit aan het schuiven? We hebben al vijf jaar een register. Althans, die intentie was er; het register kwam iets later. We horen al vijf jaar: ja, maar dán gaan we het regelen. Nu moet de commissie weer wachten op een datum. Kan de Staatssecretaris bijvoorbeeld aangeven waar we staan in mei of juni? Dan zijn we op de helft van het jaar en zien we hopelijk vooruitgang. Ik zou graag van de Staatssecretaris horen welk percentage we dan zouden kunnen verwachten.

Dan kom ik op het punt van geautomatiseerde selectie. In de brief geeft de Staatssecretaris aan dat er geen wettelijke grondslagen ontbreken voor geautomatiseerde selectie. Ik zie in het advies van de AP wel een hele grote «maar»: de betekenisvolle menselijke tussenkomst. Eigenlijk ga ik de Staatssecretaris dezelfde vraag stellen die ik de heer Six Dijkstra heb gesteld. Wat verstaat de Staatssecretaris hieronder, en wat moeten mensen in het land hieronder verstaan? We zien bijvoorbeeld in het SCHUFA-arrest – daar verwijst de landsadvocaat ook naar – dat er ook mét menselijke tussenkomst heel veel risico’s zijn. Hoe gaan we die risico’s mijden? Kiest het kabinet, door het AP-advies een-op-een over te nemen, niet voor een ruimere interpretatie dan het SCHUFA-arrest, terwijl dat een rechterlijke uitspraak is?

Voorzitter. Van échte transparantie kunnen we niet spreken. Hopelijk gaat dat wel gebeuren, maar er zijn op dit moment in de huidige wetgeving onvoldoende waarborgen als het gaat om algoritmen. Dat was volgens mij ook de reden dat er in het regeerakkoord stond dat hier een nieuwe wet voor zou komen. Hoe staat het met het wetsvoorstel? Waarom kiest het kabinet er nou opeens voor om op basis van het AP-advies, dat eigenlijk gaat om de meer principiële vraag rondom geautomatiseerde selectie, de lijst met mogelijk illegale algoritmen niet openbaar te maken? Kunnen we die lijst niet gewoon krijgen? Ik ga er namelijk van uit dat de Staatssecretaris niks te verbergen heeft.

Voorzitter. Dan mijn punt over Motie#21, waar de ADR inmiddels ook onderzoek naar heeft gedaan. Ik noem even drie punten uit het ADR-onderzoek, waaruit blijkt dat een aantal zaken niet goed geregeld zijn als het gaat om datavervuiling en algoritmen. Bij Buitenlandse Zaken zien we bijvoorbeeld dat er niet is gekeken naar gegevens over etniciteit en geboorteplaats. Bij Binnenlandse Zaken is er geen toets uitgevoerd naar volledigheid en juistheid. Bij VWS is non-discriminatie niet eens uitgevraagd. En bij OCW zijn niet eens alle aan dit ministerie verwante organisaties betrokken geweest. Daarom vraag ik aan de Staatssecretaris, kijkend naar de onderzoeken van de ADR, of hij tevreden is met de operatie voor het herstellen van datavervuiling et cetera.

Voorzitter. Dan nog een meer filosofische vraag, misschien ook meer gericht aan de Staatssecretaris van Justitie en Veiligheid. We zien bij de overheid een trend waarbij we algoritmen inzetten voor fraudebestrijding. We zetten algoritmen vaak in om mensen te bestraffen of misstanden op te sporen en we doen dat in mindere mate om mensen te helpen. Ik ben benieuwd hoe de Staatssecretaris kijkt naar het inzetten van algoritmen om mensen te helpen in plaats van ze te bestraffen. Wat vindt hij er bijvoorbeeld van om AI in te zetten om de risico’s van algoritmen beter op te sporen?

Dank u wel, voorzitter.

De voorzitter:

Dank, meneer Ergin. U heeft nog een interruptie van de heer Six Dijkstra.

De heer Six Dijkstra (NSC):

Ik wil eigenlijk de vraag die de heer Ergin aan mij stelde ...

De voorzitter:

Een ogenblikje. Meneer Ergin, wilt u de microfoon uitzetten?

De heer Six Dijkstra (NSC):

Heel goed. De vraag die de heer Ergin aan mij stelde, wil ik graag terugkaatsen. De AP geeft in haar advies aan, als het gaat om het SCHUFA-arrest, dat er geen aanvullende wetgeving nodig is. Het gaat in principe om de uitleg van de wet en er moeten goede waarborgen omheen zijn, maar ik merk een beetje aan de vragen die de heer Ergin stelt, dat hij erop voorsorteert dat er specifiek hiervoor aanvullende wetgeving zou moeten komen. Ik ben benieuwd hoe hij dat voor zich ziet en wat er dan zou moeten komen wat er momenteel nog niet is.

De heer Ergin (DENK):

Om te beginnen denk ik dat we voor de toepassing van algoritmen door bijvoorbeeld de rijksoverheid duidelijke grenzen moeten inbouwen. Mijn fractie heeft eerder geopperd om geen gebruik meer te maken van gegevens als etniciteit en geboorteplaats. We hebben een aantal adviezen gezien bij OCW; dat weet ik vanuit mijn andere commissiewerkzaamheden. Daar is door Algorithm Audit, volgens mij, een onderzoek gedaan naar indirecte discriminatie bij DUO. In dat rapport staan een aantal heel concrete punten voor het beperken van de toepassing van algoritmen.

Voorzitter. Ik begrijp de juridische discussie op zich wel. Ik begrijp hoe de AP redeneert als het gaat om het vraagstuk van geautomatiseerde selectie. Maar hoe kan een burger nou zien dat hij of zij door een automatisch algoritme is getrokken? Dat is op dit moment niet aan de orde. De AP heeft eerder bijvoorbeeld geadviseerd om bij iedere beschikking standaard op te nemen dat er gebruik is gemaakt van een algoritme. Dat zie ik nog steeds niet gebeuren. Dat zou bijvoorbeeld een concrete maatregel kunnen zijn. Zo kan ik er een aantal opsommen. Volgens mij zou ik daarmee input geven aan het initiatiefvoorstel van de heer Six Dijkstra, en dat is op zich prima, maar dan moeten we er misschien samen aan gaan zitten.

De voorzitter:

U heeft nog een vervolgvraag van de heer Six Dijkstra, die ongetwijfeld gaat verwijzen naar ... O nee, ik bemoei me er niet mee.

De heer Six Dijkstra (NSC):

De heer Ergin en ik gaan sowieso nog een keer koffiedrinken; dat hoor ik al. De AP geeft aan dat dat met de huidige uitleg van de AVG al moet. De regering doet dat inderdaad bijna nooit en daar heb ik ook een probleem mee. Daar hebben mevrouw Kathmann en ik nog een aangehouden motie over. In principe moet de burger onder de AVG wel weten wanneer er deels algoritmische besluitvorming over hem plaatsvindt. Op dat punt heb ik een beetje een aarzeling: moeten we nieuwe wetgeving inbouwen als er nu al heel veel problemen met de compliance zijn? Wat zijn de gedachten van de heer Ergin daarover?

De heer Ergin (DENK):

Daarbij prefereert mijn fractie bijvoorbeeld een waarborg-tenzijaanpak, dus óf je waarborgen zijn in orde, óf je mag als overheid geen gebruikmaken van algoritmen. Je zou zeggen dat dit al zou moeten kunnen op basis van de huidige wet- en regelgeving, maar het gebeurt niet. Dat betekent dat we hier als Kamer op moeten sturen. Onze rol daarbij is om, als het op basis van de huidige regelgeving niet kan, het moeilijker te maken voor deze Staatssecretaris – eigenlijk niet per se voor de Staatssecretaris, maar voor alle uitvoerende organisaties – om lukraak te kunnen werken met algoritmen zonder dat er voldoende waarborgen zijn ingebouwd. Volgens DENK moeten we daar nu stappen in zetten. Dat zou bijvoorbeeld kunnen met het initiatiefvoorstel, maar volgens mij heeft het kabinet al een wetsvoorstel aangekondigd waarin we dat zouden kunnen inbouwen. U kunt ervan uitgaan dat we bij alle wetgeving die eraan komt, amendementen zullen indienen om een grens toe te voegen. Die grens is: óf je hebt alles in orde, óf er geldt gewoon een keihard verbod om algoritmen toe te passen.

De voorzitter:

Ik kijk even of er verdere interrupties zijn. Die zijn er niet. Ik dank de heer Ergin voor zijn bijdrage. Het kopje koffie met de heer Six Dijkstra staat. Ik geef het woord aan mevrouw Koekkoek voor haar inbreng namens de partij Volt.

Mevrouw Koekkoek (Volt):

Dank, voorzitter. De nieuwskoppen liegen niet: «onbetrouwbaar algoritme bestempelt jongeren als toekomstig crimineel», «roekeloze risicoprofilering: studenten in Nederland geschaad door discriminerende fraudeaanpak» en «grote zorgen om gezichtsscans door gemeentes bij aanvraag paspoort en ID-kaart».

In de Kamer wordt de urgentie gevoeld dat we hier iets aan moeten doen. Ik weet dat dat ook voor het ministerie geldt, maar ik zie dat nog niet terug in de acties van dit kabinet. In het hoofdlijnenakkoord en in het regeerprogramma wordt gezegd «we willen transparantie en we willen discriminatie tegengaan», maar ik zie daar nog niet veel van terug in de praktijk. Dat is problematisch, want ook mij bekropen de «Minority Report»-vibes van collega Six Dijkstra toen ik las dat een algoritme je kan bestempelen als toekomstig crimineel. Zo’n wereld moeten we niet willen.

Voorzitter. Sinds Volt in de Kamer zit – dat is inmiddels bijna vier jaar – pleiten we voor meer transparantie. Of het nu gaat om de lobby, om hoe we in Europa handelen of om hoe we algoritmes gebruiken, het gaat erom dat je laat zien waarom een beslissing is genomen en wie daar invloed op had. Dat basisprincipe moeten we ook willen handhaven in de digitale ruimte. Er ligt al ruim drie jaar een aangenomen motie om het Algoritmeregister verplicht te stellen voor overheden. Het antwoord daarop van het vorige kabinet was, en dat is het ook nu weer: we kijken nog even; we wachten de AI-wet af. Er lijkt nog geen noodzaak te zijn, maar die is er wel. Het resultaat van vier jaar sukkelen is dat er 600 algoritmes van de overheid geregistreerd zijn, maar dat is slechts 2% van de algoritmes die direct impact hebben op burgers. Even ter verduidelijking: die 600 algoritmes zijn mooi, maar het totale aantal algoritmes dat door de overheid wordt gebruikt, wordt geschat op 16.000. Het gaat dus wat traag, om het vriendelijk te zeggen.

Voorzitter. Wat mij betreft gaan we het prioriteren, want dit debat lijkt soms op een periodieke uitleg over de herhaling van zetten van het kabinet op dit onderwerp. Ik gaf vorige week al een voorproefje, dus ik heb hier een aantal vragen die de Staatssecretaris waarschijnlijk gaat herkennen. Is de Staatssecretaris het met mij eens dat iedereen die zich in Nederland bevindt, inzage moet kunnen hebben in informatie over de algoritmes die door de overheid worden gebruikt wanneer zij daardoor worden geraakt? Is de Staatssecretaris het met mij eens dat het Algoritmeregister daar een essentiële rol in speelt, maar dat dat register tot nu toe onvoldoende gevuld is? Is de Staatssecretaris het met mij eens dat we de positie van de burger ten opzichte van de overheid moeten versterken door het vermelden van algoritmes in het Algoritmeregister voor overheden wettelijk te verplichten? Tot slot in dit blokje: is de Staatssecretaris het met mij eens dat wanneer er een overheidsbesluit wordt genomen dat burgers raakt, zij bij dat besluit informatie moeten ontvangen over of en, zo ja, welke vormen van algoritmes of geautomatiseerde besluitvorming daarbij hebben plaatsgevonden? Ik vraag de Staatssecretaris ook of hij bereid is om de voorstellen van het College voor de Rechten van de Mens en de Open State Foundation over te nemen, want daarvan zijn onlangs twee rapporten verschenen die duidelijk aangeven dat dit inzicht moet worden gegeven. Als de Staatssecretaris het daar niet mee eens is, wil ik hem vragen hoe dat zich verhoudt tot de motiveringsplicht in de herziene versie van de Algemene wet bestuursrecht.

Voorzitter. Deze Kamer en het kabinet delen de ambitie om de relatie tussen de overheid en de burger te versterken. Dat betekent dat we burgers weerbaarder maken en de overheid minder datahongerig, want we hebben gezien dat meer data en automatisering niet altijd leiden tot een betere uitvoering en tot beter beleid. De Minister van Binnenlandse Zaken gaf in antwoorden aan mij aan dat er sprake kan zijn van institutioneel racisme in de digitale sfeer en dat dit doorgaans systemen treft die gericht waren of zijn op selectiebeslissingen en risicoprofilering. Ze gaf ook aan dat de overheid er zich vaak onbewust van is dat er iets niet klopt in de bouw van een model of dat men te laat in de gaten heeft wat de onbedoelde gevolgen zijn. Kan de Staatssecretaris aangeven hoe het gaat met de aanpak hiervan, juist als het gaat om de onbedoelde effecten? De Minister van Binnenlandse Zaken gaf aan dat hieraan gewerkt wordt, maar ik ben benieuwd hoe het staat met de voortgang daarvan. Hebben wij voldoende zicht op waar de risico’s zich bevinden en is het kabinet bereid om, waar mogelijk, de algoritmes openbaar te maken, zodat er niet alleen interne controle plaatsvindt maar er ook meegekeken kan worden door wetenschappers en journalisten?

Voorzitter. Ik heb nog een vraag over de financiering van de Autoriteit Persoonsgegevens. Dit blijkt een heikel punt. We hebben in meerdere debatten van het kabinet te horen gekregen dat het kabinet van mening is dat er nu voldoende financiële middelen naar de AP gaan, maar de AP stelt dat dit niet het geval is. Om te voorkomen dat we in een welles-nietesspel of een welles-nietesgesprek blijven vastzitten, wil ik de Staatssecretaris vragen of hij, eventueel schriftelijk, uiteen wil zetten wat die voldoende middelen voor de AP inhouden. Ik wil dat hij daarbij ook concreet ingaat op de vraag waarom het kabinet die mening heeft. Want anders blijven we in zo’n patstelling zitten, denk ik.

Voorzitter. Tot slot een uitsmijter, als dat nog kan in de tijd. Ik zou niet van Volt zijn als ik niet ook een Europese invalshoek zou inbrengen. Mijn partij is van mening dat alle algoritmes en datasets die met overheidsgeld ontwikkeld zijn, gratis beschikbaar moeten worden gesteld voor iedereen in de Europese Unie. Ik heb dus nog een laatste vraag aan de Staatssecretaris: deelt hij deze opvatting? En zo ja, welke inspanningen worden nu geleverd om dit al te bevorderen?

Dank, voorzitter.

De voorzitter:

Dank voor uw bijdrage, mevrouw Koekkoek. U bent net iets buiten de tijd. Alleen de vraag was net buiten de tijd. Dat maakt niet uit; hij wordt gewoon meegenomen. Ik kijk even naar mijn linkerzijde of er nog interrupties zijn. Die zijn er niet. Dan kunnen we meteen door naar de heer Buijsse van de Volkspartij voor Vrijheid en Democratie voor zijn inbreng.

De heer Buijsse (VVD):

Dank u wel, voorzitter. Algoritmes zijn, net als ander gereedschap in de digitale wereld, bedoeld om de dienstverlening van de overheid te ondersteunen en te verbeteren. Dat is in de basis een goede zaak, want hiermee maken we de overheid klantgerichter voor onze inwoners en ondernemers, en efficiënter in de bedrijfsvoering.

Maar net als bij ieder voordeel zijn er bij het gebruiken van technieken ook nadelen. Algoritmes kunnen bijvoorbeeld aan de hand van grootschalige selectiemethoden zodanig ingesteld worden dat ze discriminerende of bevooroordeelde besluiten nemen. Het toeslagenschandaal is misschien wel het beste voorbeeld hiervan. Als het dan misgaat bij algoritmes, is het belangrijk dat er vanuit een transparante instructie teruggezocht kan worden waar het fout is gegaan. Er zijn voorbeelden genoeg waarin een algoritme door een gebrek aan transparantie te lang zijn besluiten heeft kunnen nemen, met grote gevolgen voor mensen. Het is daarnaast ook belangrijk om menselijk handelen in de besluitvormingssystemen in te bouwen, en niet te afhankelijk te worden van algoritmes.

Voorzitter. Het speerpunt van de VVD voor vandaag is aandacht vragen voor het ontwerpproces van digitale overheidsdiensten. Om het niet mis te laten gaan met digitale technieken vindt de VVD het belangrijk dat er nauwgezet gekeken wordt naar het ontwerpproces van digitale overheidsdiensten. Wij vinden dat diensten ontwikkeld moeten worden vanuit de behoeften van inwoners en ondernemers, waarbij rekening wordt gehouden met mogelijke ethische risico’s. Ook ervaringsdeskundigen kunnen enorm van dienst zijn gedurende ontwerpprocessen. Dit heeft als doel om te komen tot een betrouwbare en voor inwoners tevredenstellende dienstverlening. Algoritmes kunnen hier net als andere technologieën, zoals de cloud of AI, bij gebruikt worden.

De VVD maakt zich er zorgen over dat er in de ontwerpprocedures van overheidsdiensten geen gemeenschappelijke taal bestaat bij overheden, nationaal en lokaal. We zien eilanden die steeds zelf hun eigen procedures en methoden gebruiken om diensten te ontwerpen en in te richten. Als het dan fout gaat, worden er pleisters geplakt door een ethische commissie hier en een strategie daar. Te vaak zien we dat we daarbij afhankelijk zijn van (dure) consultants van buitenaf. Zijn de ontwerpprincipes voor diensten bij bijvoorbeeld de Belastingdienst dezelfde als bij het Ministerie van Financiën, het CBR, een waterschap, de gemeente Amsterdam of bij mijn eigen gemeente, Boekel?

Dezelfde gemeenschappelijke taal spreken is van groot belang om risico’s te beperken. Alleen vanuit dat startpunt kun je met zekerheid vaststellen dat we uniform, over alle diensten van de overheden heen, onze inwoners en ondernemers centraal stellen. De VVD vindt het daarom niet afdoende om in dit debat alleen te spreken over hét algoritme of dé ethiek. Het gaat wat ons betreft om op de mens gerichte dienstverlening waar algoritmes of andere technologieën waar ethische risico’s bij komen kijken, zoals de cloud of AI, deel van uitmaken.

Wie ziet er toe op het gebruik van ontwerpprincipes van digitale overheidsdiensten? Kan de Staatssecretaris reflecteren op de ontwerpprocessen van diensten waar algoritmes bij gebruikt worden? Waar gaat het goed, en waar kan het beter? Zijn er al goede ervaringen opgedaan met het gebruik van die ervaringsdeskundigen? Hierop voortbordurend: kan gesteld worden dat de informatie die bijgehouden wordt in het Algoritmeregister afdoende is? Of zijn er verbeterpunten? Kan de Staatssecretaris duiden wat dit betekent voor de nationale Digitaliseringsstrategie, waar momenteel hard aan wordt gewerkt?

Dank u wel.

De voorzitter:

Dan dank ik de heer Buijsse voor zijn inbreng. Ik kijk even naar de collega’s en dan zie ik dat er een interruptie is van mevrouw Kathmann.

Mevrouw Kathmann (GroenLinks-PvdA):

Ik heb een vraag aan de heer Buijsse. Ik denk dat we elkaar wel vinden, zeker als er woorden in de mond genomen worden als «op de mens gerichte dienstverlening», want dat is eigenlijk waar dit over gaat. Vaak belanden we dan in allemaal digitaal jargon, waar we allemaal niks meer van snappen. Ik kan het zeer waarderen dat de coalitie waarvan de VVD onderdeel uitmaakt gewoon in het regeerprogramma heeft opgenomen dat de overheid transparant moet zijn over algoritmen en dat er ook gewoon in is opgenomen dat er bezwaar gemaakt moet worden. De heer Six Dijkstra refereerde er net al even aan: wij willen nogmaals het voorstel doen om ervoor te zorgen dat er in elke brief die iemand krijgt en waarbij er een risicoselectie is gedaan, niet alleen expliciet gemaakt wordt dat dit is gebeurd en hoe dit is gebeurd, en dat dit algoritme wordt genoemd, maar ook dat er gelijk wordt aangegeven waar je meer informatie kunt inwinnen of bezwaar kunt maken. Kan de VVD dit voorstel steunen?

De heer Buijsse (VVD):

Dank u wel, mevrouw Kathmann. Het is inderdaad goed dat u even aanstipt dat digitale zaken vaak omgeven zijn met «digitaal jargon», zoals u dat terecht noemt. Ook voor ons is het de kunst om de taal waarmee wij onze inwoners aanspreken ... Uiteindelijk gaat het dus om die op de mensgerichte dienstverlening van onze overheid, zeker als het gaat om digitale dienstverlening. Het is goed om dat te blijven benadrukken. Als het over de motie gaat: ik ken de motie zoals u die beschrijft niet, maar natuurlijk ben ik bereid om die te bestuderen en in de basis zie ik geen reden om daar negatief in te staan. Maar nogmaals, ik kan hier vanaf deze plek op dit moment geen toezeggingen doen.

De voorzitter:

Dan is er nog een vervolgvraag van mevrouw Kathmann.

Mevrouw Kathmann (GroenLinks-PvdA):

Nu we elkaar toch zo kunnen vinden in de op de mens gerichte dienstverlening, zou ik ook graag van de VVD willen weten hoe zij staat tegenover het vijfsterrenmodel voor algoritmen waar veel maatschappelijke organisaties met elkaar aan werken. Wat ze daarmee eigenlijk willen pogen, is dat we gaan van een black box naar transparante algoritmes, zoals ook in het regeerprogramma staat. Want op dit moment zijn ze gewoon niet transparant en ook al hebben we dat register straks wel gevuld – dat is nu niet zo – dan nog denkt iedereen: oké, leuk dat het gevuld is, maar wat doet het nou precies? In dat vijfsterrenmodel krijg je één ster voor gepubliceerd, twee voor uitgelegd, drie voor gecontroleerd, vier voor testbaar en vijf voor open. Zo krijg je een heel model, dat eigenlijk best makkelijk werkt, dat veel transparanter is en waar mensen ook veel meer van gaan snappen, zowel de ambtenarij die ermee moet werken als de burger die er heel veel last van kan hebben. We willen richting het kabinet ook het voorstel doen om dit vijfsterrenmodel te gaan omarmen, omdat we zien dat het Algoritmeregister niet voldoende is. Kan de VVD daarin meegaan?

De heer Buijsse (VVD):

Mijn standpunt gaat eigenlijk heel erg over dat we naar ontwerpprocessen moeten voor die mensgerichte dienstverlening van de overheid. Dat gaat veel verder dan sec het algoritme. Dus nee, ik ben eigenlijk helemaal geen voorstander van een vijfsterrenmodel sec om de problematiek van ethiek rondom technologieën die wij binnen de overheid gebruiken tegemoet te treden. Ik denk dat we het breder moeten trekken. Ik wil daarmee niet zeggen dat dit vijfsterrenmodel slecht is of zo. Ik zou dat alleen veel breder willen toepassen op ontwerpprocessen. Dus stel dat je die vijf sterren toepast op de ontwerpprincipes, zo van: zijn de juiste principes toegepast bij de complexe dienstverlening van de overheid? Dan vind ik het heel interessant worden. Dus het gaat wat mij betreft ook breder dan dat. Ik hoor ook graag de reactie van de Staatssecretaris in dezen, onder andere op het vijfsterrenmodel, maar ik zou ’m bij dezen dus eigenlijk ook graag breder willen trekken naar het hele ontwerpproces van de dienstverlening.

De voorzitter:

Dan dank ik u voor uw bijdrage. Ik zie verder geen interrupties meer. Ik geef het woord aan de heer Vermeer namens de BBB.

De heer Vermeer (BBB):

Dank u wel, voorzitter. Vandaag spreken we over het advies van de Autoriteit Persoonsgegevens en de kabinetsreactie over geautomatiseerde selectie-instrumenten. Voor de toeschouwers van dit debat die minder bekend zijn met dit soort zaken: dit zijn hulpmiddelen die worden gebruikt om gegevens te selecteren die vervolgens nog moeten worden gecontroleerd. Ik ga in mijn betoog in op het proces, de belangen van burgers en op het Algoritmeregister.

De Autoriteit Persoonsgegevens is gevraagd te adviseren over het gebruik van geautomatiseerde selectie-instrumenten en dan in het bijzonder of het gebruik ervan mag volgens de Algemene verordening gegevensbescherming, de AVG. Risicomodellen en selectiemodules zijn voorbeelden van selectie-instrumenten, automatische processen dus, waarbij BBB altijd waakzaam wil zijn voor de risico’s. BBB vindt dat er hierbij veel oog moet zijn voor het belang van de vrijheid, de privacy en de veiligheid van onze burgers. We willen kunnen profiteren van de kansen die geautomatiseerde processen ons bieden, dus daar liggen wel weer kansen, met name ook voor de overheid. We zien dat die haast noodzakelijk zijn bij belastingaangiftes en AOW-aanvragen.

Tegelijkertijd moeten we ons bewust zijn van de mogelijke risico’s en gevaren van oneigenlijk gebruik van alle mogelijkheden. BBB blijft daarom sturen op de juiste wetgeving en beveiligingsstandaarden om de vrijheid, privacy en veiligheid te waarborgen. Het is niet voor niets dat de Algemene verordening gegevensbescherming het nemen van besluiten verbiedt, als deze uitsluitend zijn gebaseerd op een automatisch proces. Hier kunnen uitzonderingen op gemaakt worden, als goed is gezorgd voor de belangen van betrokkenen. We zien dat wat ons betreft de beoordeling waar we vandaag over spreken zorgvuldig gegaan lijkt te zijn, maar dat zal ook in de praktijk moeten blijken.

De Autoriteit Persoonsgegevens zegt dat er geen wetgeving nodig is voor het maken van geautomatiseerde selecties, als deze pas gevolgen krijgen na menselijke tussenkomst. Daar werden al wat vragen over gesteld: wat is dat dan? Het kabinet vindt op basis van deze uitspraak dat het proces in orde is. Daarom heeft het kabinet ook besloten om af te zien van een inventarisatie van mogelijke illegale algoritmes. Hier heeft BBB toch nog wat vragen bij. Betekent dit dat het kabinet vindt dat er helemaal geen illegale algoritmes meer zijn en hoe kan het dat met zekerheid zeggen?

Automatische selecties worden dus als oké gezien, als deze alleen maar worden gebruikt om te beoordelen of er verdere acties nodig zijn. Zelfs profilering is daarbij toegestaan zolang die profilering maar geen invloed heeft op het besluit dat de mens neemt, maar dat is een hele technische discussie. Hierbij de vraag aan de bewindspersonen: hoe kan dat dan worden vastgesteld en hoe wordt bepaald dat profilering geen invloed heeft op het uiteindelijke menselijke besluit? Hoe gaan we om met vooroordelen bij menselijke tussenkomst? Want zo werkt ons brein wel. We zijn heel vaak bang voor allerlei elektronische berichten en processen, maar vandaag stond in De Telegraaf dat een postbode € 9.000 af haalde van de uit de post geviste creditcard van wielrenner Remco Evenepoel. We moeten dus ook niet denken dat dit alleen maar speelt in automatische processen en in digitalisering. Het speelt ook gewoon in het gedrag van mensen, dus de menselijke tussenkomst is lang niet altijd een garantie voor een goed resultaat.

Wat BBB hierbij goed nieuws vindt, is dat de overheid start met een analyse van selectie-instrumenten bij uitvoeringsorganisaties. Wij zien ook dat er ruimte is voor verbetering en aanscherping, zodat we de belangen van burgers, die ik eerder al benoemde, nog beter kunnen beschermen. Hierbij de vraag of inmiddels al duidelijk is of de Staatssecretaris hierbij een coördinerende rol krijgt.

Tot slot lezen we dat er zal worden doorgepakt met het Algoritmeregister. Dit ontwikkelt zich vooralsnog moeizaam; het is hier al genoemd. 2% staat erin. De ambitie is nu uitgesproken dat aan het einde van dit jaar alle departementen de hoogrisico-AI-systemen geregistreerd hebben. Mijn vraag is: is de benodigde capaciteit hiervoor aanwezig, wie bepaalt wat «hoog risico» is en wat zijn de criteria daarvoor? Daarnaast heb ik de vraag aan de bewindspersonen hoe dit Algoritmeregister zich verhoudt tot de diverse registers die al door gemeentes gemaakt zijn.

Ik heb nog één kritische noot over dit soort registers. Ik omschrijf een algoritme maar even heel simpel als een oplossing voor een probleem, beschreven op een wiskundige manier, waarbij het meestal gaat om zoek- en benaderingsalgoritmen die we al tientallen jaren gebruiken. Mijn vraag is dan ook: gaat een dergelijk register wel zorgen voor de broodnodige transparantie? En is het hierbij niet noodzakelijk dat ook de databases die worden gebruikt in kaart worden gebracht? Immers, als een gegeven niet van je bekend is, kun je er ook niet op beoordeeld worden. Graag een reactie.

Dank u wel.

De voorzitter:

Dank voor uw bijdrage, die net ietsje buiten de tijd was. Ik heb nog even die vraag toegelaten. Prima.

De heer Vermeer (BBB):

Bedankt voor de coulance, voorzitter.

De voorzitter:

Ik kijk even naar de zijde van de Kamer of er nog interrupties zijn. Die zijn er niet. Dan kunnen we direct door naar mevrouw Kathmann, die het woord zal voeren namens de partij GroenLinks-PvdA.

Mevrouw Kathmann (GroenLinks-PvdA):

Dank, voorzitter. We digitaliseren ons de jan tandjes in dit land, met alle gevolgen van dien. De automatisering van belangrijke processen kent winnaars en verliezers. Winnaars zijn er aan de kant van de overheid, waarvoor het lekker efficiënt werken is, maar de burger verliest vaak. De burger verliest zijn recht om te weten hoe de overheid werkt en waarom keuzes worden gemaakt. Het algoritmebeleid van de overheid is een soort knutselwerk van papier en loze beloftes dat instort als je er ook maar even kritisch naar kijkt. Dat zeg ik misschien een beetje hard, maar dat komt ook omdat ik de afgelopen tijd serieus schrik van hoe slecht we het op orde hebben. We staan er een beetje bij en we kijken ernaar. Van de meeste AI-systemen binnen de overheid hebben we geen idee of ze een risico zijn, en het Algoritmeregister ligt stof te verzamelen. Slechts 2% van de algoritmes van de overheid staat erin, constateert de Open State Foundation.

Het vullen van zo’n register is natuurlijk geen doel op zich. Het doel is om een transparante overheid te zijn, die mensen niet vermorzelt. Je boekje volledig opendoen over algoritmes is daar één onderdeel van. De vraag is: wat is nou het grote plan van de overheid om het Algoritmeregister te vullen en meer inzicht te geven? Is dit kabinet bereid de vrijblijvendheid eraf te halen? Is het kabinet bekend met het vijfsterrenmodel voor algoritmes, dat door maatschappelijke organisaties wordt voorgesteld? Is het kabinet bereid om die uitgestoken hand van die maatschappelijke organisaties aan te nemen om zo’n model breder toe te passen?

Eén manier om openheid af te dwingen is in de directe communicatie met burgers. Het is een keer klaar met al die besluiten die mensen raken waar een algoritme voor wordt gebruikt dat niemand kent of begrijpt, op basis van factoren die men niet te zien krijgt. GroenLinks-Partij van de Arbeid wil dat elke brief die gaat over een besluit waarbij risicoselectie heeft plaatsgevonden duidelijk vermeldt welke algoritmes zijn gebruikt en op basis van welke factoren dat is, zoals de thuissituatie, leeftijd of postcode. Alle mogelijkheden om bezwaar te maken moet je ook in de brief kunnen vinden. De vragen zijn de volgende. Zijn de bewindspersonen het met me eens dat dit voorstel helemaal past binnen de ambities van het kabinet? En is het kabinet het met me eens dat zo’n mate van openheid richting burgers hard nodig is?

De voorzitter:

U heeft een interruptie van de heer Vermeer, BBB.

De heer Vermeer (BBB):

Ik ben net als mevrouw Kathmann ook heel erg voor transparantie, maar hoe moet bijvoorbeeld een Belastingdienst daarmee omgaan? Mensen die belasting willen ontduiken, wil je immers geen inzicht geven in hoe je controleert of ze dat wel of niet doen.

Mevrouw Kathmann (GroenLinks-PvdA):

Dan is het dus weer de vraag: is het burgergericht of gaat het om makkelijk werken door de overheid? Hoeveel lessen hebben we nu al geleerd van mensen die al in de knel raken? Als je serieus in een regeerakkoord opneemt dat maximale transparantie hierin gewoon moet – dat schrijf je niet gratuit op – is het ook nog eens zo dat mensen het recht hebben om bezwaar te maken. Dan kun je echt niks anders doen dan mensen erop attenderen hoe ze dat bezwaar maken en hun inzicht geven in hoe de selectie is gemaakt. Je zou misschien nog kunnen nadenken over hoe je communiceert en welk inzicht je geeft, maar het moet in ieder geval duidelijk zijn voor mensen dat ze eruit zijn gepikt. Dan kan je misschien nog onderscheid maken in hoe transparant je bent over dat kattenbelletje, maar vervolgens kan je in die bezwaarprocedure die mensen wel of niet starten toch die maximale transparantie geven. Zo zou je er nog een beetje mee kunnen spelen. Maar als je a zegt, kan je niet vervolgens b achterwege laten.

De voorzitter:

Nog een vervolgvraag van de heer Vermeer. Daarna heeft de heer Buijsse ook nog een vraag.

De heer Vermeer (BBB):

Uiteraard ging het mij ook niet om dat deel van bezwaar maken. Daar hebben we het zelfs in een eerder debat over gehad, dat ging over de uitwisseling van gegevens tussen banken. Als je op een zwarte lijst zou komen, zou je daar eerst van op de hoogte gesteld moeten worden en de mogelijkheid moeten hebben om bezwaar te maken voordat er überhaupt gecommuniceerd wordt met een andere bank, want anders ben je vogelvrij als burger. Is het correct dat ik bij mevrouw Kathmann wel enige ruimte voel dat bijvoorbeeld de Belastingdienst niet een handleiding zou hoeven te publiceren over hoe je tussen de mazen door zou kunnen glippen?

Mevrouw Kathmann (GroenLinks-PvdA):

Het is goed dat u dat vraagt. Die ruimte is er, maar daar waar het kan, moeten we wel op zoek naar die maximale transparantie.

De voorzitter:

Dan heeft u nog een interruptie van de heer Buijsse.

De heer Buijsse (VVD):

De nadruk ligt in uw bijdrage, althans tot het moment dat u moest stoppen, op de transparantie. Zo interpreteer ik het. Dat is één ding van het verhaal, maar ik probeerde in mijn betoog eigenlijk ook aan te geven dat het gaat om het voorkómen van fouten. En als het dan fout gaat, is die transparantie uiteraard heel belangrijk. Maar het gaat om het voorkómen van fouten. Dat zit ’m in het ontwerpproces. Herkent u het beeld dat ik schetste, namelijk dat er over de verschillende overheden heen geen gemeenschappelijke taal is, dus nationaal bij de rijksoverheid dan wel decentraal bij waterschappen, gemeenten en noem maar op? Herkent u dat we eigenlijk naar meer uniformering van die ontwerpprincipes toe zouden moeten? Hoe reflecteert u daarop?

Mevrouw Kathmann (GroenLinks-PvdA):

Dit is een mooi punt van de heer Buijsse. Ik denk dat het inderdaad daar begint. Je moet eigenlijk alles by design willen doen, maar je moet ook niet denken dat je er dan bent. Allebei is dus waar, denk ik. Je moet dus je ontwerpprocessen eenduidiger en beter inrichten. Dat is één. Maar als je dat hebt gedaan, ben je er nog niet. Dan zullen namelijk heel veel mensen die algoritmes alsnog ingewikkeld vinden, zowel aan de ambtelijke kant als gewoon de burger. Je zult dus allebei moeten doen. Maar het is een goed punt van de heer Buijsse.

De voorzitter:

Ik zie geen verdere interrupties, dus dan kan mevrouw Kathmann haar betoog vervolgen.

Mevrouw Kathmann (GroenLinks-PvdA):

Dan het punt dat de heer Ergin eigenlijk ook heeft gemaakt. Normaal zeg je dan heel netjes: gezien de tijd ... Maar dat ga ik toch niet doen, want dit is belangrijk. Het betreft de menselijke tussenkomst.

Het kabinet geeft aan dat je alleen risicoselecties mag doen als daar betekenisvolle menselijke tussenkomst bij komt kijken. Simpel gezegd: besluiten worden gemaakt door mensen en niet door machines. Maar in de praktijk gebeurt dit niet. We hebben een structureel gebrek aan kennis binnen de overheid en in de Kamer over al die algoritmes en hoe ze werken. GroenLinks-Partij van de Arbeid is bang dat in de dagelijkse praktijk de uitkomsten van algoritmen te vaak onkritisch worden overgenomen. Ik zou dus heel graag willen dat mij vandaag, precies zoals de heer Ergin ook vroeg, in hele heldere taal wordt uitgelegd: wat is nou eigenlijk «betekenisvolle menselijke tussenkomst»? Hoe ziet het er in de praktijk uit als een algoritme iemand als frauderisico ziet? En hoe gaat dit kabinet ervoor zorgen dat er bij de hele overheid één duidelijke werkwijze is voor hoe medewerkers omgaan met algoritmes? Hoe kunnen burgers nou weten of er wel of niet een mens aan te pas is gekomen?

Menselijke tussenkomst en burgers informeren over algoritmes: die zitten ook in de Europese AI-wetgeving. Dat is ook mijn laatste punt van zorg. Vanaf 2 februari zijn er allemaal verplichtingen waar Nederland volgens de AI-verordening aan moet voldoen. Alle realtimegezichtsherkenning moet bijvoorbeeld worden stopgezet als daar geen wettelijke grondslag voor is. Toen vorig jaar mijn motie werd aangenomen die vroeg om gezichtsherkenning te stoppen op plekken waar het volgens de wet niet mag, kreeg ik te horen: joh, dat komt wel goed, want de AI-verordening gaat alles oplossen; vertrouw ons maar. 2 februari is volgende week, maar er is nog geen wet. De enige conclusie daarmee is dat we per direct die systemen moeten stopzetten. Gaat het kabinet dat ook doen? Geef me een duidelijk ja of nee: voldoet Nederland vanaf volgende week aan de AI-verordening? Weet het kabinet überhaupt welke AI-systemen en algoritmes onder de AI-verordening vallen? En kan dit kabinet uitleggen hoe Nederland aan de rest van de verordening gaat voldoen? Wanneer moeten we welke stappen hebben gezet? En hoe kan ik er als Kamerlid op vertrouwen dat het lukt?

Dank u wel, voorzitter.

De voorzitter:

Ik dank u voor uw bijdrage. Ik zie nog een interruptie van de heer Vermeer.

De heer Vermeer (BBB):

Even uit persoonlijke interesse, want misschien weet u het. Weet mevrouw Kathmann hoe het zit met de gezichtsherkenning die wij altijd moeten ondergaan als wij dit pand binnenkomen? Wat is haar inschatting?

Mevrouw Kathmann (GroenLinks-PvdA):

Ik denk dat één ding bovenaan staat en dat is dat dat voor de veiligheid van onze directe collega’s een noodzaak is. Dan maakt het even niet uit of we de diepte ingaan. Als collega’s anders onveilig zijn, moeten we dat doen, vind ik. Maar het pijnpunt zit erin dat er nog meer toepassingen zijn. Daar doen we het nu ook, maar daar is geen juridische grondslag voor. Dat is nou juist het probleem. Als we dit willen, daar waar het moet, zorg dan dat die juridische grondslag er is. En als we het doen op plekken waarbij de juridische grondslag er niet kan komen of waarbij we het niet willen, moeten we daarmee stoppen. Nu is het een soort ongebreidelde situatie waarover we kunnen bakkeleien: wanneer moet het wel en wanneer moet het niet? Maar één ding staat bovenaan: zorg voor die juridische grondslag. Dat is gewoon ongelofelijk belangrijk.

De voorzitter:

Dan kijk ik nog even naar de zijde van de Kamer om te zien of er interrupties zijn. Die zijn er niet. Dan geef ik het voorzitterschap heel even over aan de heer Six Dijkstra opdat ik zelf ook mijn woordvoering kan doen.

Voorzitter: Six Dijkstra

De voorzitter:

Dank u wel. Dan nu tot slot van de zijde van de Kamer: de heer Valize, die spreekt namens de PVV.

De heer Valize (PVV):

Voorzitter, dank voor het woord. Ik houd het kort. Op de agenda staan vier brieven. Drie daarvan gaan over de inzet van algoritmes: geautomatiseerde selectietechnieken bij de Belastingdienst.

Voorzitter. De Autoriteit Persoonsgegevens heeft uitvoerig naar de processen bij de Belastingdienst gekeken en geconstateerd dat, bezien vanuit rechtsgevolg of anderszins in aanmerking te nemen gevolg, drie situaties te onderscheiden zijn.

Ten eerste zijn dat niet-uitgeworpen aangiftes, waarbij de betrokkene een aanslag krijgt die volledig geautomatiseerd en zonder menselijke tussenkomst tot stand is gekomen. Ten tweede zijn dat de uitgeworpen aangiftes, waarbij de betrokkene een aanslag krijgt die tot stand komt door handmatige controle nadat de aangifte daarvoor geautomatiseerd is uitgeworpen en ongeacht of correcties hebben plaatsgevonden. Ten derde hebben we de aanmerkelijke gevolgen, waarbij de betrokkene anderszins gevolgen ondervindt van de geautomatiseerde uitworp voor handmatige behandeling die los staan van de uiteindelijke aanslag.

In de eerste situatie voorziet de Awb, de Algemene wet bestuursrecht, voldoende in passende maatregelen voor deze besluiten. Voor de tweede situatie ook, mits dat volgens de geldende wetgeving voor iedereen in dezelfde situatie zou gelden, en dat is neergelegd in een regulier, transparant, gemotiveerd en aan rechtsbescherming onderworpen besluit. Maar dan wordt in de derde situatie door de Autoriteit Persoonsgegevens opgemerkt dat indien een selectieregel of een combinatie van selectieregels tot gevolg heeft dat bepaalde groepen of individuen structureel een substantieel verhoogde kans op correcties, onderzoeken en dergelijke lopen, deze gevolgen geacht moeten worden betrokkenen vanaf een bepaald ernstig niveau in aanmerkelijke mate te kunnen treffen. Op dat punt wordt in de kabinetsreactie niet ingegaan. Derhalve de vraag aan de Staatssecretarissen: staat vast dat de uitkomsten uit risicoselecties niet bewaard worden voor of gedeeld worden met andere toepassingen? Dat ligt dan ook weer in het verlengde van wat collega’s al eerder hebben aangegeven. Dat is het wat betreft dit onderwerp.

Maar toch wil ik nog een ander onderwerp aanstippen: het Algoritmeregister. Per brief van 8 april 2024 vernamen wij dat er 340 algoritmes stonden opgenomen in dat register. Inmiddels – ik heb gisteren even gespiekt – zijn dat er 721. Dan kom ik bij mijn tweede vraag, via de voorzitter: hoe is het in vredesnaam mogelijk dat het warempel zo ingewikkeld en gecompliceerd lijkt om iets eenvoudigs als een simpel algoritme te beschrijven en aan dat register toe te voegen?

Vorig jaar gaf ik reeds het voorbeeld van een LEGO-instructieboekje. Begin op een willekeurige pagina, ga dan naar een andere willekeurige pagina en herhaal dit totdat alle pagina’s geweest zijn. Geen idee wat het dan moet voorstellen, maar het komt in de verste verte niet overeen met wat er op het plaatje wordt afgebeeld. Wat is er van de Kamer nodig om te bevorderen dat die algoritmes er ook daadwerkelijk in komen te staan? Want inmiddels is er geroepen dat het register in 2025 up-to-date zou moeten komen. In de Volkskrant werd gisteren een voorzichtige schatting gemaakt: 16.000 algoritmes. We hebben nog heel wat te gaan.

Dan heb ik nog een bonusvraag, omdat ik het nu ook over dat artikel heb. Daarin wordt ook gesproken over het vijfsterrenmodel, wat eerder ook al door mevrouw Koekkoek van Volt en mevrouw Kathmann van GroenLinks-PvdA werd aangehaald. Heeft de Staatssecretaris kennis van genomen van dat vijfsterrenmodel voor transparante algoritmes, en hoe kijkt hij hiertegen aan?

Daarmee kom ik aan het einde van mijn betoog, voorzitter.

De voorzitter:

Ruim binnen de spreektijd, meneer Valize. Dank u wel. Dan draag ik het voorzitterschap weer over aan u.

De heer Valize (PVV):

Dank, voorzitter. Maar ik zie nog een interruptie.

De voorzitter:

Excuus.

Mevrouw Kathmann (GroenLinks-PvdA):

Ik zal even twee interrupties in één doen, met ook dezelfde vragen die ik voor de VVD had. Het is namelijk toch altijd belangrijk wat de PVV als grootste partij van je voorstellen vindt. Ik zou dus ook graag van de heer Valize willen horen wat hij van het voorstel vindt dat ik samen met de heer Jesse Six Dijkstra nog een keer zou willen indienen. Het gaat om de voorstellen over de maximale transparantie op brieven als mensen eruit zijn gepikt, en over het vijfsterrenmodel waarmee we eigenlijk veel beter inzicht krijgen in wat algoritmes doen en hoe ze werken, in plaats van het niet-functionerende Algoritmeregister dat we nu hebben. En als we dat register nu helemaal zouden vullen, zou het ook nog niet helemaal werken. Ik hoor dus graag hoe de PVV daarover denkt.

De heer Valize (PVV):

Dank voor de uitstekende vraag, mevrouw Kathmann. In dat voorstel wordt voorgesteld om onderaan de stukken te vermelden dat er gebruik is gemaakt van een selectiealgoritme en welk algoritme dat is, want zo werd het vorig jaar ergens in april of mei gebracht. Het is een interessant voorstel waar ik serieus naar zal kijken zodra u met een opzet komt, en dan wil ik er ook wel in meedenken.

Wat betreft de tweede vraag over het vijfsterrenmodel, ben ik even kwijt wat u vroeg. Volgens mij vroeg u hoe wij hierin staan? Ja, ik zie u knikken. U vroeg hoe wij erin staan. Ik vind het een heel interessant voorstel en het maakt het voor de mensen thuis, maar ook voor de mensen binnen de Kamer die erover praten en de verschillende departementen die erover praten wel inzichtelijk, zo van: o, wacht eens even, deze is al getoetst en akkoord bevonden. Het is dus eigenlijk een soort keurmerkje dat erop zit en dat niet al te veel moeite zou moeten kosten, want je kunt het ook classificeren in dat Algoritmeregister. Dus daarom vind ik het heel interessant om daar ook even de visie van de Staatssecretaris op te horen.

De voorzitter:

Dan zie ik geen verdere interrupties en draag ik dit keer het voorzitterschap wel echt ... O, er is toch wel een interruptie. Ik draag het voorzitterschap toch niet over, want de heer Buijsse heeft nog een vraag aan u.

De heer Buijsse (VVD):

In feite heb ik dezelfde vraag als die ik stelde aan mevrouw Kathmann. Die stel ik ook aan de heer Valize. Die vraag gaat eigenlijk over hoe u aankijkt tegen die ontwerpprincipes om uiteindelijk fouten te voorkomen, niet alleen in die algoritmes, maar ook in andere technologieën, zoals AI of de cloud. Kunt u enige reflectie geven op hoe u dat ervaart binnen de verschillende overheden waar u mee te maken heeft?

De heer Valize (PVV):

Dan kom ik toch even op het volgende punt. Wat de heer Buijsse voorstelt, is natuurlijk een valide vraag. Op het moment dat je dan met een voorstel gaat komen, moet je altijd toetsen. Je moet altijd een aantal stappen doorlopen. Die stappen zijn ook bepaald in de wetgeving. Op het moment dat iets wordt uitbesteed, heb je ook de aanbestedingsregels en wordt er ook verwezen naar de verdragen waaraan moet worden getoetst. Er zit een heel toetsingskader aan vast. Daarvoor ligt de bal toch bij de Staatssecretaris.

De voorzitter:

Er is geen vervolgvraag. Dan geef ik het voorzitterschap nu wel door aan de heer Valize.

Voorzitter: Valize

De voorzitter:

Ja, ex-voorzitter, dank voor het uitstekende voorzitterschap. Allen hartelijk dank voor uw bijdrage. Ik kijk even naar de rechterzijde. We hebben net al even kort overlegd. We zullen zo’n 50 minuten gaan schorsen. Ik maak er 55 minuten van, tot 19.20 uur. Dan hebben we namelijk de tijd voor de voorbereiding van de beantwoording, dus de eerste termijn van de Kamer. Ik bedoel de eerste termijn van de regering. We hebben dan tevens nog even de mogelijkheid om te dineren, want het is al vrij laat. Sorry, ik heb een beetje honger, dus ik praat er een beetje langs.

De vergadering wordt van 18.25 uur tot 19.23 uur geschorst.

De voorzitter:

Een hele goede avond. Allemaal welkom terug bij het commissiedebat Digitale Zaken over de inzet van algoritmes en data-ethiek bij de rijksoverheid. De eerste termijn van de Kamer zit erop. We gaan nu naar de eerste termijn van het kabinet, waarbij als eerste de heer Szabó, Staatssecretaris Digitale Zaken, het woord zal nemen. Tot slot nog een kleine huishoudelijke mededeling: ik sta vier interrupties per fractie toe op de inbreng van de Staatssecretaris.

Staatssecretaris Szabó:

Dank u wel, voorzitter. Allereerst dank voor de eerste termijn van de Tweede Kamer. Ik zal samen met mijn collega het volgende doen. Ik heb een algemene inleidende spreektekst. Vervolgens heb ik de mapjes verantwoorde inzet AI, algoritmen, transparantie, register, en een mapje overig. Daarmee hoop ik de vragen van de Kamer te hebben beantwoord. Daarna geef ik het woord aan de Staatssecretaris voor Rechtsbescherming voor de resterende vragen.

Voorzitter. Allereerst een algemene opmerking over hoe ik verder wil met dit dossier. Ik zit hier een dikke zes maanden. Zoals u weet, ben ik bezig met het ontwikkelen van een Nederlandse Digitaliseringsstrategie. Die komt al over een aantal weken. Dat moment komt steeds dichterbij. In dat dossier zijn we, voor de mensen die het niet weten, een aantal prioriteiten aan het bepalen. Die hebben we bepaald in een sessie samen met ministeries, medeoverheden, zbo’s, de VNG, de IPO, waterschappen, de wetenschap en ook mensen uit de Eerste en Tweede Kamer. Uit die discussie is naar voren gekomen dat we in ieder geval moeten kijken naar zaken als de cloud, waar we strakker aan moeten trekken, maar ook naar het dossier AI. Dat is redelijk nieuw en daar moeten we mee verder in de komende jaren. Algoritmes en data-ethiek is ook zo’n dossier.

Twintig jaar geleden heb ik in de Tweede Kamer gezeten. Destijds heb ik als woordvoerder ICT discussies gevoerd over toegankelijkheid. Nu, twintig jaar later, zie ik dat we heel lang aan naming-and-shaming hebben gedaan, heel lang medeoverheden maar ook ministeries hebben aangesproken om de toegankelijkheid goed in te richten. Vervolgens is er wetgeving gekomen in 2018, dus zo’n veertien jaren nadat we daarover debatten hebben gevoerd. Maar dat de toegankelijkheid tot op heden niet goed geregeld is, is ook iets wat mij behoorlijk stoort. Dit soort zaken moet dus ook terugkomen in de Nederlandse Digitaliseringsstrategie, uitgaande van het begrip standaardisatie en het begrip dat als we één overheid zijn en we afspraken maken met elkaar, we die ook gewoon moeten uitvoeren.

We hebben het vandaag over het register en data-ethiek. Ik heb in de afgelopen zes maanden vastgesteld dat er op nog heel veel vragen antwoord moet worden gegeven. In de tussentijd hebben we ook het AP-advies binnengekregen en moeten we met medeoverheden maar ook met de politiek verder kijken naar waar we het dan over hebben, ook wat de definities betreft. Dat is ook wel een beetje naar voren gekomen vandaag.

Ik hoop dus niet dat u van mij verwacht dat er aan het einde van dit debat een antwoord is op alle vragen. Dit is namelijk zeer serieus. Ook kijk ik hoe we de komende jaren verder moeten om het Algoritmeregister goed gevuld te krijgen en wat de relevantie is van het gebruik daarvan, door journalisten, door de wetenschap maar ook door burgers, bedrijven en door onszelf. Wat ik ook ga doen in dat kader, is in het land bespreken – we hebben in Nederland immers ook te maken met de NDS, de Nederlandse Digitaliseringsstrategie – hoe we dit onderwerp verder kunnen brengen, net zoals andere onderwerpen. Ik kan altijd worden uitgenodigd. Dit is een uitnodiging aan mensen die kijken om mij langs te laten komen om de Digitaliseringsstrategie verder te bespreken, en dan met name voor zaken als standaardisatie en zich houden aan de afspraken die we met elkaar maken. Hetzelfde geldt ook voor mijn collega’s binnen het kabinet. Dat even als algemene inleiding.

De meeste mensen waren al op de hoogte van deze strategie. Ik wil die verder oppakken met «samen» als kernbegrip. Dit moeten wij samen doen. We kunnen niet langs elkaar heen praten. We kunnen niet iedere keer debatten hebben over vragen als «waarom bent u nog niet zover?» en «zijn we het wel eens over de verschillende definities?» Nee, dit moeten we gewoon vanaf dag één samen met elkaar invullen. Dat als algemene opmerking.

Voorzitter. Ik begin met het adviesrapport van de Autoriteit Persoonsgegevens over geautomatiseerde selectietechnieken. Dat heb ik bestudeerd en dat heeft wat tijd nodig gehad. Het advies komt op een moment waarop de mogelijkheden van AI en algoritmes ook binnen de overheid volop de aandacht hebben. Niet voor niets neemt het thema AI een belangrijke plaats in binnen de Nederlandse Digitaliseringsstrategie die ik binnenkort zal presenteren. Het adviesrapport van de AP bevestigt opnieuw dat de verantwoorde inzet van AI en algoritmes binnen de overheid onze scherpe aandacht nodig heeft, met oog voor kansen, maar ook voor negatieve aspecten en potentiële risico’s.

Voorzitter. Geautomatiseerde selectie-instrumenten en geautomatiseerde besluitvorming zijn onmisbaar om de taken van de overheid efficiënt te kunnen uitvoeren. Uit het advies van de AP hierover blijkt dat er geen specifieke wetgeving nodig is voor het maken van dergelijke risicoselecties, wanneer althans de gevolgen van de selectie voor de betrokkene pas intreden na betekenisvolle menselijke tussenkomst. Ik kom daar straks nog op terug, ook aan de hand van de vragen die daarover zijn gesteld.

De AP benadrukt in het advies wel dat dergelijke automatisering aan een aantal waarborgen moet voldoen. Zo moet periodiek gecontroleerd worden op discriminatie en moet er voldoende transparantie zijn. In de kabinetsreactie op het AP-adviesrapport heeft u kunnen lezen dat wij starten met het analyseren van casuïstiek met betrekking tot de inzet van selectie-instrumenten in de huidige uitvoeringspraktijk. De nadruk zal liggen op geautomatiseerde besluitvorming, waarbij persoonsgegevens worden verwerkt, aangezien deze vanuit het oogpunt van dit AP-adviesrapport het meest belangwekkend zijn.

Zoals u weet, zet ik in op uniformering en op standaardisatie, zoals daarnet aangegeven, om de veelheid aan regels, handreikingen, white papers en ga zo maar door te bundelen. Het Algoritmekader biedt daarom al een zo compleet mogelijk overzicht van de regels waar overheden aan dienen te voldoen, en de maatregelen die overheden daartoe kunnen treffen. Wanneer ik kijk naar de aandacht voor het Algoritmekader, zie ik dat overheden momenteel overal bezig zijn met vragen die gaan over de impact van de AI-verordening en de inrichting van de interne governance op het vlak van algoritmes. Het Ministerie van Binnenlandse Zaken organiseert diverse bijeenkomsten in het land – webinars, spreekuren en ga zo maar door – om de vragen die leven bij overheden te voorzien van een antwoord en van handelingsperspectief.

De aanbevelingen van de AP neem ik ter harte. Ze zijn al zo veel mogelijk opgenomen in het Algoritmekader. U kunt dan bijvoorbeeld denken aan hulpmiddelen op het vlak van bias-toetsing of informatie over de inrichting van menselijke tussenkomsten. Mijn doel is naar aanleiding van de aangekondigde analyse van casuïstiek te kijken naar welke maatregelen en instrumenten er verder nodig zijn teneinde de overheid te helpen om te voldoen aan de voorwaarden die door de AP benoemd zijn. Deze zullen vervolgens ook weer opgenomen worden in het Algoritmekader.

Voorzitter. De leden Omtzigt en Six Dijkstra dienden een motie in tijdens het plenaire debat over het rapport van de parlementaire enquêtecommissie Fraudebeleid en Dienstverlening, Blind voor mens en recht. Dit was op 15 januari jongstleden. In de motie wordt verzocht om de passage uit het hoofdlijnenakkoord nader uit te werken. Het gaat om het gebruik van wetenschappelijke standaarden van modellen en algoritmes, hoe deze standaarden afdwingbaar worden gemaakt en hoe de bijsluiter voor gebruikte modellen zal worden opgesteld. Ik zal uw Kamer voor april hierover per brief nader informeren, zoals gevraagd in de motie.

Ik kan u wel op voorhand meegeven dat sinds de start van het Algoritmekader wordt samengewerkt met wetenschappelijke instellingen. In het Algoritmekader zijn bijvoorbeeld maatregelen en instrumenten te vinden die overheden kunnen helpen te voldoen aan juridische vereisten, waaronder maatregelen die gericht zijn op wetenschappelijke toetsing, zoals verificatie, validatie, nauwkeurigheid en biastoetsing. Ook is het impactassessment voor mensenrechten bij de inzet van algoritmes, IAMA, opgesteld door de Universiteit van Utrecht. Ik ben heel blij dat ik gezien heb, de eerste maanden dat ik hier zit, dat dat instrument ook steeds meer wordt ingezet. Er zijn meerdere instrumenten naast IAMA, dus ik denk dat we de komende tijd moeten kijken welke instrumenten het meest effectief zijn voor welke vragen. Als ik het met medeoverheden over dit onderwerp heb, zal ik ook aangeven dat aan de voorkant – dan kijk ik ook naar de VVD – dit soort instrumenten gewoon serieus worden opgepakt om zo veel mogelijk ongelukken te voorkomen.

Mijn inzet is erop gericht, zoals ik daarnet al zei, om het landschap van white papers, handreikingen en kaders te bundelen. Het wordt anders een doolhof voor overheden, die mij er tegelijkertijd op aanspreken dit te harmoniseren. Instrumenten zoals het Algoritmeregister en het Algoritmekader zijn aan het einde van 2022 en gedurende 2023 gepubliceerd. Die worden nu geïmplementeerd en veel van die systemen waar uw Kamer haar zorg over heeft uitgesproken, stammen echter ook van voor die tijd. Dit betekent dat we als overheid een inhaalslag dienen te maken met het verantwoord inzetten van AI en algoritmes.

Wat betreft transparantie: het is goed nieuws dat het Algoritmeregister steeds verder wordt gevuld, maar het is nog niet voldoende. Het aandeel algoritmes in het register heeft de 700 registraties inmiddels overschreden. Het gaat hierbij om ruim 200 overheidsorganisaties. De departementen hebben uw Kamer toegezegd om 1 februari 2025 ten minste alle AI-toepassingen met een hoog risico te hebben geregistreerd in het register.

Voorzitter. Zonder toezicht is er geen naleving. Als sluitstuk benadruk ik ook het belang van onafhankelijk toezicht op algoritmes en AI bij de overheid. In 2025 verhoogt het kabinet het budget van het algoritmetoezicht bij de AP. Dit gaat in het bijzonder om de directie Coördinatie Algoritmes, DCA, een onderdeel van Autoriteit Persoonsgegevens. Daarnaast wordt het toezicht op de AI-verordeningen momenteel voorbereid en zal het kabinet onder regie van de Minister van Economische Zaken uw Kamer dit jaar voorzien van een kabinetsstandpunt over het toezicht van de AI-verordening. Ook de overheid valt onder dit toezichtstelsel. Met de medeoverheden, de provincies, de gemeenten, de waterschappen, het Rijk en de daartoe behorende zbo’s, zet ik in op het nader uitwerken van het kader, het zogenoemde horizontale toezicht. Het komt erop neer dat ik de democratische controle wil stimuleren bij onze medeoverheden, ook als het gaat om de inzet van algoritmes en AI-systemen. Ik wil dit aspect dan ook terug laten komen in de Nederlandse Digitaliseringsstrategie, waar ik aan werk.

Met uw welnemen ga ik nu over tot de beantwoording van de vragen, voorzitter. Dan begin ik met het beantwoorden van de vragen bij het blokje inzet AI-algoritmen. Dat is een hele stapel. Ik zal proberen de vaart erin te houden, voorzitter.

Eerst de vragen van uzelf, voorzitter, maar dan als de heer Valize van de PVV, en de vragen van mevrouw Kathmann en de heer Buijsse. De vragen gaan over het vijfsterrenmodel. Heeft de Staatssecretaris daar kennis van genomen en hoe kijkt hij ertegen aan? Ik heb hier zeker kennis van genomen. Hoewel het model als zodanig niet wordt gehanteerd door de overheid, sluit het wel aan op onderdelen van het huidige beleid en met name op de eerste twee van de vijf onderdelen. Ik wil mij hierin verdiepen en dit betrekken bij de brief van april waarin ik u informeer over de wetenschappelijke standaard.

Op welke manier, zo vraagt de heer Six Dijkstra, is er sprake van willekeur bij algoritmen? Hoe vaak komt dat voor? Er kunnen fouten in de data of in de modellen zitten waardoor er sprake is van vooringenomenheid of willekeur. Ik zet mij in voor transparantie door middel van onder meer het Algoritmeregister, waardoor we hier meer inzicht in kunnen krijgen. Ook met behulp van het Algoritmekader geef ik overheden hulpmiddelen om willekeur in algoritmes te voorkomen. De heer Six Dijkstra vraagt ook of er al stappen worden genomen om burgers proactief te informeren over hun betrokkenheid bij algoritmerisicoselecties en of burgers al worden gewezen op hun rechten. Ik ga ervan uit dat dit duidelijk zal worden uit de uitvraag die door het Netwerk van Publieke Dienstverleners zal worden gedaan. De resultaten komen voor het einde van het jaar.

De voorzitter:

U heeft een interruptie van de heer Six Dijkstra. U mag ook even de microfoon uitzetten.

De heer Six Dijkstra (NSC):

Ik had deze vraag eigenlijk aan de andere Staatssecretaris gesteld, omdat ik het specifiek had over het algoritme Preselect Recidive en mijn vraag minder in algemene zin bedoeld was, zoals in het antwoord van de Staatssecretaris. Gaat uw collega daar ook nog op in? Oké, dan houd ik mijn mond.

Staatssecretaris Szabó:

Jazeker, hij komt erop terug, hoor ik rechts van mij, voor de kijkers links.

De voorzitter:

Het woord is aan de Staatssecretaris.

Staatssecretaris Szabó:

Voldoen geautomatiseerde risicoprofielen overheidsbreed aan alle maatregelen uit het AP-advies? Ik heb daar momenteel nog onvoldoende zicht op. Het AP-advies is vrij recent en het Netwerk van Publieke Dienstverleners zal op basis van het advies bij zijn leden een uitgebreide uitvraag doen naar de inzet van dergelijke selectie-instrumenten en de uitkomsten daarvan analyseren. Naar aanleiding daarvan wil ik kijken wat er nodig is om organisaties verder te ondersteunen bij het nemen van de juiste maatregelen. Inderdaad verwacht ik uw Kamer hierover aan het eind van het jaar te mogen informeren.

De voorzitter:

U heeft een interruptie van de heer Ergin. En u mag nog even de microfoon uitzetten.

Staatssecretaris Szabó:

Dat gaat steeds fout, voorzitter.

De heer Ergin (DENK):

Wat ik dan niet begrijp, is dat het kabinet op basis van het AP-advies eigenlijk zegt: wij gaan de lijst van mogelijk illegale algoritmen op basis van dat AP-advies niet publiceren. Tegelijkertijd stellen wij de Staatssecretaris de vraag welke algoritmen er dan niet voldoen aan het AP-advies. Dan is de reikwijdte wat beperkter van bijvoorbeeld het SCHUFA-arrest. Ik heb daar mijn twijfels bij, maar stel dat we daarvan uit kunnen gaan. Waarom voldoet het kabinet dan weer niet aan de toezegging op, volgens mij, een verzoek van het lid Idsinga om die lijst een paar weken geleden al te publiceren? Waarom voldoet het kabinet daar dan weer niet aan? En waarom wordt er wéér een deadline verschoven?

Staatssecretaris Szabó:

We nemen dit mee in de analyse van het netwerk. Daaruit zal dat moeten blijken. Geef ons dus nog even tijd.

De voorzitter:

U heeft een interruptie van de heer Six Dijkstra en de microfoon mag weer uit.

De heer Six Dijkstra (NSC):

Ik wil het even scherp krijgen, want ik begin wel een beetje in verwarring te raken. De regering heeft eerst gezegd, zoals mijn collega ook al zei, dat zij die inventarisatie niet zou gaan doen. Het kabinet had besloten om de capaciteit anders te besteden. Waar krijgen we dan nu een inventarisatie van? De Staatssecretaris gaat namelijk alsnog een brede uitvraag doen. Hij gaat kijken hoe het allemaal in elkaar zit en welke er compliant zijn. Waar zit dan het verschil in? Dat is toch in principe die inventarisatie? Hoe moeten wij dat zien als Kamer?

Staatssecretaris Szabó:

De menselijke tussenkomst bij uitvoerders in relatie tot persoonsgegevens. Als dit niet helemaal helder is, kom ik er in tweede termijn op terug om het wat scherper neer te zetten.

De voorzitter:

Akkoord. Dan mag u uw inbreng vervolgen.

Staatssecretaris Szabó:

Nogmaals de heer Six Dijkstra: als er geen algemene inventarisatie komt, dan graag een overheidsbreed ... Ja. Daar kom ik straks op terug.

De voorzitter:

U heeft een interruptie van de heer Ergin.

De heer Ergin (DENK):

Ik ben ook benieuwd naar de analyse van de Staatssecretaris van het volgende. We hebben het AP-advies. Dat is een advies op basis van de huidige Nederlandse wet- en regelgeving. Daarnaast hebben we het SCHUFA-arrest, dat uitgaat van Europese regelgeving. Als we beide documenten met elkaar vergelijken, zien we dat de Europese interpretatie van de Europese regels veel strikter is dan de interpretatie die het kabinet nu in de reactie heeft gegeven. Die is eigenlijk ook veel strikter dan hoe de AP het in het advies heeft opgenomen. Ik ben benieuwd naar de analyse van de Staatssecretaris van het volgende. Hij koerst nu eigenlijk op het AP-advies, maar over een paar jaar wordt het kabinet op de vingers getikt, omdat het niet voldoet aan de Europese regels als het gaat om geautomatiseerde algoritmes.

Staatssecretaris Szabó:

Wat betreft deze specifieke vragen van de heer Ergin: ik ga er allereerst van uit dat de AP wel voldoet aan de Europese regelgeving. Ik ga ervan uit dat zij de kennis en kunde heeft om zich daaraan te houden. De AP concludeert dat er geen specifieke wetgeving nodig is voor geautomatiseerde risicoselectie wanneer eventuele gevolgen van de selectie voor de betrokkenen pas intreden na betekenisvolle menselijke tussenkomst. De Autoriteit Persoonsgegevens is onafhankelijk toezichthouder op de AVG. Zij heeft mede als taak om een normuitleg te geven over begrippen uit de verordening. Vanwege deze taak volgen wij hun advies.

Voorzitter. Dan ga ik verder met weer een vraag van de heer Six Dijkstra. Hij vraagt naar de toezegging die is gedaan over de resultaten van het onderzoek naar de effectiviteit van risicoselectie en een aselecte steekproef in relatie tot discriminatie. Ik vind het goed dat hiernaar wordt gekeken. Ik zal mij verdiepen in de uitkomsten van dat onderzoek. Ik geleid u voor deze vraag wel door naar de Minister van Binnenlandse Zaken en Koninkrijksrelaties. Als het goed is, heeft u morgen een debat over discriminatie en racisme.

De voorzitter:

Dat nodigt uit tot een interruptie van de heer Six Dijkstra.

De heer Six Dijkstra (NSC):

Het ging natuurlijk wel om algoritmische risicoselectie. Dat is ook het onderwerp van dit debat. Dus de Staatssecretaris kan het wel doorschuiven naar morgen en ik kan mijn collega vragen of hij daar ook een vraag over wil stellen, maar in principe valt dit wel onder de orde van dit debat en binnen de reikwijdte van de portefeuille van deze Staatssecretaris. Kan hij iets meer duidelijkheid geven over wanneer we dat moeten verwachten, want in principe valt dat wel binnen de orde van het debat.

Staatssecretaris Szabó:

Het is het dossier van de Minister, dus ik kom nog terug op wanneer u dat kunt verwachten.

Dan een vraag van de heer Six Dijkstra. Hij zei dat in het hoofdlijnenakkoord een wetenschappelijke standaard voor modellen is afgesproken en dat die vorige week bekrachtigd is met een motie. Hoe gaat het kabinet hiermee aan de slag, vroeg hij. Ik ben vanzelfsprekend voornemens uitvoering te geven aan de afspraken uit het hoofdlijnenakkoord. De wetenschap is al op vele manieren betrokken bij de inzet van algoritmes en instrumenten die zorgen voor de verantwoorde inzet daarvan. Ik zal, zoals toegezegd, voor april een brief aan uw Kamer zenden over de manier waarop ik hier uitvoering aan ga geven, in lijn met de motie-Omtzigt/Six Dijkstra. Daar heb ik in mijn inleiding ook al over gesproken.

Opnieuw twee vragen van de heer Six Dijkstra: «Welk mensbeeld zit er achter de risicoselectie bij de inzet van algoritmes? Gelooft u dat het toekomstige gedrag van individuen te vangen is in voorspellende algoritmes?» Algoritmes voor risicoselectie voorspellen gedrag niet. Het zijn statistische berekeningen om de kans op een gebeurtenis in te schatten. Ik wil benadrukken dat na risicoselectie een mens altijd moet bekijken wat er moet gebeuren en of er bijvoorbeeld controle nodig is. Ook bij de inzet van risicoselectie blijft de menselijke maat van belang. In dat kader kan ik over het mensbeeld het volgende zeggen. Ik geef altijd aan, ook op het ministerie, dat de ambtenaar bij de uitvoering van zijn dienst altijd op de stoel moet gaan zitten van een burger of bedrijf, dus de ontvanger, om zijn proces zo goed mogelijk uit te kunnen voeren. Als er verbeteringen zijn, zal hij dat ook moeten melden.

Dan nog een vraag van de heer Six Dijkstra: welke gevolgen worden concreet verbonden aan de risicoselectie bij de inzet van algoritmes? Risicoselectie wordt door overheden ingezet in het kader van toezicht en handhaving. Op basis van risicoselecties wordt bijvoorbeeld bepaald of handmatige behandeling van een casus of een controle plaatsvindt. Als een algoritme wordt gebruikt voor risicoselecties, moet er een tussenkomst van een mens zijn voordat een eventueel besluit wordt genomen. Dit sluit aan bij mijn vorige antwoord.

Dan de vragen van de heer Ergin van DENK en van PvdA-GroenLinks, als ik ze samen mag brengen: in de kabinetsreactie op het AP-advies geeft u aan dat wettelijke grondslagen niet ontbreken voor geautomatiseerde selectietechnieken, onder voorwaarde dat er een menselijke tussenkomst is; wat begrijpt u onder menselijke tussenkomst? Daarvoor geeft de Autoriteit Persoonsgegevens richtlijnen mee. Die volgt het kabinet. De menselijke tussenkomst moet betekenisvol zijn. Dat wil zeggen dat de behandelend ambtenaar moet kunnen beoordelen of selectie in een bepaald geval terecht is. Dat vereist onder meer dat de ambtenaar bekend is met de werking van de selectieregel of het algoritme.

Dan, voorzitter, mevrouw Koekkoek. Volt is van mening, geeft mevrouw Koekkoek aan, dat alle algoritmes en datasets die met overheidsgeld ontwikkeld zijn, gratis beschikbaar moeten zijn voor iedere burger in Europa. Deelt de Staatssecretaris deze mening, was de specifieke vraag. Nee, ik deel deze opvatting niet. Het is wellicht wenselijk, maar vaak niet mogelijk. En waarom niet? Algoritmes die door overheden worden gebruikt, worden vaak door bedrijven ontwikkeld en vallen onder het intellectueel eigendom van deze bedrijven. Wel zijn we op dit moment hard bezig met het gratis beschikbaar maken van specifieke hoogwaardige datasets. Met het opensourcebeleid wordt er wel op ingezet om dit zo veel mogelijk voor algoritmes te realiseren.

Dan een combinatievraag, als u mij dat toestaat, van BBB en DENK. Die gaat over illegale algoritmes. Via de voorzitter, als ik de vragen van BBB en DENK goed heb samengevat: vindt het kabinet dat er helemaal geen illegale algoritmes meer zijn en hoe kan dit met zekerheid worden gezegd en waarom is er geen aparte inventarisatie? Op dit moment kunnen we dit niet met honderd procent zekerheid uitsluiten. Het Netwerk van Publieke Dienstverleners zal, zoals aangekondigd, onder de uitvoerders een uitgebreide uitvraag doen naar de inzet van dergelijke selectie-instrumenten, om die vervolgens te kunnen analyseren. Aan de hand van deze analyse wil ik kijken welke maatregelen of instrumenten nodig zijn. Nog twee regels. Kan dat nog? Ja. Daarnaast wordt het Algoritmeregister gevuld, zodat we zicht hebben op hoogrisicoalgoritmen. Als blijkt dat daar illegale algoritmes tussen zitten, worden die gestopt. Voor het eind van het jaar zullen de hoogrisicoalgoritmes in het register zitten. Daarvoor is door alle departementen een toezegging gedaan.

De heer Vermeer (BBB):

Ik neem aan dat de Staatssecretaris of zijn collega straks bijvoorbeeld nog even terugkomt op wie bepaalt wat hoog risico is, maar er is door de Algemene Rekenkamer ook een aantal algoritmes onderzocht. Dat heeft natuurlijk ook met deze problematiek te maken en ook met het toetsen of algoritmes illegaal zijn. Graag zou ik nog even weten welke onderzoeken naar welke algoritmes er op dit moment lopen bij de Algemene Rekenkamer, maar dat mag ook in de tweede termijn beantwoord worden. Welke onderzoeken naar algoritmes lopen op dit moment bij de Algemene Rekenkamer en welke algoritmes zijn dat?

Staatssecretaris Szabó:

Dank voor deze vraag. Ik denk dat het een hele relevante vraag is. Dan ga ik verder met weer een vraag van de heer Vermeer. Automatische selecties worden als oké gezien als deze alleen worden gebruikt om te beoordelen of verdere acties nodig zijn of niet. Hoe kan dat worden vastgesteld? En hoe wordt bepaald dat profilering geen invloed heeft op het uiteindelijke menselijke besluit?

De voorzitter:

Dan onderbreek ik u toch even, want u heeft nog niet aan de heer Vermeer laten weten of u daar in tweede termijn eventueel nog even op terugkomt. Dat was de vraag.

Staatssecretaris Szabó:

Het antwoord is ja. Ik hoop dat we ook daarop in de tweede termijn het goede antwoord kunnen geven. Als dat niet lukt, dan krijgt u een brief. Maar we gaan er wel van uit dat dit gaat lukken, voorzitter.

Goed, ik heb de vragen van de heer Vermeer opgelezen. Op dit moment is er geen duidelijkheid over hoe deze processen per organisatie verlopen. De toegezegde analyse van casuïstiek door het Netwerk van Publieke Dienstverleners moet hier meer duidelijkheid over geven. Er worden wel wat vragen aan dat netwerk gesteld, dus ik denk dat er eind van het jaar heel belangrijke conclusies opgeschreven worden, waar we verder mee kunnen.

De voorzitter:

U heeft toch nog een interruptie van de heer Vermeer.

De heer Vermeer (BBB):

Op de gok af dat de Staatssecretaris het net wilde vertellen: er was ook nog de vraag hoe bepaald wordt dat die profilering geen invloed heeft op het uiteindelijke besluit. Er zit namelijk natuurlijk wel een knip, maar de manier waarop die profilering gepresenteerd wordt aan de mens is heel erg bepalend voor hoe die mens dat oppakt en welke conclusies daaruit getrokken worden.

Staatssecretaris Szabó:

Het antwoord op deze vraag is ook een onderdeel van het plan van aanpak van het netwerk. Hier komen wij dus ook op terug.

U heeft nog een vraag: hoe gaan wij om met vooroordelen wanneer er sprake is van menselijke tussenkomst? Er is de afgelopen jaren veel gebeurd op het vlak van bewustwording en training om discriminatie te voorkomen. Vragen over het algemene discriminatiebeleid geleid ik graag door naar de Minister van Binnenlandse Zaken, met wie u morgen een debat heeft.

Dan is er nog een vraag van de heer Vermeer.

De voorzitter:

U krijgt zelfs een interruptie van de heer Vermeer.

De heer Vermeer (BBB):

Nou, voorzitter, het is meer een procedurevraag. Moet ik dit zien als de toezegging dat die vragen daar beantwoord worden en dat ik dat uit de Handelingen kan halen?

Staatssecretaris Szabó:

We gaan aan de slag, voorzitter, met de beantwoording van deze vraag.

Dan is er nog een vraag van de heer Vermeer. Is het niet noodzakelijk dat ook databases die worden gebruikt, in kaart worden gebracht om een compleet beeld te krijgen? De effectieve en verantwoorde inzet van algoritmes hangt vanzelfsprekend inderdaad samen met de kwaliteit van de daarbij gebruikte data. In het Algoritmeregister is ruimte om informatie op te nemen over de gebruikte data. Van deze mogelijkheid wordt echter niet altijd gebruikgemaakt. Wel is het zo dat de meeste impactvolle algoritmes persoonsgegevens gebruiken. De AVG stelt specifieke regels aan het delen en openbaar maken van deze data. Een additionele opmerking: het Algoritmeregister wordt gebruikt. Eigenlijk wordt er gezegd: vult u hem maar. We gaan echter nu ook analyseren hoe het gevuld wordt en hoe we het zo kunnen optimaliseren dat de voor gebruik juiste informatie er ook in komt te staan.

Weer een vraag van de heer Vermeer, over de analyse van selectie-instrumenten bij uitvoeringsorganisaties. BBB ziet ruimte voor verbetering en aanscherping. Is het inmiddels duidelijk of de Staatssecretaris een coördinerende rol krijgt? Nee, dat is nog niet duidelijk. Het Netwerk van Publieke Dienstverleners doet zelf de uitvraag onder uitvoerders, analyseert de uitkomsten en organiseert de kennisdeling. Ik ben wel nauw betrokken bij het proces en bij de uitkomsten.

Dan een vraag van mevrouw Kathmann. Hoe ziet het er in de praktijk uit als een algoritme iemand als frauderisico ziet? Dit verschilt per toepassingsgebied. Het kan bijvoorbeeld van tevoren zijn of achteraf. Zoals gemeld zal het Netwerk van Publieke Dienstverleners bij haar leden een uitgebreide uitvraag doen naar de inzet van selectie-instrumenten om die vervolgens te kunnen analyseren. Aan de hand van deze analyse wil ik kijken welke maatregelen of instrumenten nodig zijn om verder invulling te kunnen geven aan de waarborgen uit het AP-advies.

Dan is er nog een vraag van mevrouw Kathmann. Hoe gaat het kabinet zorgen voor eenduidige werkwijze binnen de overheid, over hoe medewerkers binnen de overheid omgaan met algoritmes? Bestaande instrumenten, zoals het Algoritmekader, kunnen overheidsmedewerkers hierbij helpen. Hierin staat een overzicht van alle geldende verplichtingen voor de inzet van algoritmes door de overheid. Kennisdeling tussen publieke dienstverleners en de departementen is hierbij vanzelfsprekend van belang. Daarnaast organiseert de overheid trainingen op het gebied van techniek, bewustwording en compliance.

Ik heb nog een vraag van mevrouw Kathmann. Hoe kunnen burgers weten of er in een proces een mens aan te pas is gekomen? In veel gevallen is dat op dit moment lastig aan te geven. De analyse van casuïstiek, die ik in samenwerking met het Netwerk van Publieke Dienstverleners zal uitvoeren, zal meer inzicht moeten geven in hoe er in de praktijk invulling kan worden gegeven aan maatregelen als deze.

De voorzitter:

Dat lokt een interruptie uit van mevrouw Kathmann.

Mevrouw Kathmann (GroenLinks-PvdA):

Dank aan de Staatssecretaris voor het antwoord op de vraag wat betekenisvolle menselijke tussenkomst is. Het is fijn dat wij ons idealiter aan de richtlijnen van de AP houden, maar als daar vervolgens een punt komt, wordt het heel ingewikkeld. Ik vind het volgende al helemaal ingewikkeld. Als we ons aan de AP-richtlijnen houden, hoe weten we dan dat ambtenaren weten waar ze mee werken en dat de burger snapt wat de werking van zo’n algoritme is? Het is fijn dat we allemaal trainingen, richtsnoeren en richtlijnen hebben. Maar ondertussen kunnen wij als Kamer, als we willen zien wat er gebeurt, alleen kijken naar een register dat niet gevuld wordt. Hoe komen we nou tot iets wat de Kamer beter kan controleren, zodat we kunnen zeggen «hier gaat echt wat vooruit» of «die richtlijn is niet alleen een papieren tijger; dat doen we ook echt»?

Ik denk dat de Staatssecretaris misschien straks nog terugkomt op het voorstel dat we eerder samen met de heer Six Dijkstra hebben gedaan. De enige manier waarop je daar echt aan kan werken, is op elke brief zetten welk algoritme er is gebruikt en op basis van welke indicatoren iemand eruit is gehaald. Dat is dus niet alleen voor die burger noodzakelijk, maar ook voor de ambtenaar die die brief op moet schrijven, de klacht die binnenkomt moet afhandelen of de informatie die wordt gevraagd moet verstrekken. Ik denk dat we op die manier dit probleem kunnen oplossen.

Staatssecretaris Szabó:

Dat zit nog in het antwoordenpakketje; daar kom ik nog op terug. Wat de trainingen betreft: ik sta er altijd voor open om meer informatie te geven over welke trainingen onze ambtenaren krijgen, indien daar vanuit de commissie voor Digitale Zaken behoefte aan is.

Nog een vraag van mevrouw Kathmann: «Gaan wij algoritmes onder de AI-verordening stopzetten als ze niet voldoen? Wat zijn verboden AI-systemen volgens de AI-verordening?» Overheden worden actief aangemoedigd om hun huidige AI-systemen in kaart te brengen. Een verboden AI-systeem moet worden stopgezet. Verboden AI-praktijken zijn AI-systemen met een dusdanig risico op de inbreuk op grondrechten, gezondheid en veiligheid dat ze niet zijn toegestaan.

Dan nog een vraag van mevrouw Kathmann: «Voldoet Nederland vanaf volgende week aan de AI-verordening? Duidelijk ja of nee, meneer de Staatssecretaris.» Het antwoord, mevrouw Kathmann ... Dit is geen grapjasserij, hoor. Het antwoord is ja. Voor zover bekend voldoet de Nederlandse overheid aan de eerste bepalingen over verboden AI-systemen.

Dan een vraag van de heer Valize van de PVV. Deze is heel cryptisch. Staat het vast dat uitkomsten uit risicoselecties niet bewaard of gedeeld worden voor andere toepassingen? O nee, de vraag is toch niet zo cryptisch. De heer Valize had het, geloof ik, met name over de Belastingdienst. Er is geen aanleiding om te veronderstellen dat uitkomsten van risicoselecties bewaard of gedeeld worden voor andere toepassingen die betrekking hebben op een specifieke belastingplichtige. Wel kan de Belastingdienst algemene informatie vergaren uit risicoselecties. Wanneer bijvoorbeeld een bepaald onderwerp veel uitgeworpen wordt, kan de Belastingdienst die informatie gebruiken om de communicatie over dat onderwerp aan te passen. Opslag kan wel plaatsvinden in het kader van de Archiefwet.

Mevrouw Kathmann (GroenLinks-PvdA):

Ik was nog heel even flabbergasted door het antwoord, waarin de Staatssecretaris met zulke volle overtuiging zegt dat we volgende week aan de AI-verordening voldoen. De Rekenkamer heeft immers net een rapport gepubliceerd waaruit blijkt dat we de helft van de AI-systemen die we gebruiken niet in beeld hebben en dat we geen risicoanalyses doen. Dus ja, als je zegt «we weten natuurlijk niet wat niet weten», is het makkelijke antwoord: we voldoen eraan, want ik weet het niet. Maar daar ging mijn vraag natuurlijk over. Het is zo slecht gesteld dat we niet weten wat we gebruiken en de risico’s niet weten van wat we gebruiken. Het erge is ook nog dat als we het gebruiken, we niet eens meten of we de doelstelling van het gebruik halen. Als we dat weten, moeten we dus ongelofelijk veel zorgen hebben over of we wel aan die AI-verordening voldoen.

Staatssecretaris Szabó:

Het gaat specifiek om de verboden AI-systemen, dus niet om alle AI-systemen. Daar hebben we naar gekeken.

De voorzitter:

Een vervolgvraag van mevrouw Kathmann.

Mevrouw Kathmann (GroenLinks-PvdA):

Is er dan ook gekeken naar de helft van de AI-systemen die we niet in beeld hebben? Of is er gekeken naar de helft van de systemen die we in beeld hebben? Want dat zijn de systemen die we in beeld hebben.

Staatssecretaris Szabó:

Ik twijfel even om het antwoord te geven. Ik ben even aan het kauwen op het antwoord. Deze pak ik even in tweede termijn mee om er het juiste antwoord op te geven, want u vond dat ik daarnet heel erg stellig was.

De voorzitter:

Dan heeft u nog een interruptie van de heer Vermeer.

De heer Vermeer (BBB):

Ja, volgens mij had ik er nog eentje. Wat ik wel wat ingewikkeld vind aan die discussie over illegaal, verboden, of het klopt of niet en of er al voldoende overzicht is, is dat wij het niet kunnen controleren omdat er maar een paar procent in de registers staat. Maar wat als een systeem bijvoorbeeld 100 hits geeft en er maar 5 aan een mens voorlegt? Dan is het een combinatie van een geautomatiseerd besluit en een besluit dat aan menselijke toetsing voorgelegd wordt.

Stel dat iemand met betrekking tot box 3 bezwaar heeft gemaakt. Ook allerlei mensen hebben bezwaar gemaakt. In het systeem zit een algoritme en zegt: van de 100 bezwaren die ingediend zijn, heb ik er 5 voorgelegd om af te wikkelen, want de rest voldeed niet aan de voorwaarden. Hoe gaat u in vredesnaam toetsen of hoe kan de overheid toetsen als nog niet bekend is wat die dingen allemaal doen of ze daarmee wel aan deze eis voldoen? Dat lijkt me namelijk heel ingewikkeld. Het is niet zo dat een systeem alleen maar iets voorlegt of niet. Er zitten ook altijd tussenselecties in een algoritme die bepaalde mensen eruit pikken. Hoe denkt de Staatssecretaris dat dit probleem opgelost moet worden? Ik weet niet of hij dat zo even kan beantwoorden.

De voorzitter:

U heeft zo’n lange vraag gesteld dat de Staatssecretaris voldoende tijd heeft gehad om er even over na te denken, dus het woord is aan de Staatssecretaris.

Staatssecretaris Szabó:

Weet u, het Algoritmeregister moet meer worden gevuld en dat moet ook sneller gaan. Zoals ik aan het begin heb aangegeven, zal ik dit gewoon nog een keer naar voren brengen op het niveau van de ministerraad. Zo kan ik de volgende keer als we hier zitten op basis van nog meer informatie met u het debat voeren.

De voorzitter:

U mag een korte vervolgvraag stellen, meneer Vermeer.

De heer Vermeer (BBB):

Wanneer komt de Staatssecretaris op het moment dat hij zegt «vanaf die datum mag een algoritme dat niet in het register staat, niet meer gebruikt worden»?

Staatssecretaris Szabó:

Er zitten nog wat antwoorden in dit mapje waarin ik hierop terugkom. Ik heb helemaal aan het begin aangegeven hoe het wat betreft de toegankelijkheid helaas gaat in de geschiedenis op dit soort dossiers in de Tweede Kamer. Ik ben wel van plan om rond de zomer ... Het register zit in een versnelling. Het is nog niet een hele grote versnelling, maar het vullen ervan zit wel in een versnelling. Vorig jaar hebben we ook brieven gezonden naar de overheidsorganisaties om voor de zomer te meten of dat effectief is, dan wel of het een eenmalige versnelling was. Dan wil ik een afweging maken hoe we dit verder gaan oppakken met wetgeving dan wel op andere wijze.

Ik wil wel duidelijk erbij zeggen dat wetgeving niet altijd betekent dat er dan ook geluisterd wordt. Het moet dus een combinatie zijn van wetgeving, brieven, mensen erop aanspreken en ook zenden van mijn kant, natuurlijk met steun van de Tweede en waar nodig ook de Eerste Kamer. Maar stel dat u mij hier vier jaar laat zitten en als de kiezer dat wil misschien acht of twaalf jaar. Als ik hier over twaalf jaar zit en moet zeggen dat we van 2% naar 4% zijn gegaan, dan hebben we echt iets verkeerd gedaan. Dat is in ieder geval mijn instelling op dit dossier. Ik wil gewoon resultaat zien.

Ik heb nog een vraag over het pakketje verantwoorde inzet AI en algoritmen, en daarna ga ik over naar transparantie van het register. Kan het kabinet uitleggen hoe Nederland aan de rest van de verordening gaat voldoen, wanneer moeten welke stappen worden gezet en hoe kan ik als Kamerlid erop vertrouwen dat dit lukt? «Ik» is mevrouw Kathmann van GroenLinks-PvdA. Het kabinet is al bezig met de voorbereiding van de implementatie en uitvoering van de AI-verordening. Er wordt gewerkt aan een uitvoeringswet. Daarnaast moet elk ministerie in kaart brengen welke stappen nodig zijn voor compliance met de verordening voor de betreffende sector. Ik zal deze vragen doorgeleiden naar de Minister van Economische Zaken, die de implementatie van de AI-verordening coördineert.

Voorzitter. Dan ga ik naar het pakket transparantie en registratie. Een vraag van mevrouw Koekkoek. Is de Staatssecretaris het met haar eens dat het Algoritmeregister een essentiële rol speelt voor het inzichtelijk maken voor burgers waarom een bepaalde beslissing is genomen? Het Algoritmeregister speelt inderdaad een grote rol in transparantie richting burgers. Ik spoor daarom alle instanties binnen de rijksoverheid en onze medeoverheden aan om de informatie over het gebruik van algoritmes te registreren in het Algoritmeregister. Dit sluit aan op mijn woorden uit het vorige blokje.

Mevrouw Kathmann vraagt: wat is het grote plan van de overheid met het Algoritmeregister en hoe vullen we dat dan in? Uw Kamer heeft in de motie-Dekker-Abdulaziz uit juni 2023 gevraagd om alle hoogrisico-AI-systemen op te nemen. Daarom en vanwege de aankomende AI-verordening is nu de focus daarop gelegd. De afspraak met departementen is expliciet dat het ten minste hoogrisico-AI-systemen betreft, maar veel organisaties publiceren al meer. Ik zal mij verder inspannen voor het registreren van alle relevante algoritmes en maak daarvoor afspraken binnen de overheid. Dit sluit ook aan bij wat ik hiervoor heb gezegd. Ook wil ik voor de zomer de balans opmaken en dit dossier actief bij de Nederlandse Digitaliseringsstrategie betrekken.

Dan een vraag van de heer Ergin van DENK. Vorig jaar bleek dat slechts 5% van de systemen opgenomen was in het Algoritmeregister. Hoeveel procent van de algoritmen is nu opgenomen in het Algoritmeregister? Het is niet bekend wat het totale aantal impactvolle algoritmen binnen de overheid is. Ik zie dat overheidsorganisaties hard werken aan het vullen van het register met als eerste stap de analyse van algoritmes binnen hun eigen organisaties. Sinds 1 januari 2024 is het aantal algoritmes met 170% toegenomen en het aantal organisaties met 200%.

Dan nog een vraag van de heer Ergin. Kan de Staatssecretaris in mei of juni een update geven van het percentage algoritmen dat dan is ingevuld in het Algoritmeregister? Op Verantwoordingsdag, de derde woensdag in mei, zal middels de Jaarrapportage Bedrijfsvoering Rijk een update worden gegeven over de voortgang en het vullen van het register door de departementen. Departementen zullen hier rapporteren hoeveel hoogrisico-AI-systemen en hoeveel impactvolle algoritmes zij in 2024 hebben geregistreerd en hoeveel zij nog voor het eind van 2025 verwachten te registreren.

Een vraag van mevrouw Koekkoek, de heer Ergin van DENK en mevrouw Kathmann van GroenLinks-PvdA. Is de Staatssecretaris het ermee eens dat iedereen inzage moet kunnen hebben in informatie en algoritmen die de overheid over ze gebruikt en waardoor ze kunnen worden geraakt? Dat is eigenlijk waar we het net over hadden, maar deze vraag lag er nog.

Hoe verhoudt het zich met de motiveringsplicht in de Algemene wet bestuursrecht dat de Staatssecretaris niet de voorstellen van de Open State Foundation wil overnemen? Het huidige motiveringsbeginsel ziet niet expliciet op algoritmische besluitvorming. Ik ben het met u eens dat transparantie belangrijk is en het kabinet wil zich inzetten voor transparantie en rechtsbescherming bij het gebruik van algoritmes. Een van de manieren om dit te bereiken is bijvoorbeeld via het register. Ook onderzoek ik zoals aangegeven de mogelijkheden voor wetgeving die hierbij aansluiten met de internetconsultatie algoritmische besluitvorming en de AMvB. Ik kom daar binnenkort bij uw op terug; «binnenkort» is in dit geval eind Q1, begin Q2.

Is de Staatssecretaris het ermee eens – een vraag van mevrouw Koekkoek en de heer Ergin – dat de positie van burgers ten opzichte van de overheid moet worden versterkt door het register wettelijk te verplichten? Dat is eigenlijk dezelfde vraag. Dan is het antwoord ook hetzelfde: ik kijk ernaar en kom er rond de zomer op terug.

De heer Buijsse vroeg of er gesteld kan worden dat de informatie die bijgehouden wordt in het Algoritmeregister afdoende is of zijn er verbeterpunten? Het Algoritmeregister bevat velden die ertoe dienen de transparantie over waarborgen te vergroten. De verplichte velden bieden de belangrijkste informatie. Daarnaast zijn er niet-verplichte velden, zoals een veld om te verwijzen naar een uitgevoerde mensenrechtstoets. Deze niet-verplichte velden worden niet altijd ingevuld. Een belangrijk punt van verbetering is daarom om de organisaties te vragen meer velden in te vullen en meer informatie ter beschikking te stellen. Ik ga mij daar ook voor inzetten, want het zou zonde zijn als de software die is gebouwd, als applicatie niet volledig wordt gebruikt.

Voorzitter. Nog een vraag van de heer Buijsse. Die heb ik ook al beantwoord, namelijk wat de rol van de Nederlandse Digitaliseringsstrategie in dezen is. Daar hoef ik dus niet meer op in te gaan, met uw welnemen.

Hoe kijkt de Staatssecretaris aan tegen het vijfsterrenmodel? Het vijfsterrenmodel is een ambitieuze manier om te kijken naar de transparantie van algoritmes. Het is een interessant model. Ik betrek het ook bij de brief van april, waarin ik inga op de motie-Omtzigt/Six Dijkstra over de wetenschappelijke standaard.

Dan een vraag van de heer Vermeer. Hoe verhoudt het Algoritmeregister – ik begin het weer goed uit te spreken – zich tot de diverse registers die al door gemeentes zijn gemaakt? Het Algoritmeregister heeft geen relatie met andere registers. Het wordt niet vanuit de gemeentelijke registers gevuld.

Dan nog een vraag van de heer Vermeer. Is de benodigde capaciteit aanwezig en wie bepaalt wat hoog risico is en wat de voorwaarden hiervoor zijn? Het kost inderdaad tijd en capaciteit om te analyseren welke systemen er zijn en de benodigde informatie te verzamelen en af te stemmen. Inmiddels is een inventarisatie bij departementen voor zover ik weet afgerond. Ik ga ervan uit dat de departementen zich nu klaar maken voor de volgende fase. Voor het bepalen van hoogrisico-AI-systemen heb ik een handreiking geschreven voor het inventariseren, identificeren en classificeren van AI-systemen. Daarmee wil ik overheidsorganisaties helpen AI-systemen juist in te schatten.

De heer Vermeer (BBB):

Wat is de precieze naam van die handreiking? Weet de Staatssecretaris dat zo of kan hij dat anders in de tweede termijn even melden, zodat ik die er even bij kan zoeken?

Staatssecretaris Szabó:

Ik ga u in de tweede termijn antwoord geven op de vraag wat de naam van de handreiking is.

Dan is er nog een vraag van de heer Vermeer. Een algoritme is volgens de BBB te omschrijven als een oplossing voor een probleem dat op een wiskundige manier is beschreven. Gaat het register wel zorgen voor de nodige transparantie? Ja, het register is een belangrijk middel om de benodigde transparantie te regelen. We zijn op dit moment met de internetconsultatie Algoritmische besluitvorming en de Awb aan het analyseren welke aanvullende maatregelen nodig zijn om onder andere de transparantie te verbeteren. Aan het eind van dit kwartaal of begin volgend kwartaal wordt deze analyse met uw Kamer gedeeld.

De heer Valize vroeg hoe het mogelijk is dat het zo ingewikkeld is een simpel algoritme te beschrijven en aan het register toe te voegen. De eerste stap in het vullen van het register is het in kaart brengen van de gebruikte algoritmes. Dit neemt best wel veel tijd in beslag, net als het begrijpelijk en correct beschrijven van het algoritme. Maar ook hiervoor geldt dat ik wat specifieker naar dit onderwerp ga kijken zodat ik dit ook kan versnellen, daar waar we meer handvatten kunnen geven aan degenen die het register moeten vullen. Ja? Oké.

Er is aangegeven dat het Algoritmeregister in 2025 up-to-date moet zijn. De heer Valize vroeg wat er van de kant van de Kamer nodig is om te bevorderen dat we algoritmes ook daadwerkelijk in het register hebben staan. Dank voor deze vraag. We willen ervoor zorgen dat er ook toezicht komt bij de lokale overheden. Als de landelijke politiek dit ook doorgeeft aan de lokale politiek, staan we samen sterk. Vooral uw controlerende taak en uw adviserende taak aan mij zorgen ervoor dat we dit vraagstuk goed op de inhoud kunnen behandelen.

Voorzitter. Dan mijn blokje overig. Ik heb een tweetal overige vragen. De vraag van de heer Ergin van DENK ging over Motie#21 en het ADR-onderzoek. Hij noemde drie punten waaruit blijkt dat een aantal zaken niet goed geregeld zijn. Bij BuZa is niet gekeken naar etniciteit en geboorteplaats. U heeft aangegeven dat er bij Binnenlandse Zaken geen toets is uitgevoerd naar volledigheid en juistheid. Bij VWS is non-discriminatie niet uitgevraagd. Bij OCW zijn niet alle organisaties betrokken. Kijkend naar het rapport van de ADR vraagt u: is de Staatssecretaris tevreden met de operatie voor het herstellen van datavervuiling? De ADR beschrijft dat departementen waarborgen hebben getroffen voor een accurate en volledige uitvoering van Motie#21. De toetsing op oneigenlijk gebruik is verschillend uitgevoerd. Dit is in lijn met de ruimte voor departementen om een eigen aanpak te kiezen en daarover te rapporteren. Ik zet mij in voor meer transparantie over algoritmes in brede zin, zoals via het Algoritmeregister, en bij het voldoen aan nieuwe wet- en regelgeving, zoals de AI-verordening, via het Algoritmekader.

De heer Ergin (DENK):

Ik kan nog een aantal voorbeelden noemen die passen in het beeld dat er op dit moment mogelijk nog sprake is van vervuilde data bij diverse ministeries, even los van alle algoritmediscussies die we net hebben gevoerd. Separaat daarvan is er op dit moment sprake van datavervuiling die niet is aangepakt. De regering heeft vervolgens aangegeven dat zij Motie#21 heeft afgedaan. Vervolgens heeft DENK gedacht: laten we dat even extern laten checken door de ADR. De ADR kwam met een waslijst aan zaken die niet zijn uitgevoerd. Ik hoor hier van de Staatssecretaris dat hij zich gaat inzetten om datavervuiling tegen te gaan, maar kan hij op z’n minst aangeven wat hij daarmee bedoelt? Wat gaat hij nou precies doen? Het is namelijk al gebeurd. Onderzoeken zijn uitgevoerd en die data zingen nog steeds rond op verschillende departementen. Ik wil gewoon van de Staatssecretaris horen wat hij gaat doen om die operatie wel te laten slagen.

Staatssecretaris Szabó:

Dank u voor die vraag. Ik heb die lijst niet voor me en ik kom er in tweede termijn op terug.

De voorzitter:

Graag uw microfoon aanzetten.

Staatssecretaris Szabó:

De laatste vraag is van de VVD. Wie ziet toe op het gebruik van ontwerpprincipes van digitale overheidsdiensten? Er is geen toezicht, maar ik stimuleer organisaties met kennis en instrumenten om de transformatie door te maken naar werken vanuit klantbeleving in plaats van de manier zoals het was en de manier waarop we dat als overheid zouden organiseren. Specifiek voor de digitale diensten is het NL Design System ontwikkeld, waarmee overheden eenvoudiger en sneller toegankelijkheid kunnen ontwikkelen op een inclusieve en gebruikersvriendelijke manier. Vorige week hebben we hier ook al over gesproken. Ik faciliteer een groot netwerk van overheidsprofessionals uit alle lagen van de overheid die met elkaar aan deze transformatie en mensgerichte dienstverlening werken.

Voorzitter. Dat waren de antwoorden op de vragen.

De voorzitter:

U heeft toch nog een interruptie van de heer Buijsse van de VVD.

De heer Buijsse (VVD):

Ik vind in alle eerlijkheid deze reflectie toch wat summier. Ik had er graag iets meer bij stil willen staan. Ik ga er daarom ook maar gewoon om vragen. Mijn eerdere vraag was namelijk: zijn die ontwerpprincipes voor diensten, bijvoorbeeld bij de Belastingdienst, dezelfde als bij het Ministerie van Financiën, het CBR en het waterschap, en op lokale schaal ook bij de gemeente Amsterdam of kleinere gemeentes? Dat zijn wel zelfbewuste gemeentes, zoals de gemeente Boekel. Dat is mijn eigen gemeente, meneer Vermeer! Dit is namelijk zo’n elementaire en fundamentele zaak: hoe kijk je aan tegen de manier waarop wij diensten ontwerpen, ook gezien de achtergrond dat we al heel lang onderweg zijn met het ontwikkelen van digitale diensten en we ook niet zomaar de afslag van greenfield kunnen nemen? Het is er al wel allemaal. Ik zou daar toch met de Staatssecretaris even wat meer over willen uitweiden en ik zou willen vragen om daar iets verder op te reflecteren.

Staatssecretaris Szabó:

Mijn eerste reactie is: ik denk niet dat binnen de overheid alle ontwerpprincipes volledig uniform en gestandaardiseerd zijn, omdat we eigenlijk, vanaf het begin toen we begonnen met digitaliseren, zeiden: iedereen kan zijn eigen gang gaan. Dat gaat over het Rijk, gemeenten, provincies, waterschappen en zbo’s. Bij het Rijk zijn dat ook de ministeries. Dat moeten we strakker gaan trekken. Vandaar ook dat ik mijn inleiding aangaf dat ik, als het gaat om standaardiseren en ontwerpprincipes, ik niet alles wettelijk ga opleggen of zo. We moeten in ieder geval er met elkaar over in discussie gaan hoe we dat gaan verbeteren. Het mooie is dat we binnen de NDS, die gedragen wordt door verschillende overheidslagen, gewoon een mooi podium hebben om dit verder met elkaar te bespreken. Er zijn natuurlijk ook andere podia, andere overlegorganen binnen de overheid. Maar dit is dan weer een niveautje hoger en iedereen zit erbij.

De voorzitter:

U heeft nog een korte vervolgvraag van de heer Buijsse.

De heer Buijsse (VVD):

Dus als ik het goed begrijp, gaan we in de NDS echt wel een stevige paragraaf terugzien over die ontwerpprincipes. Ook mensen die daarmee bezig zijn in de buitenwereld moeten zich daarin herkennen. Ik heb de laatste tijd een aantal contacten opgedaan die daar gewoon bij betrokken zijn. Het gaat om een fundamentele zaak en we moeten als overheid, decentraal en centraal, toe naar meer uniformering van die ontwerpprincipes. Het zou mij een lief ding waard zijn als ik dit terug kan lezen in de NDS.

Staatssecretaris Szabó:

Ik ben even aan het nadenken. Waarom? Ik heb tien kantjes om vol te schrijven. Dat heb ik beloofd en die worden de Nederlandse Digitaliseringsstrategie. Daar, over dat aantal van tien kantjes, wil ik niet echt overheen gaan. Ik zeg u echter toe dat ik hierover ga nadenken, in de zin dat dit valt onder standaardisering. Dat betekent niet dat ik vier of vijf alinea’s over dit onderwerp kan opschrijven. Daarnaast – u spreekt ook met mensen in het veld, gaf u aan – vind ik het wel fijn om de kennis op dit dossier te delen. Dat kan een keer met een kop koffie.

De voorzitter:

Mooi, dus nog een kopje koffie. Dat was het einde van de eerste termijn van de Staatssecretaris Digitale Zaken, de heer Zsolt; excuseer: de heer Szabó. Dan gaan we door naar de Staatssecretaris van Justitie en Veiligheid, de heer Struycken, voor zijn eerste termijn.

Staatssecretaris Struycken:

Voorzitter. Allereerst dank aan de commissie voor de uitnodiging voor dit debat. Het is de eerste keer dat ik bij uw commissie aantreed in verband met het gegevensbeschermingsrecht. Het is een erg belangrijk grondrecht, dat bijdraagt aan de rechtsbescherming van burgers en ook bedrijven.

Het is een bijzondere dag vandaag. Het is nog niet genoemd, en ik weet ook niet zeker of u dat allemaal op de radar hebt – ik had het niet, maar het is me verteld – maar het is vandaag de Dag van de Gegevensbescherming. Op 28 januari 1981 nam de Raad van Europa het zogenaamde verdrag nummer 108 aan. Dat was het eerste juridisch bindende internationale instrument inzake gegevensbescherming. 28 januari is dus de Dag van de Gegevensbescherming, ook wel de Dag van de Privacy genoemd, met als belangrijkste doel: bewustmaking van privacy en gegevensbescherming. Een mooi gesternte voor dit debat.

Ik heb een beperkt aantal vragen te beantwoorden. De eerste was dan ook wel een heel moeilijke. Eigenlijk lag er een thema ten grondslag aan de vraag van de heer Six Dijkstra, en ook aan de vraag van de heer Ergin. Dat gaat eigenlijk over het mensbeeld en hoe dat zich verhoudt tot risicoselectie bij de inzet van algoritmes. Gedachtewisselingen over het mensbeeld zijn altijd complex, want wat is het mensbeeld? Die vraag is ook gesteld aan de regering bij de Algemene Politieke Beschouwingen. Als u het mij vraagt, ligt het volgende besloten in het denken van dit kabinet: de adviezen van de parlementaire enquêtecommissie Fraudebeleid en Dienstverlening, en eigenlijk ook het perspectief van de Staatscommissie rechtsstaat. Dat zijn allebei rapporten die door het kabinet in algemene zin worden omarmd.

Voor mij betekent het dat de overheid in al haar handelen, dus ook bij de inzet van algoritmes, als uitgangspunt moet nemen dat de overheid naast de burger staat in plaats van tegenover de burger. Daarom is het van belang dat de inzet van algoritmes dus altijd ten dienste staat van de uitvoering van de maatschappelijke opgave van de uitvoeringsorganisaties. Dat we zeggen dat het gaat om de uitvoering van een maatschappelijke opgave, zegt op zich nog niks over het mensbeeld. Maar als de overheidsorganisatie zich laat leiden door dit mensbeeld, wordt dat gereflecteerd in de wijze waarop zij uitvoering geeft aan haar maatschappelijke opgave. Dat reflecteert dan ook dit mensbeeld, het beeld van de overheid die naast de mens staat.

Er zijn voorbeelden van de inzet van algoritmes of AI-systemen denkbaar in het kader van de dienstverlening aan mensen. Ik kan me voorstellen dat algoritmes worden gebruikt om de personen te identificeren die mogelijk moeite hebben met het betalen van een boete of anderszins het risico lopen dat schulden te hoog oplopen. Dan kan een algoritme als middel worden ingezet om die mensen snel te identificeren, met als doel om hen te helpen schuldenoploop te voorkomen. De schuldenproblematiek staat vrij scherp op de radar van dit kabinet. We trachten daar op een nieuwe manier naar te kijken. Dan kunnen algoritmes daarbij functioneel zijn ter ondersteuning van een maatschappelijke opgave die erop gericht is om mensen te helpen, in dit geval mensen die in de schulden zitten of dreigen erin te komen. Dan zijn het helpende technieken.

Maar er zijn natuurlijk ook opgaven die meer zitten op het terrein van de rechtshandhaving. Die dragen simpelweg bij aan het opsporen van criminelen. Dan staat de overheid natuurlijk niet naast de crimineel, maar ertegenover. In beide gevallen is het goed denkbaar dat algoritmes en AI worden gebruikt daar waar ze aantoonbaar helpen. Ik voeg er wel aan toe dat ieder ministerie uiteraard zelf verantwoordelijk is om af te wegen of en waarvoor algoritmes worden ingezet en hoe ze vervolgens worden gebruikt. Voor beide, of het nou is met het oog op de rechtshandhaving, de dienstverlening of de hulpverlening, geldt dat we het goed moeten regelen. Dat moet altijd, want dat verlangt het legaliteitsbeginsel. De overheid moet haar handelen altijd baseren op deugdelijke, duidelijke wettelijke voorschriften. Ook de AVG is op dat punt heel duidelijk: de verwerking van persoonsgegevens moet op een grondslag berusten. Of de intentie van het betreffende overheidsonderdeel nu is om de burger te helpen of te bestraffen, die duidelijke grondslag moet er zijn.

Vooral voor bestraffen is het heel belangrijk dat er een goede grondslag is en dat de AVG wordt nageleefd. Daarbij is het vooral belangrijk dat dat onderdeel van het primaire proces is en niet iets wat er nog bij gedaan moet worden. We moeten waken voor de dominantie van de doelstelling, zoals het wel wordt genoemd, waarbij het accent ligt op de doelmatige uitvoering van primaire processen, en de aandacht voor het treffen van een zorgvuldige regeling die eraan ten grondslag ligt, er soms bij inschiet. In antwoord op de vragen van u beiden – u stelde mij allebei in zekere zin een reflectieve vraag – zeg ik: het is dus van belang dat het vraagstuk dat u centraal stelt, vanaf een vroegtijdig stadium deel uitmaakt van het proces, dus dat van het begin af aan het goede gebruik van die algoritmen is geborgd en dat niet pas achteraf wordt geconstateerd dat daarmee in het proces onvoldoende rekening is gehouden.

Het mensbeeld dat ik verwoordde ... Nee, ik ga het anders zeggen. Een mens die de ruimte moet krijgen om zich te ontplooien, maar ook een mens die kwetsbaar is en bescherming en ondersteuning verdient: zo zou ik persoonlijk het mensbeeld verwoorden. Dat moet centraler komen te staan en beter gereflecteerd worden in de wijze waarop de overheid voorspellende algoritmes gebruikt. Als u daar meer over wilt weten, denk ik daar graag een keer met u over door, in een ander kader.

Dat brengt mij op de vraag van de heer Six Dijkstra die ziet op het onderwerp Preselect Recidive. Hij noemde de film Minority Report. Die ken ik nog niet. Ik kijk weinig naar films, maar misschien is dit er een die ik kan aanbevelen bij mijn echtgenote. In het artikel dat deze problematiek centraal stelt, het artikel uit het tijdschrift Follow the Money, een onderzoeksblad, is aangegeven dat politie en justitie al geruime tijd een algoritme gebruiken om te voorspellen of jongeren in de criminaliteit belanden, meer in het bijzonder of er een risico op recidive is en zo ja, hoe groot dat risico is. In het artikel staat dat de voorspelling van het algoritme inzake de kans op criminaliteit en recidive er vaak naast lijkt te zitten. De voorspelling is wat dat betreft dus gewoon geen deugdelijke en de gevolgen zijn uiteraard groot. Dat noemen we dan een risicotaxatie-instrument, maar in de uitwerking pakt het niet goed uit. Uit eerder onderzoek dat is uitgevoerd in opdracht van mijn ministerie, Justitie en Veiligheid, is al gebleken dat het instrument Preselect Recidive op een aantal punten verbeterd moet worden. Daarom is aan het einde van 2024 een verbetertraject gestart. Dat moet in de loop van 2025 leiden tot een betere versie van het instrument. Het moet dan een betere voorspellende waarde blijken te hebben.

Het gaat echter niet alleen om het instrument, maar ook om hoe het gebruikt wordt. Ik wil benadrukken dat het instrument niet gebruikt wordt en zeker ook niet gebruikt mag worden voor automatische besluitvorming over het vervolgtraject voor een jeugdige verdachte. Dit instrument, dit algoritme, moet worden ingezet als advies bij een besluit naast andere informatie over diezelfde jongere. Met andere woorden, het besluit wordt dan genomen door het Openbaar Ministerie in overleg met de ketenpartners. Daarmee is er – of die moet er zijn – een substantiële menselijke tussenkomst, zoals voorgeschreven door de AP.

Naar aanleiding van het verzoek van de vaste Kamercommissie voor Justitie en Veiligheid zal ik een schriftelijke reactie op dit artikel van Follow the Money aan de Kamer doen toekomen voorafgaand aan het debat dat ik zal voeren over de bescherming van persoonsgegevens en digitale grondrechten aanstaande 6 februari. Ik zal dus, zoals mij is verzocht, op korte termijn met een reactie naar de Kamer komen.

Dat brengt mij bij de laatste vraag die ik moet beantwoorden. Die vraag heb ik overigens al eerder mogen beantwoorden, onder andere in het debat van uw Kamer met het kabinet op 15 januari inzake de parlementaire enquête Fraudebeleid en Dienstverlening. Die vraag betreft de financiering van de Autoriteit Persoonsgegevens. De Autoriteit Persoonsgegevens heeft in het kader van de kabinetsformatie inderdaad gevraagd om veel meer budget, volgens mij 111 miljoen, terwijl ze dit jaar een budget heeft van 49 miljoen. Ze vragen dus twee keer zoveel dan ze al krijgen, waarbij ook relevant is dat het budget dat ze krijgen, die 49 miljoen, een verdubbeling is ten opzichte van wat ze vijf jaar geleden hadden.

Ik heb in het plenaire debat al gewezen op een internationale vergelijking die in dit geval een referentiepunt kan zijn. AVG-toezichthouders met hetzelfde takenpakket in andere EU-lidstaten hebben substantieel minder budget. Het budget dat we in Nederland aan de AP toekennen, is veel omvangrijker dan het budget in andere, vergelijkbare landen. We zitten dus in de Europese top. En sinds dat onderzoek van vijf jaar geleden is het budget dus verdubbeld. Ik gaf al eerder aan dat ik denk dat een budget moet worden vastgesteld op basis van de taken die een instantie heeft. Als nieuwe of extra taken worden toegekend, moet er uiteraard extra budget komen, maar leidend zijn de taken die een instantie of autoriteit heeft.

Ik merk nog op dat de Autoriteit Persoonsgegevens een evaluatie laat uitvoeren naar het eigen functioneren. Dat onderzoek is klaar, maar de Autoriteit Persoonsgegevens heeft dat nog niet met mijn departement gedeeld. Ik weet dus nog niet welke conclusies dat behelst, maar ik ga ervan uit dat dat ook een reflectie geeft op de taken die de autoriteit heeft, het daarvoor benodigde budget en de taken die zij wenst te krijgen. Dan kan het ook gaan over het daarvoor benodigde budget als wij – u en wij – ervoor kiezen om die nieuwe taken inderdaad bij de autoriteit neer te leggen.

De heer Six Dijkstra (NSC):

Eigenlijk nog op het vorige punt, Preselect Recidive. Ik raad de film Minority Report overigens van harte aan. De Staatssecretaris zegt dat het algoritme een advies is. Daarmee wordt ook voldaan aan de eis dat pas na betekenisvolle menselijke tussenkomst de gevolgen voor betrokkenen van de selectie als risico in werking treden. Dat is echter slechts een van de vijf algemene eisen die de AP stelt aan risicoselectiealgoritmen. De andere zijn dat het risico op discriminatoire verwerking is onderzocht en ondervangen, dat periodiek wordt onderzocht of zich desalniettemin discriminatoire verwerkingen voordoen, dat de selectie als risico niet automatisch ook andere aanmerkelijke gevolgen heeft en dat de risicoselectie voldoende kenbaar is voor betrokkenen. Ik zou graag zien dat de Staatssecretaris daarop ingaat. Ik snap dat hij dat misschien niet allemaal paraat heeft, maar dan wil ik wel graag dat dit onderdeel uitmaakt van een kabinetsreactie op het artikel van Follow the Money, omdat dit direct doorvertaalt naar hoe wij met z’n allen omgaan met risico’s met een grote impact voor burgers.

Staatssecretaris Struycken:

U wijst terecht op die andere vereisten. Die moeten dus ook onderdeel uitmaken van enerzijds de analyse van wat dit nu doet en anderzijds het verbetertraject. Ik denk dat dit allemaal kernelementen zijn in het verbetertraject. Ik kan daar nu niet in detail op reflecteren. Ik weet ook niet of dat lukt in de brief die we al binnen enkele dagen moeten schrijven, maar daar zal zeker in staan dat het evident is dat op al deze punten ook dit instrument moet voldoen aan de eisen die worden gesteld. Dat is evident. Als dat niet blijkt te kunnen, moet het niet worden gebruikt.

Mevrouw Koekkoek (Volt):

De discussie over de Autoriteit Persoonsgegevens en welk budget daarbij hoort, hebben we inderdaad plenair eerder gevoerd. Mijn afdronk, juist ook van die discussie, was dat we moeten voorkomen dat het een welles-nietesdiscussie wordt tussen de AP en het kabinet, want uiteindelijk wil je allemaal hetzelfde. Je wil goed toezicht. Ik begrijp dat ieder orgaan vindt dat het veel budget nodig heeft en ik begrijp dat het kabinet daar zuinig mee wil omgaan. Vandaar dat ik vroeg: kan uiteengezet worden waar die inschatting van het kabinet vandaan komt? Ik begrijp nu dat de AP een eigen onderzoek doet, maar om dit als Kamer goed te kunnen wegen, zouden we ook van het kabinet moeten horen op basis waarvan het de conclusie trekt dat het budget nu nog niet omhoog hoeft. Daar zoek ik een beetje naar, want voor mij blijft het nu steken in welles-nietes en ik wil uit die impasse komen.

Staatssecretaris Struycken:

Wat ik bedoelde te zeggen, is dat het uiteindelijk ook gaat over de vraag welke taken we willen dat de Autoriteit Persoonsgegevens heeft. Daar heeft de autoriteit zelf een duidelijk beeld van. Dat is een groeimodel. Zij ziet voor zichzelf additionele taken weggelegd. Er zit dus een keuze in: welke taken leggen we bij de AP? Er zit ook een analyse in: hoeveel geld heeft de AP nodig voor de taken die zij heeft? Die analyse kun je op verschillende manieren maken. Je kunt een streefgetal hanteren, maar je kunt ook kijken hoeveel uren het onderzoek kost. Dat bedoelde ik impliciet toen het ging over de bekostiging. Het bekostigingsmodel is onderdeel van frequent overleg met de AP. Wellicht kan de evaluatie die de AP verricht daar op beide punten meer inzicht in geven. Maar het gaat ook om de taakopvatting van de AP. Daar is de AP natuurlijk vrij in. Zij heeft een grote mate van zelfstandigheid, maar dat ontslaat ons allen er niet van om daar in deze Kamer over te spreken. Taken en toezicht zijn natuurlijk schaalbaar. Je kiest hoeveel tijd je aan bepaald toezicht wilt besteden. Dat zou onderdeel moeten zijn van de brede dialoog met de Autoriteit Persoonsgegevens.

Ik heb al eerder gesignaleerd bij de Autoriteit Persoonsgegevens dat we een maatschappelijk probleem hebben dat ik «handelingsverlegenheid» noem. Dat weet u, want dat heb ik eerder vermeld. Heel veel mensen, organisaties en personen zijn bang dat ze de regels inzake gegevensbescherming schenden en doen daardoor allemaal dingen niet. Mensen doen minder dan wellicht mogelijk is. We zouden in Nederland de focus kunnen verleggen naar algemene advisering over wat wél kan in plaats van handelingsverlegenheid te creëren door straffen, boetes en dergelijke. De autoriteit zou daar een rol in kunnen hebben. Dat is een vrij principiële discussie over of een visie, zoals u wilt, op de wijze waarop de AP haar taken in de toekomst invult. Dit was een lang antwoord om aan te geven dat er heel veel factoren zijn die beïnvloeden hoeveel budget de AP nodig heeft. Dat is de dialoog die we voortdurend moeten voeren en die zal ook onderdeel zijn van mijn gesprekken met de AP in de komende tijd.

De voorzitter:

Er is nog een aanvullende vraag van mevrouw Koekkoek.

Mevrouw Koekkoek (Volt):

Ik waardeer dit zorgvuldige antwoord. Tegelijkertijd denk ik dat het voor de Kamer nuttig is om onderdeel te zijn van dat gesprek, omdat wij het budgetrecht hebben. Laat ik het herformuleren: ik zou graag een manier zoeken waarop wij als Kamer onderdeel kunnen zijn van dat gesprek. Ik kan me voorstellen dat het kabinet op dit moment zegt: wij zijn in gesprek met de Autoriteit Persoonsgegevens en wij moeten samen zoeken naar wat een goed takenpakket is en naar wat wij vinden passen bij Nederland. Maar dat kan niet leiden tot een conclusie zonder dat de Kamer daarbij betrokken wordt. Vandaar dat ik verzoek om een schriftelijk overzicht. Dat is mijn suggestie om de Kamer er op een goede manier bij te betrekken. Het kan ook in de vorm van scenario’s of opties, in de zin van: «Als de AP deze drie taken krijgt, dan schatten wij dit budget in. Optie twee leidt tot dit budget.» Dan is de Kamer meer geïnformeerd en meer betrokken bij dat gesprek. Volgens mij is dat nuttig en ook nodig.

Staatssecretaris Struycken:

Ik herken wat mevrouw Koekkoek zegt. Het is evident dat de Kamer er belang bij heeft dat wij wat dat betreft samen verstandige keuzes maken. Trouwens, niet alleen de Kamer heeft daar belang bij; dat hebben wij allemaal. De Kamer moet ook het inzicht krijgen om die keuzes op gezette tijden te kunnen maken. Het is dus niet voor niks dat ik het accent leg op een voortdurende dialoog over de rol en taken van de autoriteit. Nogmaals, dat is primair, maar niet alleen, haar eigen domein. Wij gaan daar ook over, des te meer omdat wij ook gaan over de financiering. Ik herken en onderschrijf de behoefte dus en ik zal mij ervoor inzetten om daar adequaat en op de juiste momenten de benodigde informatie over te verschaffen, maar ik doe geen toezegging om dat concreet in een brief naar de Kamer te sturen.

Mevrouw Kathmann (GroenLinks-PvdA):

Ook ik wil de Staatssecretaris bedanken voor zijn zorgvuldige antwoord, maar dit roept ook vragen op. Ik vind eigenlijk dat wij als Kamer niet meer zonder schriftelijke brief kunnen. Een brief is natuurlijk altijd schriftelijk. Ik bedoelde «zonder dat het op schrift staat». Ik begrijp de vraag van mevrouw Koekkoek dus heel goed. Tot nu toe is het gewoon een black box voor ons als het gaat om wanneer het toezicht zou moeten groeien. Daar hebben we als rapporteurs van de commissie voor Digitale Zaken een klein onderzoekje naar gedaan bij de begroting. Als we het bijvoorbeeld hebben over de correlatie met Europese wetgeving, komt er ongelofelijk veel op ons af. Wij krijgen heel vaak een briefje met de tekst «heeft geen impact op toezichtstaken». Nou, dat lijkt mij heel raar, want het gaat honderd procent ook over de zaken waarvoor onze toezichthouder aan de lat staat.

We hebben bij de begroting dus al gezien dat het een black box is. Dan hebben we ook nog de toeslagenmisdaad – dat is een goed woord van DENK – waarvan de hele Kamer zegt dat dat in ieder geval nooit meer mag gebeuren. Iedereen verbindt aan die uitspraak andere consequenties, maar er is wel door heel veel partijen gevraagd om dat hele pakket te pakken, en één onderdeel daarvan is een nog stevigere toezichthouder. Ik vind het van de Staatssecretaris kort door de bocht dat hij zegt dat we nog even moeten kijken, omdat ze misschien hun taken wel meer moeten verleggen naar advies geven over wat er wel kan. Als iémand vindt dat de AVG een «wel kan»-wet is, dan is het de AP zelf wel. Maar zij hebben hun handen al vol, en ze zijn al te erg onderbezet om die burgerbeschermingstaak uit te kunnen voeren. Als de Staatssecretaris dit zegt, betekent het dat er weer een afweging wordt gemaakt om meer kosten te maken zodat ze die taak erbij kunnen krijgen. Ik hoop namelijk niet dat ze minder burgers gaan beschermen omdat ze ons meer gaan vertellen over wat er wel kan.

We kunnen niet veel anders dan van u op schrift krijgen welke implicaties er zijn, wat de Europese wetgeving hierover is en hoe u wilt dat er gekeken wordt. Dán kunnen we in gesprek. Maar we kunnen als Kamer ons werk niet doen als we steeds alleen een soort mondeling terugkoppelingetje krijgen van de gesprekken die plaatsvinden. Ik hoop dus dat de Staatssecretaris zijn standpunt wil herzien en ons alsnog gewoon een brief wil sturen, zodat wij als Kamer ook professioneel mee kunnen doen aan dat gesprek.

Staatssecretaris Struycken:

Zoals ik al zei: op het moment dat er nieuwe taken worden toegekend aan de Autoriteit Persoonsgegevens, zeker wanneer die uit Europa komen, vindt het hele spectrum van toetsen plaats, met inbegrip van de uitvoering en dergelijke. Daar zit altijd een financiële component aan. Dat betekent altijd dat er bij een nieuwe taak extra budget komt. Dat is evident.

Wat betreft het overige heb ik u met heel veel woorden duidelijk gemaakt dat het mij duidelijk is dat we daar een beter beeld van moeten krijgen. Dat geldt ook voor mijzelf. Dat bedoel ik in die zin dat we steeds weer een nieuwe analyse moeten kunnen maken over wat de AP doet en hoeveel geld zij daarvoor nodig heeft. Dat is iets wat mij leidt in mijn verantwoordelijkheid voor de AP. Maar ik wil nu geen schriftelijke brief toezeggen waarin ik dat precies uiteenzet; dat zal onderdeel zijn van mijn analyses van wat de AP nodig heeft. Als u daarin een keuze heeft te maken op het moment dat het erover gaat, bijvoorbeeld bij de begrotingsbehandeling, dient u het inzicht te krijgen dat u daartoe in staat stelt. Maar ik ga nu niet een schriftelijke brief toezeggen.

De voorzitter:

Een vervolgvraag van mevrouw Kathmann.

Mevrouw Kathmann (GroenLinks-PvdA):

Ik probeerde juist te schetsen dat wij bij de begrotingsbehandeling dat inzicht niet krijgen, al jaren niet. We hebben er zelfs als rapporteurs onderzoek naar gedaan en wat was de conclusie? Het is een black box, we hebben geen inzicht. Geen enkel begrotingsstuk heeft dat inzicht gegeven de afgelopen keer. Dat is nou juist het probleem. Dus als u het niet wil toezeggen en ons niet professioneel onderdeel wil maken van dat gesprek, dikke prima. Maar dan wil ik wel dat nu in ieder geval wordt toegezegd dat die schriftelijke stukken deze keer wel bij de begroting zitten. Het is geen onderdeel van een soort normale cyclus. Dat is het niet en daarom wil ik de toezegging: deze keer gaan we regelen dat u wel adequate stukken heeft, zodat u daar wel goed over kan oordelen, en dat zal dan deze begroting voor het eerst zijn. Dat is dan in ieder geval de minimale toezegging die we hier moeten krijgen. Anders kunnen wij nooit onderdeel worden van dat gesprek. Ik vind de vraag van mevrouw Koekkoek echt terecht.

Staatssecretaris Struycken:

Ik heb uitvoerig uiteengezet dat het een brede analyse vergt van de rol en de taken van de Autoriteit Persoonsgegevens en ook allerlei keuzes wat dat betreft. Ik heb al eerder, in reactie op mevrouw Koekkoek tijdens het debat over het rapport van de parlementaire enquêtecommissie, gezegd dat er thans geen aanleiding is te denken dat er een tekort is. Dat blijkt niet uit de overleggen die wij met de autoriteit hebben. Bij deze algemene observaties laat ik het. Ik ga geen concrete toezeggingen doen voor een schriftelijke brief.

De heer Vermeer (BBB):

Ik denk dat we hier wel iets aan de orde hebben wat dan nu zweeft. Het laatste wat mevrouw Kathmann zegt, is eigenlijk: dan maar geen brief, maar een duidelijke onderbouwing bij de begroting. Over het algemeen zijn de begrotingen niet op dat niveau onderbouwd. Kan de Staatssecretaris toezeggen dat dat bij de eerstvolgende begroting voor dit onderdeel wel het geval zal zijn? Dat maakt dan de brief wellicht overbodig. Alleen kunnen we dat pas beoordelen als we de begroting in huis hebben.

Staatssecretaris Struycken:

Dat is in essentie dezelfde vraag die mevrouw Kathmann stelde. Ik heb uitdrukkelijk gezegd dat ik op dit punt geen toezeggingen doe. Ik heb wel toegezegd in algemene zin ... Ik heb weergegeven dat ik goed kijk en kritisch meedenk, ook in de zin van: wat zijn de taken en wat voor geld is daarvoor nodig als het om de Autoriteit Persoonsgegevens gaat? Dat zal ook onderdeel zijn van hoe ik de Kamer daarover informeer. Wat de rol van de AP is, zal onderdeel zijn van het debat op 6 februari in algemene zin. Daar wil ik het bij laten.

De voorzitter:

Vervolgt u uw inbreng. Nog een kleine interruptie van mevrouw Kathmann. De laatste, want we zijn al over de interrupties heen. Dat geldt ook voor meneer Vermeer.

Mevrouw Kathmann (GroenLinks-PvdA):

Maar dit gaat gewoon over de orde, want eigenlijk vraagt de Kamer: we willen geïnformeerd worden. Eigenlijk zegt de Staatssecretaris: dat ga ik gewoon niet doen; ik heb een gesprek. Wij hebben gewoon een professionele baan. Omdat u gesprekken heeft in kamertjes waar wij niet bij zijn en waarover niet aan ons gerapporteerd wordt, kunnen wij ons werk niet doen. De Staatssecretaris zegt: dat komt dan als het komt. Als wij vragen of het bij de begroting komt, dan is het antwoord nee. Kan de Staatssecretaris in ieder geval aangeven bij welk debat we stukken kunnen verwachten? Het debat op 6 februari is in algemene zin; dan hebben we ook weer geen inzicht. Het is een hele normale vraag: kunt u de Kamer informeren, Staatssecretaris? Dat is echt een onderdeel van ons dagelijks werk en dat wordt hier gevraagd. Als er op deze vraag geen antwoord komt in een brief of bij de begroting – dan wordt er ook geen inzicht gegeven – dan staan wij open voor ieder moment dat het wel kan. Het is echt ... Sorry dat ik hier een beetje op aansla, maar de vraag is echt gewoon: wilt u de Kamer informeren? Dat is echt een no-brainer in dit huis.

De voorzitter:

Wilt u er nu op terugkomen of in de tweede termijn?

Staatssecretaris Struycken:

Misschien is het goed dat ik dat in de tweede termijn doe.

De voorzitter:

Dan wachten we even tot de tweede termijn en mag u uw betoog vervolgen. Een interruptie van mevrouw Koekkoek.

Mevrouw Koekkoek (Volt):

Ik wilde wachten tot de tweede termijn, maar ik denk dat het goed en fijn is als de Staatssecretaris dit ter reflectie meeneemt. Kijk, in de plenaire zaal werd gezegd «daar is thans nog geen aanleiding voor» en juist daar komt mijn vraag uit voort. Ik zou het misschien wel willen en het is niks persoonlijks richting de Staatssecretaris, maar ik kan het kabinet niet op de blauwe ogen geloven. Dat wil ik dus alvast meegeven, want dan hoef ik dat in mijn tweede termijn niet nog eens te benadrukken. Maar daar komt mijn verzoek vandaan. «Er is thans geen aanleiding voor.» Dat blijft tot nu toe de onderbouwing en de motivatie van het kabinet om te zeggen: wij zijn met gesprekken bezig, maar we gaan niet verder. De Kamer wil horen waarom dan «thans niet». Dat mag bij de begroting, als er daadwerkelijk een begroting is. Het kan ook eerder, want dan kan de Kamer ook meedenken over die taken. Daar komt die vraag dus vandaan. Dat wilde ik heel even verduidelijken, zodat we niet langs elkaar heen praten.

Staatssecretaris Struycken:

Voorzitter, zal ik daar dan nu op reageren? Mag ik daar dan nu op reageren?

De voorzitter:

Ja, daar mag u op reageren.

Staatssecretaris Struycken:

Daar waar het gaat om de taken onder de AVG, is er een rapport van KPMG. Dat heeft bandbreedtes bepaald voor de benodigde budgetten voor de uitoefening van die taak. Daar blijft het binnen. Dus het is in lijn met dat KPMG-rapport. Ik heb in dat Kamerdebat aangegeven dat het erop lijkt – zo leest de brief van de AP ook – dat het meer een prognose is van een gewenste invulling van taken in de komende tijd. De brief is geen reflectie van tekorten die nu bestaan. Dus de beschikbare budgetten doen voldoende, thans. De actuele status is dat de AP budget heeft, dat de AP nodig heeft voor in ieder geval de AVG-taken die haar zijn toegekend, zoals bepaald, berekend en beoordeeld door KPMG. Dat is wat ik heb bedoeld en ook thans weer herhaal, namelijk dat er geen aanleiding is om te denken dat de AP op dit moment niet voldoende budget heeft voor de taken die ze uitoefent.

De voorzitter:

Een verhelderende vraag.

Mevrouw Koekkoek (Volt):

Dank u wel voor deze opheldering. Dan is het eigenlijk goed dat we dit nu even doen als Kamer, want daar zit dan ook de zorg, denk ik. Ik sluit me op dat punt aan bij de woorden van mevrouw Kathmann, want er komen nieuwe taken aan. Dat weten we. Dan is de vraag welke we bij de AP beleggen en op welke manier. Dat gesprek loopt, maar dat moet eigenlijk gelijklopen met het inzicht voor de Kamer, omdat de Kamer daarover kan meebeslissen en ook goed geïnformeerd moet worden over financiële keuzes. Daarin zit ook de vraag. Want ik heb ook de constatering meegekregen van de rapporteurs: wij kunnen hier geen goede Digitale Zaken-begroting behandelen. Dit is dan wel een heel belangrijk onderdeel van wat we richting de Voorjaarsnota met elkaar moeten bespreken en waarover we aan deze kant van de zaal ook voldoende informatie moet krijgen.

Staatssecretaris Struycken:

Heel concreet zal de AI-verordening mogelijk leiden tot extra taken voor de Autoriteit Persoonsgegevens. In dat kader zal een begroting worden gemaakt en zal in overleg met de AP worden vastgesteld hoeveel budget ze daarvoor nodig heeft ter aanvulling op het bestaande budget. Van die analyse zal u uiteraard deelgenoot worden gemaakt. Voor die extra taak zal dat inzicht dus worden gegeven. De discussie ziet meer op het bestaande takenpakket en de overige in de toekomst gewenste of voorziene taken.

Wat het bestaande budget betreft heb ik verwezen naar KPMG. Wij hebben geen indicatie dat er thans onvoldoende geld beschikbaar is voor de taken die de Autoriteit nu heeft onder de AVG. Wat betreft die mogelijke taken in de toekomst en de invulling daarvan: ja, daar zitten die strategische keuzes in; dat is dat bredere debat over de visie op de rol van de AP naast andere instanties, daar waar het gaat om gegevensbescherming. Dus dat is een breder maatschappelijk debat. Dat begint bij dat bredere maatschappelijke debat over taken en rollen, en niet bij geld, want geld is dan een complement, een volgende fase. Dus we moeten eerst met elkaar vaststellen wat wij in Nederland graag willen dat de AP gaat doen. Dan kunnen we daarna spreken over hoeveel geld daarvoor nodig is, additioneel.

De voorzitter:

Ik denk dat dat een uitstekende verheldering is. Bent u daarmee aan het einde van de inbreng? O, ik zie dat er nog altijd vragen zijn bij mevrouw Kathmann en mevrouw Koekkoek. We zitten al ver over het aantal interrupties. We hebben ook nog maar een halfuur voor dit debat. Er is nog een aanvullende vraag van de heer Ergin.

De heer Ergin (DENK):

Ik heb nog één interruptie; ik probeer het even beet te pakken. Volgens mij zijn er een aantal dingen. De AP heeft zelf een berekening gemaakt en er is het KPMG-rapport, maar er is ook de vraag wat er nou wel klopt en logisch is aan de berekening van de AP. Dat is een analyse die ambtenaren op het departement standaard maken als ze iets zien. De vraag is of we die kunnen krijgen. We kunnen het nu, tijdens dit debat, aan de Staatssecretaris vragen. Dan kunnen we heel makkelijk zeggen: conform artikel 68 willen wij die informatie krijgen. Als de Staatssecretaris hier nee blijft verkopen, dan zegt hij eigenlijk tegen deze commissie «dien maar een Woo-verzoek in», want dan krijgen we die stukken alsnog. Maar volgens mij moeten wij die kant niet op gaan. Dus ik probeer de interrupties – volgens mij waren het er zes – even samen te vatten.

Er is een analyse van de AP, er is een rapport van KPMG, wellicht is er nog meer informatie binnen het departement, dus informeer ons daar nou over, want wij willen weten of de AP op dit moment, maar ook richting de toekomst, voldoende capaciteit heeft, zeker ook gelet op de ambities waar wij het vandaag over hebben. Iedereen wil dat er meer controle komt op algoritmen en de vraag is of dit voldoende is. Het zou toch heel raar zijn als de Kamercommissie de Staatssecretaris vraagt om geïnformeerd te worden, en de Staatssecretaris zegt: nee, op dat punt ga ik geen toezeggingen doen. Volgens mij is dat niet de bedoeling, voorzitter.

Staatssecretaris Struycken:

Ik heb vermeld dat de Autoriteit Persoonsgegevens zelf bezig is met een evaluatie. We gaan er maar even van uit dat dat kan doorgaan als een zbo-evaluatie. Het is een zbo – en zbo’s moeten evaluaties doen. Ze kiezen ervoor om zélf die evaluatie te doen, en dat zou een zbo-evaluatie moeten zijn. Dat zal nadere informatie opleveren. Daarnaast zijn er de reguliere gesprekken met de Autoriteit Persoonsgegevens. Ik kondigde u al aan dat wij uiteraard op die evaluatie zullen reageren. Die evaluatie zult u krijgen, bij mijn weten, en ook onze reactie daarop. Maar dat is onderdeel van een proces dat gaande is en dat in de komende maanden speelt.

Ik heb uiteraard gehoord dat uw Kamer goed geïnformeerd wil zijn. Uiteraard, zou ik zeggen. Maar laten we eerst die evaluatie afwachten. Op basis daarvan kunnen we opnieuw bezien wat er nodig is om daar een goede vaststelling van te maken. Nogmaals, dat KPMG-rapport is bij mijn weten een extern rapport. Ik heb niet eerder gehoord dat het KPMG-rapport niet meer leidend, niet meer juist, zou zijn. Op die basis herhaal ik nog een keer dat wij geen indicatie hebben dat ze tháns geen middelen hebben om de bestaande taken uit te kunnen voeren. Ik verval in herhaling, voorzitter.

De voorzitter:

Nog een verhelderende opmerking van mevrouw Kathmann?

Mevrouw Kathmann (GroenLinks-PvdA):

We zitten hier niet in een bedrijf een managementvergadering te houden. We zijn de Tweede Kamer. Een rapport van KPMG is dus een politiek document. Daar maakt iedereen een andere politieke afweging bij. Het is heel fijn dat we horen welke afweging de Staatssecretaris maakt en dat we te horen krijgen hoe het kabinet dit rapport interpreteert, maar dat betekent niet dat de hele Kamer dat ook vindt. Dat is gewoon onderdeel van het politieke debat. Daarom hebben wij de afwegingen nodig, de cijfers die eronder liggen, en ook de informatie van de AP zelf, zodat je dat politieke debat goed met elkaar kan voeren. Het zou wel een beetje gek zijn – want dan zouden we ons werk allemaal niet goed doen – als we zulke rapporten allemaal hetzelfde zouden interpreteren. Dat is nou juist de vraag.

Sorry, voorzitter, maar ik vind het gewoon een heel gek gesprek waar we nu in zitten. We zeggen letterlijk gewoon: informeer de Kamer. Zo’n KPMG-rapport is onderdeel van het debat. Het is niet zo dat als de Staatssecretaris zegt wat hij van dit rapport vindt, wij dan allemaal zeggen: ja, daar zij wij het helemaal mee eens.

Staatssecretaris Struycken:

Ik wil alleen maar zeggen dat het KPMG-rapport van enige tijd geleden gedeeld is met uw Kamer. Daar beschikt u dus over.

De voorzitter:

Nog een kleine verduidelijking van de heer Vermeer.

De heer Vermeer (BBB):

Ik vraag me af hoe we in deze discussie verzeild geraakt zijn en waar het vandaan komt dat we daar nu aan beide kanten geharnast in zitten. Als de Staatssecretaris niet wil dat wij hier al vooruitlopen op een interne discussie die hij nog met de AP gaat hebben en de Kamer dus om ruimte vraagt om dat op orde te krijgen, dan zou ik dat snappen. Maar als het punt gewoon is dat de Staatssecretaris die informatie eigenlijk niet wil geven of niet kan geven, snap ik dat eigenlijk gewoon niet helemaal. Ik vraag de Staatssecretaris dus of het een kwestie van timing is, gezien de gesprekken die hij nu aan het voeren is en het hele proces. Is de Staatssecretaris bang dat dat verstoord wordt? Want als het oordeel van de Staatssecretaris is dat er geen extra geld nodig is, maar dat men misschien op een andere manier moet werken, kunnen we het daar ook een keer over hebben, want het is niet zo dat geld alles oplost. Tenminste, dat is in ieder geval niet mijn visie. Misschien kan de Staatssecretaris dus iets beter duiden waarom hij hier geharnast in zit of waarom hij – dat voel ik gewoon zo – dit een lastige instelling vindt van de Kamer. Misschien kan hij een oproep doen en ons aangeven waarom hij liever heeft dat we ons even rustig houden.

Staatssecretaris Struycken:

Het is in het geheel niet de intentie om hier geharnast in te zitten. Sterker nog, ik heb vrij veel moeite genomen om u deelgenoot te maken van de wijze waarop wij hiermee bezig zijn en om u inzicht te geven in de bredere discussie die gaande is. De heer Vermeer verwoordt het veel beter dan ik, maar heeft hier misschien ook veel meer ervaring. Ik vraag u misschien inderdaad om de tijd te geven om de zelfevaluatie van de AP af te wachten. Dat is een zbo-evaluatie, die naar onze verwachting meer zicht geeft op de taken die de AP heeft en voor zichzelf ziet en op de daarvoor door de AP in haar eigen inschatting benodigde middelen. Dan kunnen wij daar ook over spreken om een nadere onderbouwing te krijgen van hoe de AP zelf de getallen koppelt aan haar bestaande of gewenste taken. Ik denk dus dat ik inderdaad om tijd vroeg om die evaluatie af te wachten, zodat we daar daarna met u verder over kunnen spreken.

De heer Vermeer (BBB):

Dank aan de Staatssecretaris voor zijn toelichting. Zou hij aan kunnen geven hoe hij die tijdlijn voor zich ziet, zodat wij niet op de verkeerde momenten ongeduldig worden?

De voorzitter:

Wanneer kan de Kamer een menukaart tegemoetzien?

Staatssecretaris Struycken:

Ik zei u al dat die evaluatie naar verluidt af is, maar we hebben haar nog niet gekregen. Ik kan dus niet helemaal goed inschatten of die evaluatie is wat u van ons verwacht bij een zbo-evaluatie. Dat maakt het wat lastiger. Ik kan er niet zonder meer van uitgaan dat we met die evaluatie hebben wat nodig is bij een zbo-evaluatie. Ik heb dus ook geen idee in hoeverre daarin de informatie staat die het mogelijk maakt om snel te reageren. Voor zover ik weet zal de AP de evaluatie zelf met u delen. Anders zullen wij dat doen. Dan kunnen we ook een betere indicatie geven van de termijnen waarop we met een reflectie daarop komen.

De voorzitter:

Ik denk dat we daarmee de beantwoording hebben waar we het mee mogen doen. Hebben we er wel een beetje zicht op wanneer dat gedeeld wordt door de AP of in ieder geval door u? Wordt dat Q2 of Q3?

Staatssecretaris Struycken:

Nog dit kwartaal, naar verluidt.

De heer Ergin (DENK):

Hebben we dan een toezegging?

De voorzitter:

Dat lijkt mij een toezegging.

De heer Ergin (DENK):

Voor het verslag.

Staatssecretaris Struycken:

Ik ben heel benieuwd hoe u die gaat verwoorden, maar dat horen we straks.

De voorzitter:

We proberen een mooie toezegging te formuleren. Ik neem aan dat u daarmee aan het einde van uw inbreng in de eerste termijn bent gekomen. Ik kijk even welke leden van de Kamer een tweede termijn willen. Dat geldt allereerst voor de heer Six Dijkstra.

De heer Six Dijkstra (NSC):

Dank u wel, voorzitter. Ik wil beide Staatssecretarissen bedanken voor hun beantwoording. Ik waardeer ook specifiek de lange overdenking die de Staatssecretaris van Justitie gegeven heeft over mensbeeld in relatie tot algoritmes.

Dan over algoritmes op orde brengen binnen de overheid. Ik twijfel er op geen enkele manier aan dat de Staatssecretaris DiZa dat op orde wil brengen. Ik zie die intentie. Tegelijkertijd blijft het ook steeds hangen in termen van «overheden aansporen», «inspannen» en «iedereen gaat zich registreren». Daarmee ben ik ook nog niet helemaal gerustgesteld wat betreft de inventarisatie die gaat plaatsvinden door het Netwerk van Publieke Dienstverleners. Dat is weer een uitvraag en het is niet bekend hoeveel hoge-impactalgoritmen er binnen de overheid zijn. De Algemene Rekenkamer constateert ook steeds: een kwart van de overheid weet niet eens in welke cloud die zit. We weten ook niet hoeveel AI-algoritmes er zijn en hoeveel andere soorten algoritmes er zijn. Het is een terugkerend thema. Ik wil de Staatssecretaris vragen om daar nog even op te reflecteren. Hoe kunnen we daar nou meer grip op krijgen zodat het iets minder vrijblijvend wordt allemaal?

Ik wil daarbij ook een vooraankondiging doen voor een tweeminutendebat. Dat is even afhankelijk van de beantwoording. Dan kunnen we het daar nog verder over hebben met elkaar.

Dank u wel.

De voorzitter:

Dank voor uw inbreng in tweede termijn. Dan is het woord aan de heer Ergin van DENK voor zijn tweede termijn.

De heer Ergin (DENK):

Voorzitter. Ik heb een aantal interessante zinsdelen tijdens dit debat genoteerd. «De Staatssecretaris gaat hulpmiddelen uitreiken aan medeoverheden.» «Aan de hand van de analyse gaat de Staatssecretaris kijken naar enzovoort.» De Staatssecretaris heeft aangegeven: u kunt deze vraag morgen stellen tijdens het debat. Hij heeft zelfs vragen doorgeleid naar de Minister van BiZa. «Hij gaat kijken naar enzovoort.» «Hij gaat het op het niveau van de ministerraad aan de orde brengen.» «Aansporen.» Al die termen zijn op zich prima en dragen bij aan meer bewustzijn en het aanpakken van uitdagingen, maar het is volstrekt te weinig in het licht van de grote uitdagingen die wij vandaag allemaal hebben geschetst. Wij komen allemaal van andere politieke partijen, maar over algoritmes hebben we allemaal een verhaal van: we moeten ervoor zorgen dat op z’n minst transparantie mogelijk is. Als transparantie mogelijk is, moeten we ook gaan bekijken hoe we extra waarborgen gaan inbouwen.

Ik heb het gevoel dat we dit debat niet heel veel zijn opgeschoten. Ik zou de beide Staatssecretarissen willen vragen om bij de aankomende commissiedebatten en activiteiten, zoals brieven, ook rekening te houden met het ongeduld van deze commissie. Dat vraag ik niet omdat wij kant-en-klare antwoorden willen tijdens debatten, maar we willen gewoon stappen maken. Die stappen worden al jarenlang niet gemaakt in deze commissie. Ik hoop dat bij het eerstvolgende debat met twee Staatssecretarissen, en misschien meer, ze zekerder zijn van de uitspraken die ze doen. Ze moeten niet ferme uitspraken doen die ze na vijf seconden weer moeten intrekken. Dat is de hoop die ik wil uitspreken. Ik wil tijdens het tweeminutendebat graag een aantal inhoudelijke moties indienen.

Dank u wel.

De voorzitter:

Dank voor uw bijdrage, meneer Ergin. Dan is het woord aan mevrouw Koekkoek van de partij van Volt.

Mevrouw Koekkoek (Volt):

Dank, voorzitter. Ik sluit me eigenlijk wel aan bij de woorden van collega Ergin. Ik heb heel veel gehoord. Er wordt verwezen naar later in de tijd, naar april, zomer, eind van het jaar, in sommige gevallen, en andere commissies, naar die van EZ en Binnenlandse Zaken, maar het idee van deze commissie was dat alles wat raakt aan digitalisering hier ook terugkomt. Waarom? Omdat de wereld heel snel digitaliseert. We hebben wat betreft algoritmes gezien hoe zwaar het mis kan gaan; daar komt denk ik ook het ongeduld van de Kamer vandaan. We hebben gezien dat we eigenlijk continu achter de feiten aanlopen, wat zowel kabinet als Kamer volgens mij zeer, zeer ongemakkelijk vindt.

De zorg die in ieder geval bij mezelf leeft, is dat je dat blijft behouden als we in dit tempo met elkaar blijven doorwerken. Daar zit voor mij ook de urgentie als Kamerlid om onderdeel te zijn van dit debat. Ik wil meepraten over de maatschappelijke taak van de AP en de bijbehorende keuzes, waar ook de financiën bij horen. We hebben ambities en willen daar ook de risico’s van ondervangen. Het mag namelijk niet nog een keer zo gruwelijk misgaan. Daar zit dus de urgentie. Dat is inderdaad een mooie oproep, namelijk of de Staatssecretarissen daar rekening mee kunnen houden. Maar op enig moment slaat de welwillendheid van de Kamer ook wel om, naar ongeduld, naar frustratie, naar «we gaan het afdwingen». Ik wil dat voorkomen, want op het moment dat je tegenover elkaar komt te staan, krijgen we helemaal geen «grote stappen, snel thuis». Dat moet juist wel bij dit onderwerp.

In dat kader heb ik één vraag die volgens mij nog open is blijven staan. Ik wil toch nog om een concreet antwoord daarop vragen. Ik heb namelijk gevraagd of we de algoritmes op zo’n manier openbaar kunnen maken dat wetenschappers en journalisten kunnen meekijken, en of dat ook de ambitie is van het kabinet. Dan heb je gewoon meerdere paren ogen. Je hebt de AP nodig. Je hebt een welwillend kabinet nodig. Maar je hebt ook andere buitenstaanders, experts, nodig die kunnen meekijken.

Daar wil ik het graag bij laten, voorzitter. Dank.

De voorzitter:

Dank voor uw inbreng in tweede termijn. Dan is het woord aan de heer Buijsse voor zijn inbreng in tweede termijn namens de VVD.

De heer Buijsse (VVD):

Dank u wel, voorzitter. Mijn aandacht ging in dit debat uit naar de ontwerpprincipes voor overheidsdiensten. De constatering die ik heb mogen doen, is dat er eigenlijk geen of heel weinig toezicht is vanuit het departement BZK. De Staatssecretaris heeft wel gezegd dat het strakker moet en dat er een intern netwerk is om daar veel beter en gestructureerder het gesprek over te voeren. Hij zei dat de NDS, de Nederlandse Digitaliseringsstrategie, eigenlijk een heel mooi podium is om dat te faciliteren. Hij heeft mij toegezegd na te denken over de mogelijkheid om dat via de NDS te doen, maar ik zou eigenlijk gewoon de toezegging willen dat hij in de NDS een of twee zinnen besteedt aan de ontwerpprincipes voor de digitale dienstverlening. Ik zou deze toezegging willen vragen van de Staatssecretaris.

Dank u wel.

De voorzitter:

Hartelijk dank voor uw bijdrage in tweede termijn. Dan geef ik het woord aan de heer Vermeer namens BBB voor zijn tweede termijn.

De heer Vermeer (BBB):

Voorzitter. We hebben nog een paar antwoorden tegoed in de tweede termijn, maar ik wil de Staatssecretarissen en alle mensen die naast en achter hen staan in ieder geval bedanken voor de antwoorden op de vragen. Eén ding is mij wel duidelijk: wij hebben nog een behoorlijke weg te gaan om alles goed, transparant, inzichtelijk en compleet te krijgen.

Ik denk wel dat het verstandig is – daar hadden we het daarstraks in de interruptie ook even over – dat er een moment komt waarop er gezegd wordt: datgene wat gewoon niet transparant en compleet beschikbaar is, mag gewoon niet meer ingezet worden. Maar hopelijk is dat niet nodig en lukt het de Staatssecretaris de boel snel op de rit te krijgen.

Dank u wel.

De voorzitter:

Heel hartelijk dank voor uw inbreng in tweede termijn. Ik geef het woord aan mevrouw Kathmann namens GroenLinks-Partij voor de Arbeid voor haar tweede termijn.

Mevrouw Kathmann (GroenLinks-PvdA):

Voorzitter. Ik wil ook de Staatssecretarissen bedanken voor de beantwoording en voor wat nog gaat komen. Ik bedank natuurlijk ook de mensen achter de schermen; heel goed, meneer Vermeer.

Ik vond het een mooie suggestie van Staatssecretaris Szabó om te kijken of we als commissie eens zo’n cursus kunnen doen. Ik zou ook een tegenvoorstel willen doen aan de Staatssecretaris. Ik hoop dat hij bekend is met De Toekomst Kamer, vroeger ook wel bekend als de Stichting Toekomstbeeld der Techniek. Die heeft een suggestie gedaan voor wat we kunnen verbeteren aan de Algoritmeregisters, omdat eigenlijk in alle stukken van de overheid over waarom we dat register willen, staat: het allerbelangrijkste doel is het vertrouwen terugwinnen.

Het gaat dus ook om het vertrouwen dat we de algoritmen die we gebruiken, kunnen vertrouwen. Maar hoe kunnen we dat vertrouwen als doelstelling hebben als maar 9% van de Nederlanders weet wat een Algoritmeregister is? Er gaat dus iets volledig mis. Zij hebben ook handreikingen gedaan, net als die andere organisaties met hun vijfsterrenmodel, waar de Staatssecretaris naar wil kijken. Ik hoop dat hij in gesprek wil met De Toekomst Kamer om te kijken hoe we mogelijk op een andere en betere manier die doelstelling van vertrouwen kunnen halen.

Voorzitter. Volgens mij hebben we voldoende gezegd over de AP – dit is echt afsluitend – maar ik denk dat dat ook echt komt doordat we het vandaag over nogal iets hebben. We hebben het over iets wat maar niet vlot en waar mensen in Nederland echt door vermorzeld kunnen worden en ook zijn vermorzeld. Het is traag, het gaat moeilijk en we weten allemaal dat het beter moet. De AP speelt daar tot nu toe in ieder geval een cruciale aanjagende rol in. We hebben al zo vaak aan de bel getrokken omdat we dat gesprek over de AP, die dus die belangrijke rol heeft, ook om dit vlot te trekken en op dit punt te signaleren om dit goed te krijgen, beter willen voeren. Toen zijn we al honderd keer van het kastje naar de muur gestuurd: nee, dan moet u bij de Staatssecretaris zijn, dan moet u bij JenV zijn of dan moet u bij dit of bij dat zijn. Als je dan nu met een soort voldongen feit zit en het idee hebt dat je weer niet geïnformeerd wordt, denk je op een gegeven moment: welke voortgang moeten we dan nog wel geloven? Dat zat me gewoon even hoog.

De voorzitter:

Hartelijk dank voor uw inbreng in de tweede termijn. Als voorzitter draag ik het voorzitterschap nu even over aan de heer Six Dijkstra, opdat ik zelf ook een inbreng kan leveren.

Voorzitter: Six Dijkstra

De voorzitter:

Het woord is aan de heer Valize namens de PVV voor zijn tweede termijn.

De heer Valize (PVV):

Voorzitter, dank voor het woord. Allereerst wens ik heel graag de organisatie, maar ook de Staatssecretarissen en de ambtelijke ondersteuning te bedanken. Ik bedank ook de collega’s voor hun uitstekende inbreng tijdens dit debat. Ik heb verder geen punten voor de tweede termijn. Wel zou ik, zoals gezegd, iedereen hartelijk willen danken.

De voorzitter:

Dank u wel. Ik geef het voorzitterschap bij dezen weer over aan u.

Voorzitter: Valize

De voorzitter:

Heel hartelijk dank voor het voorzitterschap, meneer Six Dijkstra. Ik kijk even naar rechts: hebben de Staatssecretarissen een korte schorsing van vijf à tien minuten nodig voor de beantwoording? We hebben nog wel even de mogelijkheid om wat uit te lopen. Ik overleg even. Ja, we kunnen nog een klein beetje uitlopen. Een schorsing van tien minuten is dus akkoord.

De vergadering wordt van 21.20 uur tot 21.29 uur geschorst.

De voorzitter:

Goedenavond allemaal. Welkom terug bij de commissie voor Digitale Zaken, bij het debat over de inzet van algoritmen en data-ethiek bij de rijksoverheid. We gaan naar de tweede termijn van het kabinet. Het woord is aan de heer Szabó, Staatssecretaris Digitalisering.

Staatssecretaris Szabó:

Dank u wel, voorzitter. Ik zal proberen zo goed mogelijk de vragen uit de tweede termijn te behandelen, evenals wat vragen uit de eerste termijn die er nog lagen.

Ik begin met de tweede termijn, met de vraag van de heer Six Dijkstra over de reflecties. Hij zei dat we op bepaalde dossiers minder vrijblijvend met elkaar moeten omgaan. Ik heb daar even over na zitten denken. U heeft in de Kamercommissie voor Digitale Zaken zelf een aantal hoofdthema’s, zoals inclusie en dat soort zaken. Wij hebben ook wat thema’s vanuit de Nederlandse Digitaliseringsstrategie. Het lijkt mij goed voor toekomstige debatten om te kijken of die goed op elkaar aansluiten. Niet voor niets heb ik u 4 november uitgenodigd met de benen op tafel om te kijken waar we op gaan lopen. Het moet goed passen, ook straks in de debatten, want als we resultaten willen zien op dossiers, moeten we dezelfde taal spreken. Die handreiking doe ik dus in ieder geval. Ik weet niet precies hoe we die discussie met uw commissie gaan voeren; daar moeten we even naar kijken.

DENK had het onder andere over transparantie en meekijken. Daar heeft Volt het ook over gehad. De vraag was of journalisten en wetenschappers ook kunnen meekijken bij algoritmes. Ja. We horen op dit moment al van wetenschappers dat ze veel met het Algoritmeregister bezig zijn. Dat vind ik belangrijk. Dat was ook een van de doelen. Het Algoritmeregister is ontwikkeld om ook te voldoen aan de informatiebehoefte van journalisten en wetenschappers. Dat heb ik in het debat ook aangegeven. In de doorontwikkeling van het register wordt ook de gebruikersbehoefte meegenomen. Het gaat dus niet alleen om wetenschappers en journalisten, maar ook om anderen die het register willen benaderen.

Dan de ontwerpprincipes, waar de VVD op is ingegaan. Ik heb al gepoogd toe te zeggen dat daarop wordt ingegaan in de Digitaliseringsstrategie, onder andere via standaardisatie, maar ik zal ook specifiek dit begrip benoemen. Het lijkt me namelijk wel verstandig voor de discussie dat iedereen aan het begin van de discussie weet waar de prioriteiten liggen. Standaardisatie zit natuurlijk ook in andere dossiers, maar dit is er zeker eentje van, want vanuit de architectuurgedachte past het niet om naast elkaar op verschillende manieren iets te ontwerpen. Sterker nog, we moeten meer regie voeren, dus ontwerpprincipes, van boven naar beneden, worden steeds belangrijker.

BBB had een vraag over transparantie voor burgers. Ja, helemaal mee eens.

De PvdA had het over een cursus aan de Kamer geven. Nee, het was niet zo dat ik u een cursus wilde geven; ik wilde u inzicht bieden in wat wij doen met onze ambtenaren. Ik heb begrepen dat mijn voorgangster – dat heb ik al eerder in de stukken gezien – ook naar De Toekomst Kamer keek. Als u dat wilt – misschien wil ik dat ook wel, maar daar ga ik nog één keer heel goed naar kijken, want het moet echt relevant zijn voor beide partijen – wil ik graag met ze in gesprek. Dat wordt dus opgepakt vanuit onze kant.

Dan nog wat additionele vragen uit de eerste termijn. De makkelijkste vraag is die van de heer Vermeer: hoe heet ook alweer die handreiking? Nou, meneer Vermeer, het wordt geen quizvraag. Die heet gewoon: Handreiking Algoritmeregister. Onder categorie A staan de maatregelen voor hoogrisicomodellen. We kunnen ’m ook opsturen als u wilt, als daar behoefte aan is.

Dan nog een vraag van de heer Ergin over de lijst die de Kamer heeft. Ik heb hier één A4’tje voor me, dus ik hoop dat ik alles heb. Die lijst is gedeeld. In de Kamerbrief van 2 december 2024 melden wij dat wij de aanbevelingen van de ADR allemaal oppakken. Dat zijn dus die eerste vier. En bij de vijfde waren we wat meer terughoudend, want daar ging het met name over de CIO Rijk die dan vooraan moest gaan lopen en zelf moest gaan kijken naar voortgang en resultatenrapportages. We hebben daarbij aangegeven dat we wel kunnen kijken of die rapportages eenduidig naar de Kamer kunnen komen. Ik ga zelf even kijken of we ook een eenduidig format hebben. Als dat niet zo is, ga ik alsnog dit laatste onderwerp zelf oppakken. Maar als het allemaal leesbaar is voor iedereen, dan laten we het zo.

De heer Ergin (DENK):

Wat moet ik verstaan onder «oppakken»? Betekent dat dat de Staatssecretaris ervoor gaat zorgen dat de tekortkomingen – ik heb er een paar genoemd, maar er zijn er veel meer – worden ...

Staatssecretaris Szabó:

Het gaat om de wijze van rapporteren naar de Kamer. De aanbeveling van de ADR was dat in het verlengde van het voorgaande kan worden overwogen dat vanuit de CIO Rijk de voortgang en resultaten worden gerapporteerd. Maar goed, iedereen rapporteert voor zichzelf. Maar als we dat moeten clusteren in begrijpelijk Nederlands, dan doe ik dat graag.

De heer Ergin (DENK):

De laatste vraag, voorzitter. De ADR constateert een aantal tekortkomingen, zoals dat bepaalde uitvragen niet zijn getoetst et cetera. Betekent het overnemen van de aanbevelingen ook dat die tekortkomingen in de komende periode wel worden opgepakt en worden weggewerkt, om het even zo te stellen?

Staatssecretaris Szabó:

De specifieke vraag van ons aan de departementen was of ze die tekortkomingen zelf oppakken. Dus dan ga ik er ook van uit dat die worden opgepakt en worden verwerkt.

Oké. Heb ik nog wat laten liggen, voorzitter? Ik kijk even naar de Kamerleden.

De voorzitter:

Er is een interruptie van de heer Six Dijkstra.

De heer Six Dijkstra (NSC):

Er stond nog een vraag van mij uit. De Staatssecretaris kwam met een heel kort antwoord op mijn verduidelijkingsvraag over hoe de inzet die nu gaat plaatsvinden voor de inventarisatie van algoritmes zich verhoudt tot de eerdere inzet van de Staatssecretaris, waarbij hij had gezegd: dat gaan we niet meer doen?

Staatssecretaris Szabó:

Dat had ook te maken met het verzoek van het lid Idsinga. Het lid Idsinga ging uit van het advies van de landsadvocaat. Uit het AP-advies blijkt dat selectie-instrumenten wel degelijk zijn toegestaan, mits aan een aantal waarborgen wordt voldaan. Op basis daarvan is zo’n inventarisatie niet nodig. Ik heb nog een laatste zin, meneer Six Dijkstra, als u mij toestaat. Om zicht te krijgen op de uitvoeringspraktijken gaat het NPD uitvoeringsorganisaties vragen om aan de hand van twee selectie-instrumenten per organisatie aan te geven hoe om wordt gegaan met de door de AP genoemde waarborgen. Op basis van de uitkomsten die ik u voor het eind van het jaar stuur, wil ik bekijken wat er nodig is om organisaties verder te ondersteunen bij het voldoen aan de waarborgen uit het AP-advies.

De voorzitter:

Een vervolgvraag van de heer Six Dijkstra.

De heer Six Dijkstra (NSC):

Ik wil het even helemaal afpellen. Om uiteindelijk te komen tot een lijst van algoritmes die al dan niet voldoen aan het advies van de AP, heb je toch zo’n inventarisatie nodig van algoritmes die volgens het advies van de landsadvocaat onwettig zouden zijn maar waarvan de AP nu zegt dat het mag onder bepaalde waarborgen? Dan kom je toch uiteindelijk bij dezelfde lijst met algoritmes uit, of zie ik dat verkeerd? In principe is dat dezelfde inventarisatie.

Staatssecretaris Szabó:

Klopt, het is gewoon een parallel traject.

De voorzitter:

Nog een verhelderende vraag van de heer Six Dijkstra.

De heer Six Dijkstra (NSC):

Dan begrijp ik niet helemaal waarom de regering in haar brief heeft aangegeven af te zien van die inventarisatie, als dit in principe hetzelfde is.

Staatssecretaris Szabó:

Dat ging over illegale praktijken en de AP zegt dat het geen illegale praktijken zijn.

De voorzitter:

We komen toch weer in een discussie terecht. De heer Six Dijkstra.

De heer Six Dijkstra (NSC):

Dat begrijp ik. Ik begrijp dat de omstandigheden anders zijn. Maar in principe is uiteindelijk de uitkomst hetzelfde, of niet? Zie ik dat verkeerd? Of heeft de Staatssecretaris nu eigenlijk nog meer werk, omdat hij nu ook in kaart moet brengen aan welke voorwaarden het voldoet? In plaats van een lijst te maken met enkel de algoritmes die onder de oude lezing van de AVG illegaal zouden zijn, zou hij nu dezelfde lijst moeten opstellen en daarbij ook nog aan moeten geven aan welke van de vijf waarborgen van de AP ze voldoen. Dat wil ik heel graag, maar in principe vindt die inventarisatie nog steeds plaats.

Staatssecretaris Szabó:

Het gaat om de menselijke tussenkomst en daar kijken we nu specifieker naar. Heb ik zo alle vragen beantwoord?

De voorzitter:

Ik zie in ieder geval nog een interruptie van de heer Vermeer.

De heer Vermeer (BBB):

Misschien heb ik niet goed opgelet, want ik kreeg een ander berichtje waar ik even mee bezig was; excuses daarvoor. Maar ik heb nog gevraagd of er een onderzoek loopt bij de Algemene Rekenkamer naar algoritmen en welke dat zijn.

Staatssecretaris Szabó:

Ik heb ’m te pakken, voorzitter. Ja, de Algemene Rekenkamer doet dit jaar onderzoek naar een beperkt aantal algoritmes als onderdeel van zijn verantwoordingsonderzoeken. Het is mij niet bekend op welk algoritme dit onderzoek zich het afgelopen jaar heeft gefocust. Ik kan dit uitvragen bij de Algemene Rekenkamer indien u dit wenst en u hierover informeren.

De voorzitter:

Dan heeft u nog een interruptie van ... O, nog een interruptie van de heer Vermeer.

De heer Vermeer (BBB):

En wanneer kan dat? Want dan kan dat goed opgenomen worden in de toezeggingen.

Staatssecretaris Szabó:

Wanneer we dat gaan uitvragen?

De heer Vermeer (BBB):

Nee, wanneer we het krijgen.

Staatssecretaris Szabó:

Ik ga het zo spoedig mogelijk uitvragen, morgenochtend 8.00 uur. Dan zal ik u daarna informeren over wanneer we de resultaten kunnen krijgen.

Mevrouw Kathmann (GroenLinks-PvdA):

De Staatssecretaris zou in de tweede termijn nog even terugkomen op het raadsel van het voldoen aan de AI Act. Als we de helft van de AI die we toepassen niet in beeld hebben en maar 2% van de algoritmes is geregistreerd, hoe weten we dan dat we voldoen aan de AI Act?

Staatssecretaris Szabó:

Organisaties hebben met dit als prioriteit specifiek naar de verboden AI-praktijken gekeken. Dit gaat dus om een beperkt aantal toepassingen. De volgende fase van de AI-verordening, de hoogrisico-AI-systemen en transparantieverplichtingen, gaat per augustus 2026 in.

Voorzitter, dan hoop ik alle vragen beantwoord te hebben.

De heer Ergin (DENK):

Ik heb nog een openstaande vraag over de AP, die naar de Nederlandse wetgeving heeft gekeken. Dat staat ook in het rapport, het advies, van de AP over geautomatiseerde algoritmes. Maar tegelijkertijd hebben we ook het SCHUFA-arrest, waarin een Europese rechter de definitie vrij strikt heeft genomen. De Staatssecretaris zou daar in tweede termijn op terugkomen. Ik zie hem vragend kijken. Ik vind het ook prima als ik hier een schriftelijke reactie op krijg, maar ik wil die analyse, die ik inmiddels al twee keer heb geschetst, graag zien van de Staatssecretaris.

Staatssecretaris Szabó:

Het antwoord ligt nu niet op mijn bureau, dus u krijgt van mij een schriftelijk antwoord.

De voorzitter:

Op welke termijn?

Staatssecretaris Szabó:

Niet morgenochtend 8.00 uur. Ik hoor hier «Q1». Dat loopt af, dus dat is dan binnen twee maanden, denk ik.

De heer Ergin (DENK):

Voorzitter, kunnen we gewoon de gebruikelijke termijn aanhouden voor de beantwoording van een schriftelijke vraag, volgens mij drie weken, in plaats van dat het twee maanden duurt voordat ik een antwoord krijg op een vraag?

Staatssecretaris Szabó:

In de geest van dit debat en onze toekomstige samenwerking kan ik dit toezeggen.

De voorzitter:

Dat lijkt me een mooie toezegging aan de heer Ergin. Het woord is aan de Staatssecretaris van Justitie en Veiligheid, de heer Struycken, voor zijn tweede termijn.

Staatssecretaris Struycken:

Voorzitter. Ik hecht eraan u allen te danken, en mevrouw Kathmann in het bijzonder voor haar opmerkingen aan het end. Zij bracht terecht naar voren dat we allemaal voor ogen moeten houden dat de AP een buitengewoon belangrijke rol vervult in onze samenleving, juist op het vlak van gegevensbescherming. Dat onderschrijf ik volledig. We moeten een constructieve dialoog met elkaar en met de AP hebben over hoe we die rol verder kunnen vormgeven. Een van de adviezen van de AP is juist vandaag buitengewoon belangrijk. Dat stond op de agenda. Daaruit blijkt het grote belang van de AP. Wat mij betreft bestaat daar geen misverstand over.

Voor het overige dank ik u dat ik hier in deze commissie aanwezig mocht zijn.

De voorzitter:

Dan kijk ik naar mijn linkerzijde. Ik zie dat er verder geen onbeantwoorde vragen zijn. Dan dank ik de Staatssecretarissen voor de beantwoording in de tweede termijn, en dan zal ik nog even kort recapituleren. Wij hebben een aantal toezeggingen. Het eerste punt is dat de heer Six Dijkstra een tweeminutendebat heeft aangevraagd. Vervolgens hebben we enkele toezeggingen.

− De Staatssecretaris Digitalisering en Koninkrijksrelaties informeert de Kamer voor april 2025 per brief over de motie-Omtzigt/Six Dijkstra inzake een wetenschappelijke standaard voor modellen en algoritmes die afdwingbaar, openbaar en navolgbaar zijn, en de Staatssecretaris zal in deze brief tevens ingaan op het vijfsterrenmodel voor algoritmes.

Staatssecretaris Szabó:

Dat klopt, voorzitter.

De voorzitter:

Dank u wel voor de bevestiging. Dan hebben we nu nog:

− De Staatssecretaris Digitalisering en Koninkrijksrelaties verwacht de Kamer voor het eind van 2025 te informeren over de analyse van de casuïstiek bij het Netwerk van Publieke Dienstverleners.

Staatssecretaris Szabó:

Dat klopt inderdaad.

De voorzitter:

Dank u wel. Dan hebben we:

− De Staatssecretaris Digitalisering en Koninkrijksrelaties zegt toe dat de Kamer op Verantwoordingsdag 2025 middels een Jaarrapportage Bedrijfsvoering Rijk wordt geïnformeerd over het vullen van het Algoritmeregister.

Staatssecretaris Szabó:

Klopt, voorzitter.

De voorzitter:

Dan hebben wij de toezegging:

− De Staatssecretaris Digitalisering en Koninkrijksrelaties zegt toe de Kamer eind Q1, begin Q2 te informeren over de vraag van het lid Koekkoek aangaande de motiveringsplicht in de herziene Awb.

Staatssecretaris Szabó:

Klopt, voorzitter.

De voorzitter:

Dan hebben we:

− De Staatssecretaris Digitalisering en Koninkrijksrelaties zegt toe dat in de Nederlandse Digitaliseringsstrategie de term «ontwerpprincipes» zal worden meegenomen. Dat is naar aanleiding van een vraag van de heer Buijsse van de VVD.

Staatssecretaris Szabó:

Klopt.

De voorzitter:

Dank u wel.

− De Staatssecretaris Digitalisering en Koninkrijksrelaties zegt toe bij de Algemene Rekenkamer te inventariseren over de onderzoeken over algoritmes, en zal de Kamer nader informeren over de uitkomsten hiervan. Dat is naar aanleiding van de vragen van het lid Vermeer van de BBB.

Staatssecretaris Szabó:

Klopt.

De voorzitter:

Dank u wel.

− De Staatssecretaris Digitalisering en Koninkrijksrelaties zegt toe binnen drie weken nog schriftelijk terug te komen op de opgevraagde analyse, zoals benoemd door het lid Ergin van DENK.

Staatssecretaris Szabó:

Klopt.

De voorzitter:

Dank u wel.

− De Staatssecretaris Rechtsbescherming zegt toe een schriftelijke reactie met de Kamer te delen op het genoemde artikel van Follow the Money inzake Preselect Recidive voor het debat Bescherming persoonsgegevens en digitale grondrechten op 6 februari aanstaande.

Ik zie de Staatssecretaris knikken. Dank u wel.

− En de Staatssecretaris Rechtsbescherming zegt toe dat zodra de zelfevaluatie van de Autoriteit Persoonsgegevens gereed is, en dat is naar verwachting eind Q1, de Staatssecretaris spoedig daarna een reactie hierop met de Kamer zal delen.

Dan zie ik verder geen op- en aanmerkingen. Ik dank iedereen voor het mooie debat dat we hebben gevoerd. Ik dank ook iedereen voor de aanwezigheid en de beantwoording van de vragen. Ik sluit het debat bij dezen.

Sluiting 21.47 uur.