[overzicht] [activiteiten] [ongeplande activiteiten] [besluiten] [commissies] [geschenken] [kamerleden] [kamerstukdossiers] [🧑mijn] [open vragen]
[toezeggingen] [stemmingen] [verslagen] [🔍 uitgebreid zoeken] [wat is dit?]

Verslag van een commissiedebat, gehouden op 17 april 2024, over inzet algoritmes en data-ethiek

Informatie- en communicatietechnologie (ICT)

Verslag van een commissiedebat

Nummer: 2024D16636, datum: 2024-07-11, bijgewerkt: 2024-08-20 09:07, versie: 5

Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (kst-26643-1209).

Gerelateerde personen:

Onderdeel van kamerstukdossier 26643 -1209 Informatie- en communicatietechnologie (ICT).

Onderdeel van zaak 2023Z13551:

Onderdeel van activiteiten:

Preview document (🔗 origineel)


Tweede Kamer der Staten-Generaal 2
Vergaderjaar 2023-2024

26 643 Informatie- en communicatietechnologie (ICT)

Nr. 1209 VERSLAG VAN EEN COMMISSIEDEBAT

Vastgesteld 11 juli 2024

De vaste commissie voor Digitale Zaken en de vaste commissie voor Financiën hebben op 17 april 2024 overleg gevoerd met mevrouw Van Huffelen, Staatssecretaris Koninkrijksrelaties en Digitalisering, en de heer Van Rij, Staatssecretaris Fiscaliteit en Belastingdienst, over:

de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 24 mei 2023 inzake toezicht in het digitale domein (onder andere op AI en algoritmes) (Kamerstuk 26 643, nr. 1029);

de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 9 juni 2023 inzake voortgang ROB-adviesrapport Sturen of gestuurd worden? Over de legitimiteit van sturen met data (Kamerstuk 26 643, nr. 1034);

de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 7 juli 2023 inzake verzamelbrief algoritmen reguleren (Kamerstuk 26 643, nr. 1056);

de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 21 december 2023 inzake opschaling algoritmetoezichthouder (directie Coördinatie Algoritmes bij de AP) (Kamerstuk 26 643, nr. 1110);

de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 18 maart 2024 inzake kabinetsreactie op artikel Follow the Money inzake risicomodellen (Kamerstuk 26 643, nr. 1146);

de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 9 april 2024 inzake uitstel toezending reactie op verzoek van het lid Idsinga, gedaan tijdens de regeling van werkzaamheden van 19 januari 2024, over een lijst van alle algoritmen die mogelijkerwijs illegaal zijn (Kamerstuk 26 643, nr. 1150).

Van dit overleg brengen de commissies bijgaand geredigeerd woordelijk verslag uit.

De fungerend voorzitter van de vaste commissie voor Digitale Zaken,
Kathmann

De fungerend voorzitter van de vaste commissie voor Financiën,
Tielen

De griffier van de vaste commissie voor Digitale Zaken,
Boeve

Voorzitter: Kathmann

Griffier: Boeve

Aanwezig zijn acht leden der Kamer, te weten: Van Baarle, Kathmann, Krul, Meulenkamp, Six Dijkstra, Valize en Van der Werf,

en mevrouw Van Huffelen, Staatssecretaris Koninkrijksrelaties en Digitalisering, en de heer Van Rij, Staatssecretaris Fiscaliteit en Belastingdienst.

Aanvang 10.00 uur.

De voorzitter:

We gaan starten met het commissiedebat Inzet algoritmes en data-ethiek. Welkom aan al mijn collega’s van de Tweede Kamer en een bijzonder welkom aan de twee bewindspersonen: Staatssecretaris van Financiën Van Rij en Staatssecretaris Van Huffelen. Gezien de tijd die we hebben en het aantal Kamerleden denk ik dat we kunnen starten met denken dat vier interrupties in tweeën gaat lukken. En het zou mooi zijn als iedereen het een beetje kort wil houden.

Het woord is aan de heer Six Dijkstra van NSC.

De heer Six Dijkstra (NSC):

Dank u wel, voorzitter. Het Hof van Justitie van Europa heeft onlangs geoordeeld dat geautomatiseerde kredietscores strijdig zijn met artikel 22 van de AVG, het verbod op automatische besluitvorming. De landsadvocaat heeft naar aanleiding daarvan geadviseerd dat het gebruik van niet-transparante risicoprofielen via algoritmen zonder onderliggende wetgeving hoogstwaarschijnlijk illegaal is, omdat burgers daardoor rechtsbescherming missen. De gevolgen van deze uitspraak zijn dus behoorlijk verstrekkend. Geautomatiseerde risicoprofielen zijn, zonder wettelijke grondslag, verboden. Delen de staatssecretarissen die conclusie?

Ik zou graag van de Staatssecretaris Digitalisering willen weten hoeveel overheidsdepartementen er nog meer gebruik maken van algoritmen en selectiemethodes die op basis van dat advies mogelijk in strijd zijn met de AVG op dat punt. Mijn collega Idsinga heeft daarom ook het verzoek gedaan om een lijst met potentieel onrechtmatige algoritmen naar de Kamer te sturen. Daar is inmiddels een uitstelbrief op gekomen. Op welke termijn, vraag ik aan de Staatssecretaris, kunnen we die lijst verwachten?

De echte vraag is of wij als parlement de gevolgen van die uitspraak overzien. Want als we de conclusie kunnen trekken dat niet-transparante risicoprofielen zonder wettelijke grondslag in strijd zijn met de AVG, dan moeten er of een hoop algoritmen uit gebruik genomen worden of moet er een hoop nieuwe wetgeving komen. Laten we het dan ook grondig aanpakken. Een wettelijke versteviging van overheidsalgoritmen lijkt ons namelijk hard nodig. Is de Staatssecretaris dat met ons eens?

Het debat dat wij hier als Kamer doorgaans voeren over de wenselijkheid en wetmatigheid van algoritmen, is altijd achteraf, als er iets misgaat en er mensen in de verdrukking komen. Mijn fractie vindt er best wat voor te zeggen dat nieuwe, impactvolle algoritmen die persoonsgegevens verwerken bijvoorbeeld niet alleen in het Algoritmeregister vastgelegd worden, maar ook, bijvoorbeeld via een voorhangprocedure van wetgeving, langs de Staten-Generaal gaan. Dat zodat de Tweede Kamer ze aan de voorkant kan inzien en we er, indien nodig, een debat over kunnen voeren, want dan zijn algoritmen écht democratisch geborgd. Hoe kijkt de Staatssecretaris daartegen aan?

Dan wil ik het graag nog even hebben over het Implementatiekader voor de Inzet van Algoritmen, het IKA. De Staatssecretaris heeft de Kamer een flinke lijst gestuurd van de normen en maatregelen waaraan binnen de overheid voldaan moet worden om algoritmen met een grote impact in te zetten. Laat ik vooropstellen dat ik de inzet van de Staatssecretaris om grip te krijgen op algoritmen binnen de overheid waardeer. Dat willen we volgens mij allemaal, ook in deze Kamer. Zie ook alle moties die op dit vlak de afgelopen jaren zijn ingediend. Vorige maand is na het DUO-debat ook een motie aangenomen over een verplichte algoritme-apk. Ik sluit niet uit dat er bij het volgende algoritmeschandaal weer een stapeltje kaders bovenop komt. Het is allemaal sympathiek en natuurlijk goedbedoeld, maar ik ben wel een beetje bang dat we door de bureaucratische bomen het bos niet meer zien en dat we hier goed gedrag willen afdwingen met regeldruk.

Eerder zagen we bij de Belastingdienst, het UWV, de gemeente Rotterdam en DUO namelijk dat het volstrekt duidelijk was dat de algoritmen die ingezet werden om fraude mee op te sporen, niet rechtmatig waren of – laat ik het helder verwoorden – dat ze regelrecht discrimineerden. Vaak was het probleem ook niet dat dat niet tijdig gesignaleerd werd, maar dat de verantwoordelijke personen gewoon alle waarschuwingen in de wind sloegen en vrolijk doorgingen met de inzet. Het is in zo’n geval een kwestie van slecht bestuur. Mijn oprechte vraag aan de Staatssecretaris is of de huidige beleidskaders voor alle departementen werkbaar zijn. Kunnen alle grote problemen die binnen de overheid rondom algoritmen spelen, niet veel beter aangepakt worden door vast te houden aan een paar kernachtige principes en aan gewetensvol bestuur, in plaats van met een heel groot IKA met IAMA’s en alles wat daarbij komt kijken? Ik noem principes als «houd je aan de Grondwet en aan de AVG», «wees transparant richting burgers» en «zorg voor goed toezicht». Ik heb wat toezicht betreft overigens liever een sterke, goed geëquipeerde Autoriteit Persoonsgegevens met echte doorzettingsmacht, dan al die dure externe consultancybureaus die door de persoonlijke data van burgers moeten spitten.

Mijn laatste vraag stel ik mede namens de ChristenUnie. Hoe staat het met de uitvoering van de aangenomen motie-Leijten/Ceder over het uitwerken van meer samenhang tussen verschillende waardekaders?

Voorzitter. Ik rond af. Ik geloof in de schoonheid van eenvoud. Ik weet dat ik hier de strijd met de onverbiddelijke tijdsgeest aanga, maar misschien wordt het tijd om eens van het dogma af te stappen dat de overheid altijd en overal maar meer data driven moet zijn. Niet alles wat kan, moet ook. Want daar waar het de verwerking van persoonsgegevens betreft, delven meer dan eens de personen achter de gegevens het onderspit.

Dank u wel.

De voorzitter:

U heeft een interruptie van de heer Van Baarle van DENK.

De heer Van Baarle (DENK):

Dat klopt. Ik dank de heer Six Dijkstra voor zijn inbreng. Ik vraag me wel af hoe ik zijn inbreng exact moet wegen. Hij heeft het over het dilemma tussen, aan de ene kant, de noodzaak tot het scheppen van normen en, aan de andere kant, het niet doorslaan in een woud van regelgeving. Hoe moet ik dat nou zien? Bepleit de heer Six Dijkstra namens NSC dat we de zaken die we met elkaar in gang hebben gezet, namelijk het vastleggen van normen, in algemenere termen zouden moeten gaan uitvoeren? En bepleit hij dus dat je de goede praktijkstappen die je kan doorlopen om zaken non-discriminatoir te maken, niet moet vastleggen? Ziet hij liever dat algemene principes worden vastgelegd? Of begrijp ik het dan verkeerd?

De heer Six Dijkstra (NSC):

Ik dank de heer Van Baarle voor zijn vraag. Het punt dat ik wilde maken, is dat wanneer er een volgend algoritmeschandaal is, we soms als Kamer in de reflex kunnen schieten dat er een hele lijst moties komt met nieuwe maatregelen die moeten worden getroffen. Hierdoor gaat de samenhang soms nog weleens verloren.

Laat ik vooropstellen: non-discriminatoire eigenschappen van algoritmes lijkt mij een basisprincipe, een principe waar we ons altijd aan moeten houden. Mijn oprechte vraag aan de Staatssecretaris is: is die samenhang er nog wel, met alle moties die er zijn geweest, en alle extra kaders? Dat is mijn vraag. Is het niet makkelijker om het te versimpelen? Mijn punt is ook dat, wanneer er een nieuw overheidsschandaal rondom algoritmes is, ik me afvraag of dat wel wordt geconstateerd. Is er wel een functionaris gegevensbescherming of iemand anders die aangeeft dat er wordt gediscrimineerd? En is het probleem dat daar niet naar geluisterd wordt? Het lijkt mij dat daar de bottleneck zit en dat we ervoor moeten oppassen om niet meer kaders en meer regeldruk in te voeren daar waar eigenlijk een vereenvoudiging en goed toezicht het echte probleem zouden moeten oplossen?

De voorzitter:

En u heeft een interruptie van de heer Krul van het CDA.

De heer Krul (CDA):

Ik dank de heer Six Dijkstra voor zijn betoog en ik stel eerst een open vraag. Ik ben heel erg benieuwd hoe de heer Six Dijkstra naar het begrip «goed toezicht» kijkt. Hoe zou de heer Six Dijkstra bijvoorbeeld het belang van fraudeopsporing en de toezichthoudende functie die de overheid hoort te hebben wegen? Dit vraag ik ook in het licht van deze uitspraak van het Hof waar ik zelf ook uitgebreid op terug zal komen, omdat het ook gewoon kan betekenen dat we beslisregels die misschien helemaal niet zozeer algoritmisch zijn, straks ook niet meer kunnen gebruiken. Hoe weegt de heer Six Dijkstra dan de rol als het gaat om gewoon fraudeopsporing?

De heer Six Dijkstra (NSC):

Ik hoor twee vragen, een over toezicht en een over fraudeopsporing. Dat zijn natuurlijk wel twee andere dingen. Als het gaat om toezicht, vind ik het goed dat de Autoriteit Persoonsgegevens tegenwoordig een afdeling heeft die specifiek ziet op algoritmes. Tegelijkertijd zal fraudeopsporing in enige mate moeten plaatsvinden en dat kan niet altijd handmatig. Dus ik denk dat we er niet aan ontkomen dat we in sommige gevallen algoritmes gaan inzetten. Het Hof heeft geoordeeld dat dat zonder stevige wettelijke basis niet mag. Dus ik zou zeggen: laten we die wettelijke basis verstevigen. Laten we ervoor zorgen dat we met z’n allen de kaders afstellen voor de algoritmes die wel worden ingezet en die enige impact hebben op de rechtszekerheid of de rechtsbescherming van burgers en dat we daar ook goed op kunnen controleren via een toezichthouder en via transparantie richting de burgers. Mijn vraag zou ook zijn, kan dat misschien met een rol voor de Kamer via een voorhangprocedure?

De heer Krul (CDA):

Een vervolgvraag. Dus als ik het goed begrijp zegt de heer Six Dijkstra, bijvoorbeeld als het gaat om geautomatiseerde besluitvorming bij fiscale gegevens, die eigenlijk gewoon nodig zijn om op een goede manier fraude te kunnen opsporen: ja, dat is gewoon nodig. Dat is dan niet datgene waar het in zijn betoog om gaat. Dat is wel een grote zorg die ik heb. Als ik het SCHUFA-arrest goed lees, lijkt het namelijk dat ook dat binnen die geautomatiseerde besluitvorming valt. Dat lijkt mij een onwenselijke situatie.

De heer Six Dijkstra (NSC):

Hoe ik de uitspraak lees – ik ben dan ook wel benieuwd naar de duiding van de staatssecretarissen – is dat het voornamelijk ligt aan een gebrek aan additionele wetgeving boven op de AVG die dit zou moeten toestaan, omdat die automatische besluitvorming an sich in strijd is met de AVG. Ik denk niet dat we naar een situatie toe moeten waarin elk geval handmatig moet worden getoetst. Ik denk dat we af en toe wel wat kritischer mogen zijn op waar we wel of niet algoritmes voor inzetten. Maar daar kan ik in het geval van de Belastingdienst nu, op deze afstand, geen uitspraak over doen. Ik kan wel zeggen dat we een goede wettelijke borging moeten hebben voor datgene dat we wel doen.

De voorzitter:

Een interruptie van mevrouw Van der Werf.

Mevrouw Van der Werf (D66):

Ik hoorde dat collega Six Dijkstra het had over die procedure bij algoritmes bij de overheid via een voorhangprocedure. Ik snap die gedachtegang, maar er zitten natuurlijk ook risico’s aan, zeker als je bijvoorbeeld bij toeslagen kijkt, waarbij de druk natuurlijk ook vanuit de politiek heel erg is opgevoerd. Zou je dat dan niet opensource willen maken, zodat meerdere experts mee kunnen kijken en je minder gevoelig bent voor de politieke wind die er waait?

De heer Six Dijkstra (NSC):

Dat is een interessante vraag. Ik denk dat het en-en is. Als ik open source interpreteer als transparant vastleggen, dus een Algoritmeregister, is het antwoord ja. Maar tegelijkertijd zou ik denken: als er een nieuw algoritme in werking treedt dat grote impact heeft op burgers omdat het persoonsgegevens verwerkt of omdat het enige profilering van burgers teweegbrengt, moeten we daar ook een debat over kunnen voeren. Ik zeg niet dat we elke keer dat er een nieuw algoritme komt, een debat moeten aanvragen, maar in sommige gevallen zal het kunnen gebeuren dat we denken «dit is kritiek en dit is iets waarover je in elk geval het debat zou willen voeren» en dat we dat dan samen doen. Bij voorhang is het ook niet zo dat je noodzakelijkerwijs over alles een debat voert, maar dat dat debat er wel komt wanneer je dat aanvraagt.

De voorzitter:

Een vervolgvraag van mevrouw Van der Werf.

Mevrouw Van der Werf (D66):

Voorzitter, ik wil eigenlijk met mijn inbreng beginnen.

De voorzitter:

O, ik dacht dat u een vervolgvraag had. Dan is het woord aan u, mevrouw Van der Werf.

Mevrouw Van der Werf (D66):

Voorzitter. Ik vond het een antwoord waar ik mee kan leven, dus ik was de volgende in de rij.

When you invent the ship, you also invent the shipwreck, aldus de Franse filosoof Paul Virilio. Aan die uitspraak moest ik denken in het kader van generatieve AI. We hebben een schip uitgevonden waar we ontzettend veel nieuwe dingen mee kunnen. Dat biedt enorme mogelijkheden waar we de vruchten van moeten plukken. Maar het heeft ook slechte gevolgen. Daar moeten we als politiek maatregelen voor treffen, bijvoorbeeld voor het verhogen van het bewustzijn van mensen over wat mag en wat niet mag met het gebruik van AI. Terwijl de één via deepfake een leuk dansfilmpje maakt van een politicus, proberen criminelen moedwillig mensen op te lichten en af te persen met andere deepfakes. Gelukkig is dat strafbaar, net zoals niet iedereen misschien doorheeft dat Chat GPT artikelen met auteursrecht citeert. Er zijn natuurlijk regels verbonden aan het gebruik daarvan. Kan de Staatssecretaris daarop reflecteren? Wat is nodig om ervoor te zorgen dat particulieren deze kansen en gevaren goed gaan begrijpen? Want dit wordt niet alleen gebruikt in het bedrijfsleven; iedereen gaat hiermee aan de haal.

Onze wetten en regels lopen online mateloos achter in vergelijking met de fysieke wereld. Dat is ook al vaak voorgekomen in debatten over veiligheid. Daarom is het belangrijk om onze weerbaarheid te vergroten. Ik zag onlangs een onderzoek van Humo, waarin een journalist liet zien dat hij met een nieuw TikTokaccount binnen vier likes een fuik werd ingetrokken van extreem gewelddadige inhoud. Een ander onderzoek laat zien dat juist eenzame jongens vrouwonvriendelijke Andrew Tate-achtige content krijgen voorgeschoteld. Ondanks dat de AI Act in elk geval transparantie zal vereisen over dit soort algoritmes, is het vooral in ons belang dat we ons weerbaarder maken tegen de werking hiervan, zeker als het gaat om kwetsbare jongeren en kinderen.

Wat is de volgende stap na die AI Act? Hoe gaan we van transparantie naar ingrijpen tegen zaken als radicalisering en polarisering, vraag ik de Staatssecretaris. En in hoeverre wordt er bijvoorbeeld binnen de AI Act uitvoering gegeven aan de aangenomen motie van D66 en de VVD om ontwrichtende algoritmes te verbieden?

Voorzitter. Dat vraagt ook om wat meer hygiëne bij onze eigen algoritmes. Er is het Algoritmeregister dat inzichtelijk moet maken hoe de algoritmes van de overheid werken, maar dit heeft geen verplichtend karakter. Algoritmes over bijvoorbeeld opsporing en criminaliteitsbestrijding zijn uitgesloten. Dat is niet onlogisch, maar er zit natuurlijk wel een spanning achter. Deze algoritmes zorgen er bijvoorbeeld voor dat de flitspaal de foto van het kenteken koppelt. Dat zijn natuurlijk niet de meest risicovolle algoritmes, maar juist de algoritmes die bijvoorbeeld over impactvolle beslissingen gaan, zou je op een goede manier moeten en willen uitleggen. Kan de Staatssecretaris hierop ingaan?

Ten slotte, voorzitter. Ik begon mijn verhaal met de kansen die AI ons te bieden heeft. Daar zou ik ook mee willen eindigen. Het bedrijfsleven past AI al volop toe om het werk sneller, efficiënter en leuker te maken. Als AI ons saaie administratieve taken uit handen kan nemen, houden we meer uren over voor het uitdagende werk. Toch blijft de inzet ervan binnen de overheid, bijvoorbeeld zeker bij gemeenten, nog heel erg beperkt. Hoe mooi zou het zijn als een ambtenaar de tijd die hij of zij moet steken in het schrijven van standaardbrieven, kan steken in het helpen van een burger die klem is komen te zitten en die de gemeente om hulp vraagt? Ik hoor graag een reactie van de Staatssecretaris en ik ben benieuwd of zij met ons erover kan meedenken wat hier mogelijk is.

De voorzitter:

Ik zie geen interrupties. Dan is het woord aan de heer Valize van de PVV.

De heer Valize (PVV):

Voorzitter, dank voor het antwoord. Mijn inbreng is ditmaal niet zo groot. Ik heb slechts drie onderwerpen: het implementatiekader van het algoritme, de voortgang van het Algoritmeregister en de opschaling van de algoritmetoezichthouder. Het eerste onderwerp is dus het IKA. Dit is ontwikkeld op verzoek van de Kamer met als doel om overheden te ondersteunen bij de verantwoorde inzet van algoritmes. We lezen in de brieven dat het een levend document is dat verder doorontwikkeld zal worden. Het IKA is in lijn gebracht met belangrijke onderwerpen die mede de basis hebben gevormd voor de AI-verordening, de AI Act, die er inmiddels ook door is. Vandaar de volgende vragen aan de Staatssecretaris. In hoeverre is het IKA nu bekend? Weten de departementen ervan en hoe zijn de ervaringen in het veld? Ook wil de PVV graag weten of de AI Act, nu die een feit is, nog verder gaat dan het IKA en, zo ja, op welke punten? Maar dit geldt ook omgekeerd: gaat IKA ergens verder op in dan de AI Act?

Voorzitter. Dan de voortgang van het Algoritmeregister. De Kamer heeft gevraagd om de publicatie van algoritmes van de overheid te verplichten. De Staatssecretaris schreef in de verzamelbrief Algoritmen reguleren en in de brief Opschaling algoritmetoezicht dat ze er niet voor heeft gekozen om registratie te verplichten omdat zij dit in samenhang wil bezien met de definitieve tekst van de AI Act. De PVV wil duidelijk stellen dat wat in Europa speelt, geen beweegreden is of kan zijn om geen gehoor te geven aan een oproep van de Kamer. Dat gezegd hebbende wil de PVV nu graag van de Staatssecretaris vernemen hoe zij, nu de AI-verordening er is, gehoor zal geven aan deze oproep.

We hebben inmiddels vernomen dat er op dit ogenblik 340 algoritmes in dat register staan, voornamelijk aangeleverd vanuit de gemeenten. Waarom kan dit register niet gewoon al tjokvol zitten met gebruikte algoritmes? Is dat omdat er te pas en te onpas gewerkt wordt in de selectie van data? Wordt er bij departementen niet vooraf nagedacht over hoe algoritmes dienen te worden opgesteld? Ik vind dit immers schokkend. Het is belangrijk om hier goed over na te denken. Immers, als je in een sequentiële opvolging twee filters verwisselt, kan dat een heel andere uitkomst bieden. Ofwel: als je bij een legobouwpakket van een brandweerkazerne op pagina 12 begint met de instructie en dan op verschillende plekken in het boekje de instructies opvolgt, heb je uiteindelijk geen brandweerkazerne. Is er dan geen verslaglegging? Je verzint iets, je verantwoordt dat en je krijgt een akkoord vanuit de hogere hiërarchie. Indien dat niet het geval is, hoe is het dan mogelijk en wat gaat de Staatssecretaris eraan doen om dit onder controle te krijgen?

Voorzitter, tot slot de opschaling van de algoritmetoezichthouder. De Autoriteit Persoonsgegevens heeft de directie Coördinatie Algoritmes in het leven geroepen voor het toezicht houden. In het kader daarvan of van de aanscherping moet zij nu tweemaal per jaar een risicoanalyse algoritmes Nederland uitvoeren en in kaart brengen welke publieke loketten er zijn om algoritmegerelateerde problematiek te melden en in hoeverre burgers deze loketten weten te vinden. Er staat niet bij of dit tot extra regeldruk leidt, maar de PVV zou graag van de Staatssecretaris vernemen of de capaciteit er wel is om deze doelen te realiseren en wat de impact van de Europese wet- en regelgeving, zoals de AI-verordening, de Dataverordening en de Digitaledienstenverordening, op de beschikbare capaciteit gaat zijn. Ik las reeds over de toename van de financiële middelen in de komende jaren: een verdubbeling in 2024 ten opzichte van 2023 en 3,6 miljoen in de opvolgende jaren. Maar ik bedoel dus qua personeel en in relatie tot wat er nog aankomt, dus niet in de financiële middelen, want ik neem aan dat die toereikend zijn.

Voorzitter, daarmee ben ik aan het einde van mijn betoog gekomen. Dank u.

De voorzitter:

U heeft een interruptie van de heer Van Baarle en daarna een interruptie van mevrouw Van der Werf.

De heer Van Baarle (DENK):

We hebben uiteraard al heel erg lang een discussie in dit huis over de toepassing van algoritmen en ook over in hoeverre de overheid maatregelen zou moeten nemen om ervoor te zorgen dat die algoritmen geen discriminerende werking hebben. Er zijn veel voorstellen in de Kamer gedaan om waarborgen in te bouwen om algoritmen niet een discriminerende werking te laten hebben. Die heeft de PVV altijd – laat ik zeggen: in de meeste gevallen – niet gesteund, vaak met de argumentatie dat de PVV principieel eigenlijk niet zo veel moeite heeft met het gebruiken van nationaliteit en etniciteit als risicoclassificatie. De PVV vond dat eigenlijk best een goede indicator om fraude te achterhalen en mensen te profileren. Ik vraag me af wat de positie van de PVV nu is.

De heer Valize (PVV):

Ik vind dat dat thuishoort bij de departementen waar die algoritmen bepaald worden. Door verschillende commissies, zoals ze er zijn, wordt dus beoordeeld of iets is toegestaan of niet en of het verantwoord is of niet. Dat moet dus per onderdeel bekeken worden. Het doel heiligt de middelen.

De voorzitter:

Een vervolgvraag van de heer Van Baarle.

De heer Van Baarle (DENK):

«Per geval bekijken per ministerie», maar ik vraag de PVV om een visie te geven op het gebruik van nationaliteit en afkomstgerelateerde gegevens. We hebben daar verschrikkelijke dingen over meegemaakt, bijvoorbeeld bij DUO en ook de toeslagenmisdaad was daar een voorbeeld van. Als Kamer willen we daarvoor kaders stellen. U zegt dat het doel de middelen heiligt. Betekent dit dat de PVV vindt dat je nationaliteit en etniciteit als indicatoren zou mogen inzetten als dat in de optiek van de PVV een effectief instrument zou moeten zijn, terwijl we hier als Kamer meerdere malen met elkaar hebben uitgesproken dat het gewoon onwenselijke indicatoren zijn omdat zij mensen wegzetten op basis van uitkomst, huidskleur en dat soort verwerpelijke zaken?

De heer Valize (PVV):

Wanneer je alles gaat verbieden, kun je geen trends onderzoeken en kun je ook helemaal niets analyseren. Ik zie er dus geen probleem in om per departement te bekijken welke algoritmen zijn toegestaan en waarom ze moeten worden toegestaan als er maar een maatschappelijke verantwoording wordt afgelegd over waarom een bepaald onderzoek wordt ingezet.

De voorzitter:

Dan de interruptie van mevrouw Van der Werf.

Mevrouw Van der Werf (D66):

Hoe staat de PVV nou zelf tegenover het wel of niet verplicht in het register opnemen van algoritmes?

De heer Valize (PVV):

Het verplicht opnemen van algoritmes in een register is een goede zaak. Je moet inzichtelijkheid bieden als overheid.

Mevrouw Van der Werf (D66):

Ik vraag het omdat de overheid natuurlijk heel breed is. Geldt dit dan ook voor hele kleine gemeenten die maar een beperkte capaciteit hebben?

De heer Valize (PVV):

Het vergt niet heel veel capaciteit om een algoritme uit te schrijven en aan het register toe te voegen. Ik snap dus niet waarom een kleine gemeente zou worden uitgesloten van het deponeren van het algoritme in het register.

De voorzitter:

Dan is het woord aan de heer Krul van het CDA voor zijn inbreng.

De heer Krul (CDA):

Voorzitter, dank u wel. Wat dit soort debatten altijd kenmerkt, is dat je moet kiezen uit heel erg veel interessante onderwerpen in een hele korte tijd. Ik heb gekozen voor één onderwerp, waarmee ik niet zeg dat mijn inbreng minder groot is dan die van de heer Valize, maar het is wel hetzelfde onderwerp als waar de heer Six Dijkstra over gesproken heeft, namelijk het SCHUFA-arrest.

Dat arrest ging over het Duitse kredietbureau SCHUFA, dat kredietverleners informatie verstrekte over personen. Deze informatie werd vervolgens door die kredietverleners gebruikt om te bepalen of een lening wel of niet verstrekt werd. Het Hof heeft geoordeeld dat het toekennen van automatisch berekende kredietscores niet in overeenstemming is met de AVG. Dit betekent een ruime uitleg van het begrip «geautomatiseerde besluitvorming», waardoor strengere AVG-regels van toepassing zijn. Volgens de AVG mag je namelijk niet profileren op basis van geautomatiseerde besluitvorming. Deze uitspraak heeft potentieel grote gevolgen voor bijvoorbeeld de handhaving door de overheid bij belastingfraude en witwasonderzoek, want ook de landsadvocaat heeft in een recent advies deze brede uitleg van de rechter bevestigd. Om een voorbeeld te geven: bij de Belastingdienst worden op basis van signalen automatisch belastingaangiftes uit de bak getrokken. Als iemand hele hoge aftrekposten heeft maar een laag inkomen, zegt de computer «ping». Dat is een algoritme, maar is eigenlijk gewoon een beslisregel. Als straks zelfs deze «ping» van de computer zonder tussenkomst van menselijk handelen in strijd is met de AVG, zien wij grote problemen.

Hier heb ik een trits concrete vragen over aan de Staatssecretaris. Hoe beoordeelt de Staatssecretaris de ruime interpretatie van het begrip «geautomatiseerde besluitvorming» door de rechter en het advies van de landsadvocaat? In hoeverre is deze uitspraak over een private kredietverlener een-op-een van toepassing op de overheid? Gelden er wel of geen andere regels voor organisaties met een wettelijk verankerde taak? Is er een verschil als het toezicht alleen plaatsvindt op basis van indicatoren die geen persoonsgegevens zijn, zoals fiscale indicatoren? Wat zijn de gevolgen van deze uitspraak voor het fraudebeleid van de overheid, bijvoorbeeld van de Belastingdienst?

Mag de Belastingdienst nog op basis van geautomatiseerde signalen onderzoek doen? Wat zou het in de praktijk betekenen als dit niet meer mag? Kan dan nog alleen handmatig toezicht plaatsvinden en hoe ziet de Staatssecretaris dat voor zich als het gaat om miljoenen belastingaangiftes en de nu al nijpende situatie ten aanzien van de personele bezetting van de Belastingdienst? Welke gevolgen heeft deze uitspraak voor het witwastoezicht, waarin banken óók op basis van geautomatiseerde signalen onderzoek doen? Tot slot: kan de Staatssecretaris toezeggen dat deze uitspraak er niet toe leidt dat het complete toezicht- en handhavingsbeleid van bijvoorbeeld de Belastingdienst maar ook van andere uitvoeringsorganisaties stil komt te liggen? Zien we inderdaad het scheepswrak aankomen waar net al aan gerefereerd is?

Voorzitter. Kortom, we hebben grote zorgen over de uitspraak van de rechter en ook over het advies van de landsadvocaat. Wij maken ons er zorgen over dat deze strenge uitleg van de AVG ervoor gaat zorgen dat fraudeopsporing stil komt te liggen.

Voorzitter. Omdat ik dan toch nog één ander onderwerp wil aansnijden – anders is het wel héél eenzijdig – wil ik ook nog een vraag stellen over ...

De voorzitter:

Voordat u dat doet, heeft u een interruptie van de heer Six Dijkstra.

De heer Six Dijkstra (NSC):

Dit raakt ook even aan het korte debat dat de heer Krul en ik net hadden. Ik ben eigenlijk wel benieuwd naar zijn visie, want in het verleden is door middel van fraudebestrijding met gebruik van algoritmes veel fout gegaan en zijn schandalen ontstaan. Ziet de heer Krul met deze uitspraak niet ook een kans dat we echt kunnen zorgen voor een goede wettelijke versteviging van de manier waarop we fraude aanpakken op een manier dat er wel oog is voor mens en recht?

De heer Krul (CDA):

Dit is een hele terechte vraag. Ja, die kansen zien wij. Die zien wij zeker, met name als het gaat om de verwerking van persoonsgegevens, want daar zijn inderdaad hele hoge risico’s dat mensen vermorzeld worden. Maar wij zien ook het risico dat nu in een reflex simpele beslisregels, die al heel lang van toepassing zijn en die technisch gezien algoritmisch zijn, maar eigenlijk de simpelste functionaliteit hebben, als het ware ook in het verbod terechtkomen. Hierdoor wordt ook aan de andere kant de taak die je gewoon als overheid hebt, namelijk handhaven en voorkomen dat er veel fraude plaatsvindt, helemaal onmogelijk gemaakt. Het is dus een ontzettend precaire balans die we moeten zoeken. En het CDA maakt echt een onderscheid als het gaat om het gebruik van persoonsgegevens zonder tussenkomst van menselijk handelen. Daar zitten veel te veel risico’s in. Maar zonder geautomatiseerde besluitvorming op basis van fiscale gegevens, de «ping» als het ware, vrezen wij dat het als overheid wel heel ingewikkeld wordt om nog te kunnen handhaven.

De voorzitter:

Dan kunt u verdergaan met uw inbreng meneer Krul.

De heer Krul (CDA):

Voorzitter. Ik heb nog een vraag over toezicht. Binnen het Samenwerkingsplatform Digitale Toezichthouders, de SDT, zijn vier toezichthouders actief, namelijk: de ACM, de AFM, de AP en het CvdM. En het kabinet overlegt verder met zeven toezichthouders. Daar zitten dus nog de DNB, het CRM en de RDI bij. En dan is er ook nog een werkgroep AI onder de vlag van de Inspectieraad, waarin meer dan rijksinspecties, colleges en markttoezichthouders zitting hebben. Toen ik dit las, dacht ik: oei, dit is wel héél versnipperd en gefragmenteerd; zien we dan, als het om toezicht gaat, door de bomen het bos nog wel? De toezichthouders zelf geven ook aan dat het heel versnipperd en gefragmenteerd is. Ik vraag aan de Staatssecretaris of zij plannen heeft voor hoe dit kan worden versimpeld.

Dank u wel.

De voorzitter:

Dank u wel. Dan is het woord de heer Van Baarle van DENK.

De heer Van Baarle (DENK):

Voorzitter, dank u wel. Ik val vandaag in voor mijn collega Ergin. Mijn fractie heeft mij het woord ontnomen op het onderwerp Digitale Zaken, maar in de afgelopen jaren heb ik daarover met veel plezier het woord gevoerd, dus ik val vandaag in. De discussie over de risico’s van de toepassing van algoritmes wordt al lang gevoerd. We hebben de misstanden waar collega Six Dijkstra op wees inderdaad gezien. De discussie die ik altijd met deze Staatssecretaris heb gevoerd, ging over de oproep: ga nou eens aan de slag met zo’n bindend kader! De Staatssecretaris wilde in eerste instantie alleen een handreiking samenstellen, de handreiking non-discriminatie by design, en wachten op EU-regelgeving; die EU-regelgeving is er nu.

Voorzitter. Als het gaat om die handreiking non-discriminatie by design, heb ik wel al een eerste vraag. Ik heb in een motie gevraagd om die handreiking ook met private partijen te delen en om te onderzoeken in hoeverre private partijen bekend zijn met die handreiking. Wordt dat blijvend gedaan en kan de Staatssecretaris er al iets over zeggen of dat ook in de praktijk wordt toegepast op een manier waarop wij dat wensen?

Dan het algoritmekader, waarvan we de regels in de AI-verordening gaan vastleggen. Het is mij nu niet helder of dat algoritmekader een soort overzicht is, dus eigenlijk weer een nieuwe handreiking, of dat het ook bindend is. Ik maak dat zelf niet op uit de laatste brief die gestuurd is. Moet dit verplicht worden toegepast? Geldt dat algoritmekader nu alleen voor de overheid of geldt het ook voor bedrijven? De voorbeelden die we zien, zoals de toepassing van het algoritme in het anti-witwastoezicht, laten zien dat ook private toepassing van algoritmes een enorme impact heeft op of mensen bijvoorbeeld wel toegang hebben tot geldelijk verkeer, een basisrecht. De fractie van DENK heeft een motie ingediend, die is aangenomen, om voorschriften ten aanzien van non-discriminatie van algoritmes in de wet te zetten. Ik ben niet tevreden met de afdoening als die motie vervolgens met een niet-bindend kader wordt uitgevoerd.

Voorzitter. Hebben we als land eigenlijk de ruimte om dat algoritmekader op een scherpere manier in te zetten dan de bepalingen in de AI-verordening? Ik maak me daar zorgen over. In de AI-verordening staat bijvoorbeeld een omschrijving van een hoogrisicoalgoritme. Maar wat is eigenlijk een hoogrisicoalgoritme en een impactvol algoritme? Hoe passen we die toe op een manier waarbij we voldoende waarborgen treffen?

Tot slot op dit onderwerp: de handhaving. Wie wordt eigenlijk primair verantwoordelijk voor de handhaving als dat algoritmekader bindend is? Is dat inderdaad de AP, die de waakhond is? Is die voldoende toegerust om dat straks ook daadwerkelijk te gaan handhaven?

Voorzitter. Dan het Algoritmeregister. Er was een lange discussie over de verplichting daarvan. Ik kan uit de brief niet opmaken of dat, ondanks de aangenomen moties, daadwerkelijk gaat gebeuren. Dit register geldt alleen voor publieke instellingen, dus voor de overheid. Moet dat niet ook gewoon gelden voor private instellingen, dus voor bedrijven? Ook privaat worden er immers impactvolle besluiten over de levens van mensen genomen.

Hoe gaan we om met de uitzonderingsgronden? Want de overheid heeft er soms nogal een handje van om op basis van het belang van de Staat of de handhaving niet transparant te zijn. Komt daar snel een kader voor?

Voor de uitvoering van de befaamde motie op stuk nr. 21 (35 510), over de doorlichting van algoritmen, doen we een externe toets. Loopt die externe toets op schema en krijgen we die dus voor de zomer? Kan de Staatssecretaris aangeven of we op basis van die doorlichting ook een structureel instrument gaan maken om die algoritmen periodiek door te lichten?

Ik heb dan nog twee korte punten. We hebben een motie ingediend waarin wordt verzocht om burgers altijd in te lichten als overheidsbesluiten zijn genomen op basis van een algoritme of risicoprofilering. Die motie is aangenomen. Wordt dit nou gewoon vastgelegd in de Algemene wet bestuursrecht?

Tot slot, voorzitter. Er is een motie van mij aangenomen over een protocol bij geconstateerde discriminatie door algoritmen. Wanneer kunnen wij dat protocol tegemoetzien? Ik zou daar graag met de Staatssecretaris over debatteren, voordat het in dat kader komt.

Dank u wel, voorzitter.

De voorzitter:

U heeft een interruptie van de heer Krul van het CDA.

De heer Krul (CDA):

Als ik het betoog van de heer Van Baarle hoor, krijg ik de indruk dat het indienen van moties bij deze commissie niet zo veel nut heeft. Ik hoop dat het anders werkt. Ik ben benieuwd of de heer Van Baarle ook een onderscheid maakt tussen persoonsgegevens en bijvoorbeeld fiscale indicatoren. Is de heer Van Baarle van mening dat er nog steeds menselijk handelen moet plaatsvinden als iemands belastingaangifte ergens oppopt op basis van fiscale indicatoren, dus dat burgers daarover geïnformeerd worden? Ziet de heer Van Baarle niet dat de situatie dan praktisch onuitvoerbaar wordt?

De heer Van Baarle (DENK):

Volgens mij is de vraag eigenlijk of we kunnen blijven werken met een handhavingssysteem, mits dat is gebaseerd op objectieve en non-discriminatoire criteria en er bij impactvolle besluiten altijd menselijk handelen tussen zit. Dat is eigenlijk altijd precies de inbreng van de DENK-fractie geweest. Je moet het gebruik van een geautomatiseerd systeem niet per definitie uitsluiten, want dan kunnen we als overheid niet meer functioneren. We moeten er alleen wel voor zorgen dat het niet discrimineert en dat er bij impact op mensen altijd een menselijke check tussen zit.

De voorzitter:

Het woord is aan de heer Meulenkamp.

De heer Meulenkamp (VVD):

Dank u wel, voorzitter. De verschillende overheden in Nederland nemen jaarlijks vele miljoenen beslissingen. In toenemende mate wordt daarbij gebruikgemaakt van algoritmes. Plat gezegd wordt er data ingevoerd en rolt er aan de achterkant een beslissing uit. Er zitten kansen in, maar er zijn ook risico’s aan het gebruik van algoritmes.

Zojuist werd al gezegd dat de overheid niet meer zonder het gebruik van algoritmes kan, zeker met de huidige zeer krappe arbeidsmarkt. Met algoritmes kunnen er gewoon snel heel veel beslissingen worden genomen. Hierdoor blijft de overheid effectief voor haar inwoners. We hebben algoritmes gewoon nodig, zeker ook op het gebied van defensie en criminaliteitsbestrijding. Echter, er zijn wel zorgen over de inzet van deze algoritmes. Mensen willen graag niet als dataset, maar als mens gezien worden. De affaires die er zijn geweest, zijn net al genoemd.

De VVD wil graag inzetten op een goed functionerende overheid, met oog voor de individuele mens. Algoritmes worden wat ons betreft nog te vaak gezien als een technische oplossing voor een technisch probleem, terwijl in onze ogen altijd de mens centraal moet staan bij de overheid, ongeacht of die zich nou meldt bij een ambtenaar of dat er een algoritme wordt ingezet. Dit is een belangrijk onderwerp voor de komende jaren, zeker in een tijd waarin het vertrouwen in de overheid historisch laag is. Dat geldt niet alleen voor de rijksoverheid, maar ook voor alle andere overheden. We willen dat mensen zich gehoord voelen en daardoor meer vertrouwen krijgen in de overheid. Dit vraagt in onze ogen om een totaal andere manier van werken. Het is daarbij cruciaal om weer meer te luisteren naar en te praten met inwoners. Hoe denkt het kabinet dit te kunnen bewerkstelligen? Kunnen we juist door het inzetten van algoritmen – daar werd net ook al aan gerefereerd door mijn collega van D66 – weer meer tijd vrijmaken voor de gesprekken met onze inwoners? Kunnen we daar vanuit de overheid actief op sturen? Dat is cruciaal in onze ogen.

We leven in een tijdperk dat voor prachtige kansen zorgt, maar zoals we afgelopen weekend weer hebben gezien, leven we ook in een geopolitiek uiterst instabiele tijd. Dat zorgt voor allerlei gevaren. Mijn eigen gemeente is een aantal jaar geleden ook gehackt door een buitenlandse partij. Ik heb van dichtbij mogen zien voor hoeveel paniek op de werkvloer dat zorgt. Je weet dan niet meer hoe je de inwoners van je gemeente een uitkering kunt verstrekken, en mensen bellen met het bericht dat ze gewoon geen eten kunnen kopen. De lokale overheid weet niet hoe daarmee om te gaan.

De VVD heeft in het verleden daarom ook het belang van analoge terugvalopties aangegeven, en diende in dat kader een motie in met het verzoek om die terugvalopties mee te nemen in de weerbaarheidsanalyses. De VVD is blij dat die motie wordt uitgevoerd en dat er nog voor eind 2024 een update komt van die aanpak. Neemt de Staatssecretaris hier ook gemeenten en andere medeoverheden in mee? Dit is voor de VVD echt cruciaal. Zeker ook op basis van mijn ervaring bij een gemeente die gehackt werd, zeg ik: neem andere gemeenten en provincies alsjeblieft mee bij die terugvalopties. Graag hoor ik uw mening hierover en hoe u dit gaat doen.

De voorzitter:

Ik vraag de heer Six Dijkstra van NSC om de voorzittershamer even over te nemen en mij het woord te geven.

Voorzitter: Six Dijkstra

De voorzitter:

Dank u wel. Het woord is aan mevrouw Kathmann namens de fractie van GroenLinks-PvdA.

Mevrouw Kathmann (GroenLinks-PvdA):

Dank u wel, voorzitter. Technologiegebruik is nooit een doel op zich. Net zoals het hebben van een volle boekenkast niks zegt over hoe slim je bent, zegt het modewoord «AI-powered innovatie» niks over maatschappelijke waarden. Toch slopen algoritmes en AI overal naar binnen. Soms doen ze goed, soms doen ze kwaad. Alles in mij schreeuwt dan dat we zorgvuldig moeten zijn. We moeten echt af van de technocratische reflex heilig te vertrouwen in wat een app of algoritme ons zegt, en het stuur in eigen handen nemen. We laten vraagstukken over digitalisering te vaak aan ons voorbijgaan. Het is dus echt tijd om duidelijk te zijn over hoe Nederland zich tot technologie gaat verhouden.

We hebben nu heel mooie kabinetsvisies, zoals over generatieve AI, en de veelgeprezen werkagenda liggen. Tegelijkertijd gebruiken gemeenten nog altijd ondoorgrondelijke algoritmen in de fraudeopsporing, experimenteren tabakswinkels tegen de wet in met leeftijdsverificatie door gezichtsscans, doen huisartsen triages met AI, bepalen systemen in het onderwijs het leesniveau van mijn kinderen en neemt surveillance op de werkvloer toe, meestal op plekken waar werknemers al een zwakke positie hebben. We moeten van visie naar actie. De Autoriteit Persoonsgegevens en de WRR strijden al lang voor een nationaal deltaplan voor de omgang met algoritmen en AI bij overheden, de publieke sector en de private sector. Wanneer komt dat plan er? En als dat er niet komt, waarom niet?

Onze kritiek op algoritme- en AI-gebruik eindigt vaak bij de overheid. Toch zijn er, zeker in de publieke sector, heel veel commerciële partijen waar je van afhankelijk kunt zijn, zoals de schuldenindustrie. Bij zorgverzekeraars en in het onderwijs zien we allerlei gadgets, pilots en experimentjes die voordat je het weet gewoonterecht zijn geworden. Ik vind dat je algoritme en AI daar even scherp mag reguleren als bij de overheid. Vindt het kabinet dat algoritmegebruik en AI-toepassing in de private sector goed genoeg in beeld zijn? Hoe monitoren we dit beter? Hebben we alle verschillende soorten algoritmen en AI-modellen nu goed gedefinieerd? Zijn er geen blinde vlekken in definities uit Europese verordeningen en Nederlandse wetgeving? Waar staan deze begrippen vastgelegd? Ik wil dat de rolverdeling tussen toezichthouders concreet wordt. Het is moeilijk om die afspraken aan de waakhonden over te laten. Kan de Staatssecretaris echt op papier zetten wie eigenlijk wat doet? De Tweede Kamer kan daar dan ook met veel meer inzicht op sturen.

De reflex om over te stappen naar algoritmen en AI is goed te begrijpen. We komen handjes tekort, dus schakelen we digitale handjes in. Ik zie daarbij toch risico’s. Werknemers verliezen grip op hun werk, waardoor mensen ontschoold worden. Er is steeds minder kennis van de systemen waarmee we werken. Wie is er verantwoordelijk als een algoritme of AI-toepassing foutief te werk gaat, ook als deze met een positief advies van bijvoorbeeld een ondernemingsraad is geïmplementeerd? Wat kan de overheid doen om het terugdraaien van zo’n implementatie te vergemakkelijken?

Sommige bedrijven moeten een functionaris gegevensbescherming aanstellen. Dat is natuurlijk een topidee, want zo maak je iemand verantwoordelijk op te komen voor de privacyrechten van werknemers. Kan het kabinet in aanloop naar de actualisatie van de UAVG verkennen of de verplichting voor een functionaris gegevensbescherming kan worden uitgebreid, bijvoorbeeld naar sectoren met een hoog risico op surveillance of waar veel bijzondere persoonsgegevens worden verwerkt?

Tot slot. Over dingen die je niet ziet, kun je moeilijk oordelen. Brieven en beleid kun je fileren, maar een algoritme is zowel voor burgers als politici ondoorgrondelijk. Daar moeten we iets aan doen. De heer Van Baarle had het hier ook al over. Kunnen we ervoor zorgen dat er bij elke brief die op de deurmat belandt bij iemand die door een algoritme is geselecteerd als risicogeval, een extra paragraaf wordt toegevoegd met de kenmerken op basis waarvan «de ping is afgegaan», zoals de heer Krul het zei. Het moet inzichtelijk zijn op welke kenmerken diegene geselecteerd is. Is dat niet een broodnodig stukje uitleg, dat mensen inzicht geeft in de keuzes die over hun hoofden worden gemaakt? Data-ethiek is altijd politiek. Daarom ben ik ook heel blij met dit debat; dit hoort thuis in het hart van onze politieke besluitvorming. Dit gesprek is daarom zeker ook niet voorbij. Ik kijk uit naar een politiek waarin, wat digitalisering betreft, wij aan het stuur zitten in plaats van algoritmen.

De voorzitter:

Dank u wel. Ik zie geen interrupties. Bij dezen geef ik de voorzittershamer dus weer aan u terug.

Voorzitter: Kathmann

De voorzitter:

Dank u wel. Dan kijk ik even naar rechts, naar de staatssecretarissen. Die hebben twintig minuten nodig. Dan kijk ik ook nog even naar links om te zien of twintig minuten akkoord is. Zijn er mensen die bijvoorbeeld zeggen: ik heb zelf iets meer tijd nodig voor de lunch? Of houden we het bij twintig minuten? Anders wordt het misschien weer laat. Er is geen behoefte aan een langere schorsing. We schorsen dus voor twintig minuten.

De vergadering wordt van 10.42 uur tot 11.05 uur geschorst.

De voorzitter:

We gaan starten met de beantwoording van de staatssecretarissen. Ik denk dat we starten met Staatssecretaris Van Huffelen.

Staatssecretaris Van Huffelen:

Dat klopt, voorzitter. Ik zal ingaan op de vragen die aan mij zijn gesteld. De Staatssecretaris naast mij, de heer Van Rij, gaat vooral in op het SCHUFA-arrest. Mijn idee zou zijn om te beginnen met een korte inleiding en dan de vragen te beantwoorden.

Voorzitter. Het is ontzettend belangrijk – dat hebben de leden van uw commissie ook aangegeven – om over dit onderwerp, algoritmes en data-ethiek, met elkaar van gedachten te wisselen. De inzet van algoritmes en AI is namelijk steeds vaker onderwerp van gesprek. Het leeft in onze samenleving. Zeker ook door de recente technologische ontwikkelingen en door wat er fout is gegaan in het verleden, is dit een onderwerp dat ons bezighoudt. Dat is ook heel hard nodig.

Wat fijn is, is dat we inmiddels op Europees niveau een AI-verordening tot stand hebben gebracht om technologie te reguleren. We zijn natuurlijk ook heel hard aan het werk om allerlei handreikingen te ontwikkelen en ervoor te zorgen dat we als overheid verantwoord omgaan met AI en algoritmes. In de afgelopen tijd hebben we ons ingezet om ervoor te zorgen dat het gebruik van algoritmes door overheden aangepakt en gereguleerd wordt. Dat hebben we gedaan via het Algoritmeregister, de algoritmetoezichthouder en het implementatiekader voor algoritmes. Zo willen wij er daadwerkelijk voor zorgen dat de toepassing van AI op een verantwoorde manier kan plaatsvinden.

In deze introductie wil ik graag iets meer zeggen over een viertal onderwerpen. Als eerste wil ik iets meer zeggen over de AI-verordening, die Europese wet. Ook wil ik iets meer zeggen over het Algoritmeregister, dat we voor de overheid hebben. Verder wil ik iets zeggen over de toezichthouder. Tot slot wil ik iets zeggen over het algoritmekader. Ik zal daarbij, als het enigszins kan, ook ingaan op de gestelde vragen.

In de AI-verordening, die recent is aangenomen in Europa, komen met name specifieke eisen voor AI-toepassingen tot stand. Nederland heeft zich heel actief bemoeid met de onderhandelingen voor deze verordening, om ervoor te zorgen dat de bescherming van mensenrechten op een goede manier wordt afgewogen tegen het belang van innovatie en rechtshandhaving. De bescherming van mensenrechten is namelijk een belangrijk onderwerp. Daarom hebben we ons er ook voor ingezet dat aanbieders van AI-systemen expliciet de risico’s voor mensenrechten, zoals discriminatie, moeten beoordelen en tegengaan bij de ontwikkeling van hun systemen, zodat problemen in een vroeg stadium worden erkend, herkend en aangepakt. Niet alleen de aanbieder van dit soort AI-systemen, maar ook de gebruikers met een hoog risico moeten extra controles doen. Ze moeten risico’s beoordelen vanuit de context waarin die systemen worden ingezet en de impact die het gebruik heeft voor specifieke groepen in de samenleving.

Nederland heeft zich ingezet voor verbeterde transparantie, om ervoor te zorgen dat overheden zichzelf ook moeten registreren als gebruiker van hoogrisico-AI-systemen, en dus niet alleen als aanbieder. Zo is het zichtbaar wanneer een AI-systeem door de overheid wordt gebruikt. In de AI-verordening is ook een notificatieplicht opgenomen. Dus organisaties die systemen met een hoog risico gebruiken in hun besluitvorming moeten dat melden bij degenen over wie dat besluit gaat, wie dat betreft. Dat geldt niet alleen voor overheden, maar ook voor private partijen. Nederland heeft zich ook ingezet om de positie van burgers te versterken. Zo is er een klachtrecht in de AI-verordening opgenomen om ervoor te zorgen dat als je klachten hebt, je dan ook daadwerkelijk terechtkunt bij een organisatie die daarmee aan de slag gaat.

Als het goed is, treedt de AI-verordening in het tweede kwartaal van dit jaar, dus in de komende weken, maanden, in werking. Vervolgens zal die gefaseerd van kracht worden. Zo worden een halfjaar na de inwerkingtreding de bepalingen over de verboden praktijken van kracht. Een jaar daarna worden de bepalingen over de zogenaamde general purpose AI-modellen, dus algemene AI-modellen, van kracht. Uiteindelijk wordt twee jaar na inwerkingtreding de rest van de verordening van kracht. Het is van belang dat ook AI-systemen die al in werking zijn getreden, die er nu al zijn, uiteindelijk ook aan de AI-verordening voldoen. Om de overheidsorganisaties te ondersteunen bij het proces zullen we de AI-verordeningsvereisten opnemen in het algoritmekader. Daarmee zorgen we ervoor dat dit ook zo snel mogelijk voor overheden duidelijk wordt en dat zij dit ook kunnen invoeren.

Dit even over die AI-verordening. Ik kan niet genoeg onderstrepen hoe belangrijk die verordening is, want die zorgt ervoor dat zowel publieke als private organisaties in de EU die al werken met AI of ermee willen werken, voldoen aan eisen die gelden op het gebied van mensenrechten, transparantie en klachtenafhandeling. Dat is natuurlijk ontzettend belangrijk. We zullen in de komende tijd natuurlijk zien dat die technologie zich verder gaat ontwikkelen. Gelukkig biedt de AI-verordening de ruimte om daarin mee te gaan. Tijdens de totstandkoming van de verordening hebben wij gezien dat generatieve AI ontstond. Die was er nog niet toen we eraan begonnen. Inmiddels is generatieve AI opgenomen in en onderdeel van de verordening.

Dan iets over het Algoritmeregister dat wij als overheid zelf hebben gemaakt. Het is bedoeld om meer transparantie te bieden. Het idee is ook dat alle overheidspartijen ervoor zorgen dat zij hun algoritmes en hun risicomodellen hierin registreren. Zowel ministeries als provincies en gemeenten staan er al in.

De voorzitter:

U heeft een interruptie van de heer Van Baarle van DENK.

De heer Van Baarle (DENK):

Ik dank de Staatssecretaris voor de beantwoording en ik heb een vraag over de AI-verordening. De AI-verordening wordt verwerkt in het implementatiekader. Is dat implementatiekader bindend? Uit de beantwoording constateer ik eigenlijk dat dat niet zo is. Is het meer een opvatting als: zo vinden wij dat de AI-verordening geïmplementeerd zou moeten worden? Wordt het dan op die manier verspreid in de richting van de overheid? Maar gaat het ook naar private partijen? In de AI-verordening staat een aantal zaken. De scope ervan en de gevolgen voor overheid en bedrijven zijn mij niet helemaal helder. Kunnen we geen rechten ontlenen aan het implementatiekader omdat het niet bindend is? Klopt dat?

Staatssecretaris Van Huffelen:

Nee, dat klopt niet. De AI-verordening heeft directe werking. Het is een wet die ook hier in Nederland geldt, zowel voor de overheid als voor private partijen. De verordening wordt in stapjes ingevoerd, maar zij geldt voor alle partijen. Het implementatiekader dat wij hebben gemaakt en dat wij gaan aanscherpen is erop gericht om het voor overheidspartijen zo makkelijk mogelijk te maken om ook echt te voldoen aan die AI Act. Wat moet je nou precies doen als je een algoritme wil gebruiken? Welke toetsen moet je dan doen? Hoe moet je die uitvoeren? Die toetsen en die elementen zijn verplichtend, want ze staan in die AI-verordening. Wat moet je doen volgens de AI-verordening? Je moet bijvoorbeeld een mensenrechtentoets uitvoeren of een data protection impact assessment, DPIA. Dat is verplichtend voor de partijen die ermee moeten werken.

De voorzitter:

Een vervolgvraag van de heer Van Baarle. Wat wilde de Staatssecretaris nog zeggen?

Staatssecretaris Van Huffelen:

Ik wilde zeggen dat ik op de specifieke beantwoording van de vraag straks nog kom, maar ik heb wel de algemene regel geschetst.

De heer Van Baarle (DENK):

Dan wacht ik het even af.

De voorzitter:

Oké. Dan kunt u verdergaan. U was inmiddels bij het Algoritmeregister. De specifieke beantwoording van de vragen volgt dus nog.

Staatssecretaris Van Huffelen:

Ja. In het register staan inmiddels 345 algoritmes van 117 organisaties. Het is er om inzicht te bieden in de algoritmes die door de overheid worden gebruikt. Er is een grote toename in de afgelopen tijd, zowel van organisaties vanuit de rijksoverheid, dus de departementen en de uitvoeringsorganisaties, als vanuit gemeenten en provincies. Het idee is natuurlijk dat het Algoritmeregister voor 100% gevuld moet worden. Met de rijksoverheidspartijen is afgesproken dat eind volgend jaar alle algoritmes in het register zijn opgenomen. Het is natuurlijk wenselijk dat dat zo snel mogelijk gebeurt. Met de heer Krul roep ik alle partijen op om daar zo snel mogelijk mee te starten en door te gaan. Een gevuld register geeft aan burgers en journalisten, maar ook aan toezichthouders inzicht in de algoritmes die bij de overheid worden gebruikt.

Dan iets over de toezichthouder. Uiteraard is goed toezicht nodig. Het is ontzettend belangrijk dat wij de wetgeving handhaven. De AI Act vergt natuurlijk ook dat er goed gehandhaafd wordt. Dat gebeurt in het systeem van de verordening op verschillende manieren. Binnen Nederland hebben wij de algoritmetoezichthouder binnen de Autoriteit Persoonsgegevens ingericht. Maar we weten ook dat algoritmes op allerlei plekken in onze samenleving worden ingezet. De reden waarom we een coördinerende rol bij de Autoriteit Persoonsgegevens hebben neergelegd, is omdat het van belang is dat het op een gecoördineerde manier gebeurt door de verschillende toezichthouders vanuit hun specifieke functionaliteit. Bij algoritmes in de landbouw is het goed dat de toezichthouders op de landbouw kennis hebben van dit soort systemen en weten hoe zij toezicht zouden moeten houden op dit soort algoritmes.

Ik had het al over het algoritmekader in het debat met de heer Van Baarle. Wij vinden het belangrijk dat het voor overheidsorganisaties ontzettend helder is op welke wijze zij moeten voldoen aan die AI Act. Daar willen we hen ook mee helpen en daarvoor hebben wij dat kader gemaakt. Een eerste versie was er al vorig jaar. Dat kunnen we nu aanscherpen omdat er meer helderheid is over de AI-verordening en de regels die daarin gelden. Het is heel erg belangrijk dat in dat kader staat hoe de rollen en verantwoordelijkheden bij de inzet van AI zijn. Wat ook belangrijk is, is dat we ervoor zorgen dat dat kader in de komende tijd verder wordt ingevuld. We doen dat overigens op een hele open manier, zodat iedereen kan meekijken. We zetten al die informatie ook op GitHub en zorgen ervoor dat iedereen kan meewerken en meedenken over de implementatie van dit kader.

Met andere woorden, we hebben dus op een drietal fronten al werk gedaan. De AI Act gaat ons helpen om dat werk in de komende tijd verder aan te scherpen om daarmee zowel in de publieke sector, dus bij de overheid, als in de private sector, bij bedrijven, te kunnen komen tot een verantwoorde inzet van algoritmes. Dat is, zo is in de afgelopen tijd gebleken, ook heel erg nodig.

Voorzitter. Ik wil nu ingaan op de specifieke vragen die zijn gesteld. Ik heb een blokje over wet- en regelgeving, over het Algoritmeregister, over toezicht en over het advies van de landsadvocaat. Zoals ik al aangaf, wordt het grootste deel van dat laatste onderdeel door mijn collega beantwoord.

Ik begin met de wet- en regelgeving. De heer Six Dijkstra vroeg: zijn er voldoende wettelijke kaders en kunnen we daarmee voorkomen dat op een onverantwoorde manier gebruik wordt gemaakt van algoritmes? Wij zien dat er op dit moment voldoende kaders zijn, niet in de laatste plaats door de komst van die AI-verordening. Natuurlijk is het zo dat we nog verder moeten werken aan bewustwording en kennis over de implementatie. We moeten de AI-verordening natuurlijk ook nog implementeren in Nederland. We moeten nog helderheid krijgen over wat nou precies de rol van welke toezichthouder wordt onder de coördinatie van de AP. Bovendien moet voor iedereen die aan het werk gaat of al is met algoritmes, helder worden aan welke eisen moet worden voldaan.

Dat laatste vind ik ontzettend belangrijk. In vergelijking met de komst van de AVG was het voor sommige partijen in het begin heel onduidelijk hoe je nou precies kon zorgen dat je compliant was, hoe je kon voldoen aan de wet. Wij vinden het ontzettend belangrijk om hieraan in de komende tijd veel tijd en aandacht te besteden. Wij denken dat het kader van de AI-verordening samen met het implementatiekader dat we voor de overheid maken, voldoende moet zijn om in ieder geval de regels te hebben die nodig zijn om het op een verantwoorde manier te doen. Uiteraard blijven we altijd goed nadenken en kijken of het ook zo is en of er nieuwe technologie is waar wij nog extra stappen voor moeten zetten. Als op dit moment gevraagd wordt of er voldoende kaders zijn, dan is het antwoord ja.

De voorzitter:

U heeft een interruptie van de heer Six Dijkstra.

De heer Six Dijkstra (NSC):

Dank aan de Staatssecretaris voor de beantwoording. Ik stelde die vraag ook in relatie tot het SCHUFA-arrest. Daarin wordt gesteld dat de wijze waarop wij als land omgaan met algoritmes, mogelijk strijdig is met de AVG en dat er extra wettelijke versterking nodig is. Deelt de Staatssecretaris die conclusie of kijkt zij daar anders tegenaan?

Staatssecretaris Van Huffelen:

Ik vind het van belang dat we vooral nog wat tijd nemen om dat goed uit te zoeken. We weten dat er nog een adviesaanvraag ligt bij de Autoriteit Persoonsgegevens om hierop een helder antwoord te krijgen. Het principe van het gebruik van algoritmes moet zo zijn dat alle algoritmes die wij inzetten, voldoen aan de bestaande regelgeving, de AVG, maar ook aan de AI Act. In principe moeten beide een paraplu vormen voor alle inzet van algoritmes.

De heer Six Dijkstra vroeg ook of de problemen die bij de overheid rondom algoritmes zijn opgetreden, niet makkelijker kunnen worden aangepakt met een paar kernachtige principes. Ik vind het altijd fijn als je iets met heel kernachtige principes kan doen. Die hadden wij ook al lang voordat de AVG er was: discriminatie mag niet en transparantie is belangrijk. Daar hebben we ook wet- en regelgeving voor. Het is wel van belang dat we met de aanvullende regels die nu gesteld zijn, zorgen dat er een goede samenhang is. Die samenhang wil ik heel erg graag tot uitdrukking laten komen als het over de overheid gaat in dat implementatiekader. Uiteindelijk zijn de principes die in de AI Act zitten, voor een groot deel gebaseerd op principes die we eerder met elkaar hebben vastgesteld: non-discriminatie, transparantie, de mogelijkheid om te klagen. Al dit soort elementen zijn in die AI Act opgenomen en heel helder gedefinieerd op basis van een heel heldere definitie van wat AI is. Die combinatie maakt dat we nu veel duidelijker voor de private en publieke partijen in heel Europa kaders hebben. Daarmee kunnen we zorgen dat er wordt voldaan aan de inzet op het gebied van mensenrechten.

Namens NSC is ook gevraagd naar de wettelijke grondslag voor het gebruik van automatische besluitvorming voor fraudeopsporing. Welke verwerking je ook doet, je moet ervoor zorgen dat er een basis voor is in wetgeving. Mijn collega zal verder ingaan op de uitspraak van de landsadvocaat. Dat geldt ook voor het advies dat wij in dit kader nog verwachten van de Autoriteit Persoonsgegevens.

Mevrouw Van der Werf vroeg zich af hoe uitvoering is gegeven aan de motie om ervoor te zorgen dat ontwrichtende algoritmes in de AI-verordening worden verboden. Het Europees Parlement heeft in de AI-verordening opgenomen dat ontwrichtende algoritmes als hoog risico worden gedefinieerd. We moeten er dus voor zorgen dat dit soort hoogrisicoalgoritmes worden getest en getoetst en voorzien van een keurmerk voordat ze kunnen worden ingezet. Het is dus ook wenselijk dat dit soort algoritmes niet worden toegepast.

De voorzitter:

U heeft een interruptie van de heer Valize van de PVV en daarna van mevrouw Van der Werf.

De heer Valize (PVV):

Ik hoor de Staatssecretaris praten over een keurmerk. In de brieven zag ik het ook vluchtig voorbijkomen. Daar wordt het een CE-keurmerk genoemd. Hoe is voor mensen zichtbaar dat dat keurmerk er is? Wordt dat op de website gepubliceerd of staat het ergens in de broncode? Ik zou daar graag een beeld bij krijgen. Hoe kan achterhaald worden dat iets voorzien is van een keurmerk?

Staatssecretaris Van Huffelen:

Het gaat inderdaad over die CE-keurmerken. Daarbij geldt sowieso een verplichting om het kenbaar te maken. Hoe gaan we dat specifiek doen? Het gebeurt sowieso in het kader van de registratie van het Algoritmeregister. Daar moet je aangeven of je aan zo’n keurmerk voldoet, maar er is meer nodig. Mevrouw Van der Werf heeft ook gevraagd om burgers te informeren. Ik denk dat het goed is dat wij er met elkaar over nadenken hoe we dat precies kenbaar maken, zodat het voor mensen duidelijk is of een algoritme voldoet aan de regels. Sommige algoritmes worden niet altijd duidelijk een-op-een gebruikt in relatie tot een consument. Maar goed, wanneer een besluit van de overheid gebaseerd is op een algoritme, dan is het onze bedoeling om ervoor te zorgen dat het duidelijk is dat het besluit mede is genomen op basis van een algoritme. Als dat een hoogrisicoalgoritme is, dan behoort het natuurlijk conform de AI-verordening voorzien te zijn van zo’n keurmerk.

Mevrouw Van der Werf (D66):

Nog even voor de helderheid. De Staatssecretaris ging zojuist in op de vraag over de motie over ontwrichtende algoritmes. Ziet u die ook als onderdeel van modellen met een systemisch risico? Kunnen we het zien als dat ze zo geïnterpreteerd worden in de AI-verordening?

Staatssecretaris Van Huffelen:

Voor een deel zit dit ook al in de DSA, dus in de Digitaledienstenverordening. U had het in dit geval specifiek over ontwrichtende algoritmes, althans, over informatie die via socialmediaplatforms bij mensen terechtkomt. De DSA stelt eisen aan grote platformbedrijven om in te grijpen wanneer er sprake is van illegale content of van dit soort ontwrichtende algoritmes. Dat kan bijvoorbeeld door die algoritmes ook daadwerkelijk aan te passen.

De voorzitter:

Een interruptie van de heer Van Baarle van DENK.

De heer Van Baarle (DENK):

Ik wil ingaan op de gevolgen van de AI-verordening en het keurmerk. Ik wil het gewoon goed begrijpen. Volgens mij staan in de AI-verordening een aantal principes, namelijk dat er in het geval van een hoogrisicoalgoritme sprake moet zijn van een mensenrechtentoets die onder andere ziet op non-discriminatie. Nu hoor ik dat er een keurmerk is. Hoe zorgen we ervoor dat niet bedrijven ervoor verantwoordelijk worden om maar gewoon het vinkje te zetten dat ze de toets hebben uitgevoerd op de manier die ze willen, maar dat het daadwerkelijk een goede toetsing is? Volgens mij moet hoe je dat doet vervat worden in praktische regels. En wie gaat er uiteindelijk over dat keurmerk? Wie geeft dat keurmerk, wie toetst dat, wie stelt dat vast? Anders geven bedrijven dadelijk aan dat ze een keurmerk-approved methode hebben en dat ze echt niet zullen discrimineren, maar weten we niet wat dat keurmerk dan is.

Staatssecretaris Van Huffelen:

Inderdaad, hoogrisicoalgoritmes moeten voldoen aan een aantal vereisten, waaronder een mensenrechtentoets enzovoorts. Bedrijven moeten die toets zelf doen, maar daar wordt wel op gecontroleerd, want anders krijg je zo’n CE-markering niet. Bovendien moeten de toezichthouders hier natuurlijk ook op toezien. Het is dus inderdaad van belang dat je niet alleen moet aangeven wat je algoritme doet. Je moet een toets uitvoeren. Voordat je dat keurmerk kunt krijgen, moet je natuurlijk voldoen aan de vereisten, en moet ook duidelijk zijn dat je daaraan voldoet. Ook is van belang dat de toezichthouders gaan kijken of bedrijven het assessment op een goede manier uitvoeren. Ook moet er bekeken worden of het klopt als een bedrijf denkt dat zijn algoritme geen hoog risico heeft en dat aangeeft.

De voorzitter:

Een vervolgvraag van de heer Van Baarle.

De heer Van Baarle (DENK):

Begrijp ik het nu goed dat dit keurmerk er is voor bedrijven die een dienst aanbieden en dat keurmerk graag willen krijgen? Wordt dat dan getoetst? Voor alle overige bedrijven, die geen keurmerk willen, geldt dus dat de toezichthouder op de specifieke sector zal moeten bekijken of het assessment goed is toegepast. Het is dan de verantwoordelijkheid van de bedrijven. Als er in de AI-verordening een aantal generieke principes staan, moeten we met elkaar toch een kader hebben op grond waarvan alle toezichthouders gaan toetsen hoe die algemene principes toegepast worden? Ik vraag dus naar de mate waarin dat algoritmekader bindend is. Dat algoritmekader geldt blijkbaar alleen voor de overheid, en niet voor bedrijven. Waar is dan het kader voor bedrijven?

Staatssecretaris Van Huffelen:

Misschien allereerst even een paar dingen. De heer Van Baarle trekt nu een aantal conclusies die wat mij betreft niet getrokken kunnen worden. Nummer een. In de AI-verordening zijn nu classificaties van algoritmes afgesproken, die goed en scherp moeten worden ingevuld. Natuurlijk zal de praktijk leren dat er altijd weer discussies over zijn, maar de kern is dat hoogrisicoalgoritmes nu goed gedefinieerd zijn als algoritmes die je alleen maar kunt toepassen wanneer je ook een keurmerk hebt. Twee. Voor het toepassen van algoritmes bij de overheid maken we een implementatiekader. Dan wordt voor overheidspartijen duidelijk op welke wijze zij algoritmes kunnen inzetten, welke toetsen er moeten worden gedaan enzovoorts. Die toetsen zijn ook verplicht. Zo’n IAMA, een mensenrechtentoets, moet bijvoorbeeld worden uitgevoerd. Van belang is dat ik aan de toezichthouders, onder coördinatie van de Autoriteit Persoonsgegevens, heb gevraagd om de normuitleg van de wet voor alle sectoren en alle bedrijven die daaraan moeten voldoen – dat geldt natuurlijk ook voor de overheid – zo goed mogelijk uit te voeren. Zo’n wet geldt voor heel veel grote partijen. Je kunt natuurlijk altijd vragen stellen als: hoe zit het precies? Dat moet voor alle partijen zo duidelijk mogelijk worden. Zij hebben ook aangegeven dat ze de normuitleg met elkaar gaan vaststellen. Zo wordt inderdaad ook helder wat deze wet betekent voor jouw bedrijf, of je nou in de landbouw, in verzekeringen, bij een bank of elders werkt. Als je algoritmen wilt inzetten, aan welke eisen moeten die dan voldoen en hoe kun je dat doen? Dat is een belangrijke stap, die in de komende tijd gezet moet worden. Vanaf het moment dat de AI-verordening gepubliceerd is, gaat de implementatie in stapjes. Daar lichtte ik net al iets over toe. In het kader daarvan is die normuitleg dus ook heel erg belangrijk. Maar het is geen vrijblijvende verordening, helemaal niet zelfs; noch voor de overheid, noch voor bedrijven.

De voorzitter:

Een vervolgvraag van de heer Van Baarle.

De heer Van Baarle (DENK):

Dan heb ik nog wel een vraag. De Staatssecretaris zegt dat een hoogrisicoalgoritme alleen kan worden ingezet met een keurmerk. Mij is nog niet helder wie dan gaat over dat keurmerk en op basis waarvan een keurmerk dan wordt afgegeven of niet.

Staatssecretaris Van Huffelen:

Wie het keurmerk gaat uitgeven, moet nog worden bepaald. Dat is nog onderdeel van de implementatie van de wet. Daar komen wij in de komende tijd zo snel mogelijk op terug.

Ik wilde nog voorstellen – dat is een van de dingen die wellicht interessant is voor de heer Van Baarle – dat we in de vorm van een technische briefing natuurlijk altijd in meer detail uitleg en toelichting kunnen geven aan de Kamer over hoe de AI-verordening werkt: wat is er al, wat is er nog niet, waar moeten we nog aan werken enzovoorts?

Ik ga door met een aantal vragen van de heer Van Baarle, die hij net in een interruptie ook opnieuw heeft gesteld. Eén vraag ging nog over de Algemene wet bestuursrecht en de vraag of overheidsbesluiten op basis van algoritmes worden opgenomen in de Awb. Dat is op dit moment nog niet zo. De Algemene wet bestuursrecht kent wel een algemene motiveringsplicht. Op dit moment is er een internetconsultatie gaande over deze specifieke vraag. Wij vinden het natuurlijk ontzettend belangrijk dat helder is voor burgers hoe een besluit is genomen. Dat is niet alleen belangrijk zodat je weet op basis van welke gegevens dat gebeurd is of op welke manier de wet wordt toegepast, maar natuurlijk ook om inzicht te krijgen in of er inderdaad sprake is van gebruik van een algoritme. De AI-verordening geeft een verplichting om burgers te informeren als een high-risk AI-systeem is gebruikt. Over hoe we dat precies in de Awb willen opnemen hebben we nu een internetconsultatie lopen. We hopen die zo snel mogelijk, nog dit voorjaar, te kunnen afronden, zodat we ook duidelijkheid kunnen geven over hoe we dit in de Awb gaan opnemen. We zijn nu ook in bredere zin die wet aan het aanpassen.

De heer Van Baarle vroeg ook nog of we als land de ruimte hebben om het algoritmekader scherper in te zetten dan de bepalingen van de AI-verordening. We hebben gezegd dat we dat kader willen gebruiken als een hulpmiddel om te zorgen dat we de verordening op een goeie manier gaan implementeren. Dat kader gebruiken we bij de overheid om overheidspartijen te helpen om er invulling aan te geven. We kunnen onszelf altijd, als we dat zouden willen, nog scherpere regels opleggen, maar we vinden dat op dit moment niet nodig, omdat we alle elementen erin zien zitten.

Dan was er nog de vraag van de VVD over hoe je ervoor kunt zorgen dat de mens centraal staat bij het gebruik van algoritmes door de overheid. Natuurlijk moeten we transparant zijn over de inzet van algoritmes, bijvoorbeeld via het Algoritmeregister en de uitleg die we geven over hoe een besluit tot stand is gekomen. Helder is dat er altijd sprake moet zijn van menselijke tussenkomst, en dat het mogelijk is om ook in beroep te gaan bij een mens tegen een besluit dat door een algoritme is genomen.

We zijn nog steeds bij het blokje wet- en regelgeving. Mevrouw Kathmann vroeg of wij in aanloop naar de actualisatie van de UAVG, de uitvoeringswet voor de AVG, kunnen verkennen of de verplichting van een functionaris gegevensbescherming kan worden uitgebreid. Op dit moment is zo’n functionaris gegevensbescherming al verplicht voor alle organisaties die vanwege hun aard, omvang of doeleinden op grote schaal regelmatig en stelselmatig observaties van betrokkenen vereisen, en voor organisaties die belast zijn met het verwerken van persoonsgegevens. Met andere woorden, die is al verplicht in organisaties waar dit aan de orde is. Los daarvan moeten organisaties die zo’n functionaris niet hebben de AVG natuurlijk ook naleven. Wij denken dus eigenlijk dat dit niet nodig is, want het is al voldoende duidelijk wanneer een organisatie zo’n functionaris ook daadwerkelijk moet inzetten.

Mevrouw Kathmann vroeg of algoritmes en AI-modellen voldoende zijn gedefinieerd: zijn er geen blinde vlekken? Dat is eigenlijk in lijn met de vraag van de heer Six Dijkstra. Wij denken dat we op dit moment echt goed uit de voeten kunnen met de definities voor AI-systemen, modellen enzovoorts in de verordening, niet in de laatste plaats omdat er, ook bij de AI-verordening, veel discussie is geweest over welke definitie we nou gebruiken. Uiteindelijk is een werkgroep van de OESO daar met allerlei wetenschappelijke inzichten en praktijkinzichten mee aan de slag gegaan. We zien wel dat AI zich ontwikkelt. De technologie ontwikkelt zich. Er komen wellicht ook weer nieuwe toepassingen. Het is dus altijd nodig om te bekijken of die definities voldoende blijven, ook in de komende tijd. Voor nu kunnen we goed uit de voeten met de huidige definities.

Mevrouw Kathmann vroeg ook nog of we ervoor kunnen zorgen dat het duidelijk is wanneer iemand als risicopersoon is geselecteerd, bijvoorbeeld in het kader van een overheidsbesluit of als iemand al dan niet een bepaalde subsidie heeft gekregen. We vinden het belangrijk om als overheid super transparant te zijn over hoe we besluiten nemen. Wij vinden het ook goed dat dit bijvoorbeeld in een brief komt te staan. We bekijken hoe we dat kunnen doen, bijvoorbeeld door te verwijzen naar het Algoritmeregister. We kunnen dat ook doen door te verwijzen naar het register op gegevensbijbesluiten.overheid.nl, dat we inmiddels verder aanvullen. We zijn daar behoorlijk mee aan de slag. Dat register geeft inzicht in hoe een besluit bij de overheid wordt gemaakt.

Vanuit de AI-verordening is er straks dus ook een notificatieplicht. Met andere woorden, je moet ervoor zorgen dat het helder wordt wanneer hoogrisico-AI is toegepast. De kern van wat we willen bereiken, is: wanneer de burger een brief van de overheid ontvangt met een besluit, zoals het wel of niet ontvangen van subsidie, het starten van verder onderzoek of het verzoek om extra gegevens, is het altijd belangrijk dat die weet waarom de brief wordt gestuurd. Mevrouw Kathmann en ik hebben daar eerder met elkaar een discussie over gehad. Het is belangrijk om te begrijpen waarom je bijvoorbeeld wel of niet in aanmerking komt voor een studielening, subsidie, of iets van die orde, en dat je dit ook kunt nagaan. Niet alleen de AI-verordening is een hulpmiddel om dat inzicht te bieden. We kunnen dat verder doen door überhaupt inzichtelijk te maken hoe en op basis waarvan we besluiten maken bij de overheid. We zijn daar dus heel hard mee aan de slag.

De heer Valize van de PVV had een vraag over het implementatiekader: weten departementen daarvan en wat zijn de ervaringen daarmee? Inderdaad, de departementen kennen dit implementatiekader. We zijn het verder aan het ontwikkelen. We vertelden dat we dit kader aan het eind van dit jaar verder willen aanvullen met inzichten vanuit de AI-verordening. Zo zorgen we ervoor dat het overheden ook helpt om te voldoen aan de regels die worden gesteld, zoals in de AI-verordening.

Dan was er nog de vraag, ook van de heer Valize, hoe ik ervoor ga zorgen dat algoritmes verantwoord kunnen worden ingezet. Daar hebben we natuurlijk een hele serie van activiteiten voor: niet in de laatste plaats het algoritmekader, ervoor zorgen dat er een register is, en natuurlijk ook zorgen dat we die verordening in de komende tijd zo goed mogelijk gaan toepassen.

Dan was er ook nog een vraag van de heer Van Baarle van DENK. Die ging over het algoritmekader, maar volgens mij heb ik die al beantwoord. Hij vroeg: is dat nou een verplichtend kader? De elementen daarin zijn natuurlijk gewoon verplichtend, want je moet voldoen aan mensenrechtentoetsen, DPIA’s enzovoort, enzovoort als je algoritmes wil gaan invoeren.

Dan is er nog de vraag van de VVD of medeoverheden worden meegenomen als het gaat om analoge terugvalopties. Dat ging overigens over cyberaanvallen. Dat was een vraag van de heer Meulenkamp. Wij vinden ook dat je daar bij het inrichten van algoritmes heel goed naar zal moeten kijken. Ik denk dat we wel meer werk nodig hebben om dat goed te kunnen beantwoorden, maar we willen daar graag mee verder. Als het gaat over cyberaanvallen in de brede zin van het woord, is het namelijk altijd belangrijk dat de basisprocessen van een overheid doorgang kunnen blijven vinden. Dat is bijvoorbeeld het kunnen uitgeven van een paspoort, een uitkering of iets anders. Dat geldt natuurlijk net zo goed voor heel veel andere taken. Daarvoor hebben we in het kader van de implementatie van de zogenaamde NIS2-regels, dus de implementatie van Europese wetten die we hebben gemaakt op het gebied van cyberveiligheid, ook nog werk met elkaar te doen, zeker ook met andere overheden. Dat doen we graag met hen samen.

De heer Meulenkamp (VVD):

Geeft u daarmee ook aan dat het echt prioriteit moet hebben? U zegt dat u het belangrijk vindt, maar gaat u daar de komende maanden ook echt prioriteit aan geven, zeker gezien de onstabiele situatie in de wereld op dit moment?

Staatssecretaris Van Huffelen:

Cyberveiligheid heeft een grote prioriteit. Overigens is de eerstverantwoordelijke hiervoor de Minister van JenV. Maar dat laat onverlet dat we daar echt heel goed op samenwerken, zeker ook als het gaat over de implementatie van nieuwe regels daarvoor. Maar er zijn veel aspecten die daarmee samenhangen. Er is echt grote aandacht voor. Het is natuurlijk heel belangrijk dat alle partijen zich heel erg wapenen tegen dit fenomeen, en dus ook inderdaad gemeenten, provincies, waterschappen en grote, cruciale bedrijven, zoals in die in de energiesector en banken. Dit vindt in allerlei vormen en maten plaats en heeft inderdaad zeker in de huidige geopolitieke situatie in de wereld ongelofelijk veel aandacht nodig. Dat heeft dus veel prioriteit. Het is van belang – daar gaat het in dit debat natuurlijk ook vooral om – dat als je algoritmes gebruikt voor het uitvoeren van beleid, of dat nou gaat over uitkeringen of subsidies, je ook goed zorgt dat dat niet stopt wanneer je daar op de een of andere manier problemen mee krijgt, bijvoorbeeld wanneer die worden gehackt.

Dan de vraag van mevrouw Kathmann over het in kaart brengen van hoogrisicoalgoritmes. Uiterlijk eind volgend jaar moeten dus al die hoogrisicoalgoritmes in het register staan. Het is van belang dat iedereen daar zo snel mogelijk mee aan het werk gaat, maar het is niet onbelangrijk om te weten dat er voor hoogrisicoalgoritmes ook een Europese databank komt. Er is dus niet alleen het Nederlandse register; ook in Europa moeten die in een databank worden opgenomen.

Dan was er nog een vraag over effecten van het inzetten van algoritmes op de werkvloer. Daar had mevrouw Kathmann het over. Het gaat om de effecten op het dagelijks werk van mensen. Hoe zorg je er dan voor dat er de mogelijkheid is om in te grijpen? Natuurlijk moeten we goed gaan kijken naar de inzet van AI en algoritmes en hoe dat gaat werken, niet alleen binnen de overheid, maar ook bij bedrijven. Die implementatie gaan we in de komende tijd verder uitwerken. Maar het is natuurlijk echt heel belangrijk dat als er situaties ontstaan waarbij algoritmes de verkeerde kant op gaan, er voor overheden en bedrijven daadwerkelijk de mogelijkheid is om daarbij in te grijpen en te zorgen dat er bijvoorbeeld de mogelijkheid is om je daartegen te verzetten. Daarvoor is dat klachtenrecht bijvoorbeeld ontzettend belangrijk.

Er was nog een vraag vanuit NSC over de motie Leijten-Ceder, namelijk: hoe staat het met dat waardenkader? Die vraag is ook gesteld namens de ChristenUnie. In de afgelopen tijd heb ik over dit onderwerp gesproken met veel experts, die aangeven dat de code voor goed digitaal openbaar bestuur, CODIO, een heel goed overkoepelend kader is om publieke waarden bij de inzet van technologie te waarborgen. Die gebruiken we dus ook. Die is al ontwikkeld in 2021. De praktische toepasbaarheid daarvan verdient wel meer werk. Daaraan werken we op dit moment hard. In december, dus aan het eind van dit jaar, zal ik uw Kamer verder informeren over dat werk. Op dit moment werken we dus op basis van dat overkoepelende CODIO-kader.

Dan is er nog de vraag van DENK over de AI-verordening: wat is een hoogrisicoalgoritme? Daar hebben we volgens mij al iets over gezegd. Dat zijn bijvoorbeeld algoritmes waarmee je controleert of een uitkering rechtmatig wordt verleend of algoritmes voor het scannen van cv’s en sollicitatiebrieven. Bij al dit soort elementen worden algoritmes heel duidelijk als hoogrisicoalgoritmes aangeduid. Die zullen dus moeten voldoen aan wat er in de verordening over systemen is aangegeven.

Dan heb ik volgens mij alle vragen op het gebied van wet- en regelgeving beantwoord.

De voorzitter:

Er is een vraag voor u van mevrouw Van der Werf.

Mevrouw Van der Werf (D66):

Volgens mij zijn er nog een paar dingen blijven liggen, al is er natuurlijk het risico dat dit in een volgend blokje voorbijkomt. Ik had gevraagd wat nou de volgende stap is na de AI-verordening. Hoe ga je van transparantie naar ingrijpen? Ik was benieuwd welke instrumenten je hebt voor de naleving. Dus waar wordt die handhaving dan belegd? Hoe kan je een scenario zoals we dat nu bij de DSA hebben gezien, waarbij het nog niet rond was, voorkomen?

Staatssecretaris Van Huffelen:

Op deze AI-verordening wordt toezicht gehouden. De toezichthouders kunnen boetes uitdelen. Dat kunnen flinke boetes zijn; ik geloof dat die kunnen oplopen tot 6% van de totale wereldwijde omzet van een bedrijf. De kern van het verhaal is dus dat het inrichten van toezicht iets is waar we in de komende tijd mee aan de slag gaan: welke toezichthouder gaat wat doen? We gaan zorgen dat er goede normuitleg is voor bedrijven, zodat mensen ook weten hoe ze moeten voldoen aan deze regels. Vervolgens kan er inderdaad toezicht worden gehouden. Nogmaals, daarbij is een heel instrumentarium aan de orde, inclusief het instrumentarium van het daadwerkelijk uitdelen van boetes.

De voorzitter:

Er is nog een interruptie, van de heer Meulenkamp van de VVD.

De heer Meulenkamp (VVD):

Ik had de volgende vraag gesteld. Als we algoritmes meer gaan gebruiken, is er misschien wel meer tijd om weer te luisteren naar onze inwoners, zodat mensen buiten ook het voordeel gaan inzien van het gebruik van algoritmes. Dan zeggen ze misschien: ik word sneller geholpen door de overheid, ik word beter gehoord. Heeft u er een beeld bij hoe u daarop zou willen sturen? In mijn ogen is dat cruciaal voor het herstellen van vertrouwen in de overheid. Volgens mij heeft u die vraag nog even laten liggen.

Staatssecretaris Van Huffelen:

Die zit in een blokje verderop, maar ik zal ’m alvast even oppakken. De kern is inderdaad het volgende. Als we het hebben over de AI-verordening, dan hebben we het natuurlijk heel sterk over het beperken van de risico’s en over zorgen dat je algoritmes op een goede manier reguleert. Dat is om ongelukken, zoals we die ook hebben gekend in Nederland, te voorkomen. Dat is superbelangrijk, maar laten we helder zijn: algoritmes kun je inderdaad ook heel goed inzetten in het voordeel van burgers, bijvoorbeeld om meer aan proactieve dienstverlening te doen. Het is nu vaak zo dat als mensen in aanmerking komen voor een subsidie of een toeslag – dat is zelfs in bijna 100% van de gevallen zo – ze zich daar zelf voor moeten aanmelden. Maar we zouden algoritmes ook kunnen gebruiken om meer proactief aan te geven waar je recht op hebt, of het geld zelfs al over te maken. Je kunt bijvoorbeeld ook generatieve AI inzetten om de dienstverlening aan de telefoon te verbeteren.

Op allerlei manieren kun je AI dus inzetten in positieve zin. In onze visie op generatieve AI hebben we daarover een aantal elementen opgenomen. We willen daar in de komende tijd verdere uitwerking aan geven: hoe kunnen we dit op een goede manier doen, zodat het inderdaad makkelijker is om burgers te helpen en zodat het werk voor mensen die direct contact hebben met burgers, bij bijvoorbeeld gemeenten of uitvoeringsorganisaties, makkelijker wordt? Zo ken ik een voorbeeld in Frankrijk waarbij mensen die achter het loket zitten bij de gemeente, gebruik kunnen maken van generatieve AI om vragen van bewoners sneller te kunnen beantwoorden. Dat wordt nu geïmplementeerd en dat gaat dus om een breed terrein, over allerlei aspecten van de overheid. Dus we zijn echt wel heel goed aan het kijken naar hoe we het op een positieve manier kunnen inzetten. Maar we zijn daarbij natuurlijk ook voorzichtig en zorgvuldig, want we willen voorkomen dat daar waar je het positief bedoelt, het leidt tot nieuwe problemen. Hoewel we al heel fantastische technische ontwikkelingen zien, ook met generatieve AI, zien we ook nog large language models die hallucineren, zoals dat dan heet. Je zou ook kunnen zeggen dat ze gewoon foute informatie geven. Het is ontzettend belangrijk dat je dat voorkomt als je het ten gunste inzet. Maar die twee kanten zijn allebei onderdeel van het beleid van deze regering.

De voorzitter:

U had nog een vervolgvraag van mevrouw Van der Werf. Meneer Meulenkamp, heeft u een vervolgvraag? Mevrouw Van der Werf komt zo aan bod, hoor ik. De heer Meulenkamp, daarna de heer Van Baarle.

De heer Meulenkamp (VVD):

Ik zou hier graag een link willen leggen met het aantal Woo-verzoeken dat we jaarlijks moeten behandelen. Dat klotst echt tegen de plinten. Gaan we in de gaten houden hoe het gaat met ontwikkeling van de Woo-verzoeken en wat de relatie is met het meer spreken met mensen, omdat we algoritmes gaan inzetten? Dat geef ik als tip mee.

Staatssecretaris Van Huffelen:

Dank u wel. We doen alles wat we kunnen om onze dienstverlening te versterken. We hebben ook afspraken gemaakt over het idee «no wrong door», wat betekent dat je bij alle loketten terecht moet kunnen. Dat kun je alleen maar inrichten als je ook ervoor zorgt dat mensen die achter zo’n loket zitten, voldoende geïnformeerd zijn. Daar kan generatieve AI of AI echt een belangrijke rol spelen. Maar nogmaals, we moeten dan wel ervoor zorgen dat het goed is ingericht en getest voordat we dat gaan doen. Uiteraard moet het voldoen aan onze eigen regels die in de AI-verordening staan.

De voorzitter:

De heer Van Baarle en dan de heer Valize.

De heer Van Baarle (DENK):

Ik had nog een verhelderende vraag over wat «hoog risico» is in de AI-verordening. Als ik het even bekijk, dan zie ik dat er acht gebieden onderscheiden worden, waaronder bijvoorbeeld toegang tot essentiële particuliere diensten en openbare diensten en uitkeringen. Neem bijvoorbeeld die essentiële particuliere diensten. Is nou goed omschreven in die verordening en helder voor ons in de implementatie wat een essentiële particuliere dienst is en wat niet? Neem bijvoorbeeld het krijgen van een bankrekening of een verzekering. Is dat limitatief opgeschreven of is het aan ons om te interpreteren wat die acht omschrijvingen van categorieën in de praktijk zijn?

Staatssecretaris Van Huffelen:

Het gaat in dit geval dus echt over banken en verzekeraars of hypotheekverstrekkers. Ik denk dat we daar voldoende informatie over hebben. Nogmaals, ik denk dat het goed is dat we daar nog een keer met elkaar in een technische briefing wat meer en dieper op ingaan. Dit soort dienstverlening hoort daar dus bij, net als energiebedrijven, enzovoorts, enzovoorts.

De heer Valize (PVV):

Ik had ook nog een vraag gesteld. Ik moet trouwens wel zeggen dat ik het fijn vind om te horen dat de Staatssecretaris ook denkt in kansen en mogelijkheden van generatieve AI. Dat is altijd mooi om te horen. Maar ik had ook nog een vraag gesteld over het IKA-register. Wat is er in de IA Act opgenomen dat afwijkt ten opzichte van het IKA-register en andersom? Dus gaan wij met het IKA-register verder dan de AI Act, of gaat de AI Act verder dan het IKA-register?

Staatssecretaris Van Huffelen:

Bij het Algoritmeregister dat we nu hebben, hebben we afgesproken dat de overheden hun hoogrisicoalgoritmes registeren. Dat is in principe hetzelfde als wat bedoeld is met dat «hoog risico» in de AI Act. We willen dezelfde definitie van «hoog risico» gebruiken als in de AI Act, zodat daar een-op-een hetzelfde in staat. Dat gaat over het register.

Dan het implementatiekader. Misschien loopt het een beetje door elkaar. We hebben een register. Alle algoritmes die door de overheid worden gebruikt, staan daarin of moeten daarin komen te staan; het is nog niet helemaal gevuld. Dan gaat het over de rijksoverheid, maar ook over gemeenten, provincies, waterschappen enzovoorts. Dan is er de AI-verordening, de regelgeving waar algoritmes aan moeten voldoen. Hoe we dat gaan toepassen bij de overheid, stoppen we in zo’n implementatiekader. Dat klinkt misschien een beetje complex, maar het is eigenlijk de normuitleg die we als overheid willen gebruiken om te zorgen dat wij met z’n allen kunnen voldoen aan de regels van de AI-verordening.

De voorzitter:

Een vervolgvraag van de heer Valize.

De heer Valize (PVV):

Dank voor de heldere toelichting. Dan had ik ook nog een vraag over datzelfde implementatiekader. Er werd al eerder door de heer Van Baarle een vraag gesteld over de verplichtingen die eruit voortvloeien: is het een vereiste? Toen werd gezegd: ja, dat klopt; het is een eis. Vervolgens lees ik in de verzamelbrief met betrekking tot het reguleren van de algoritmes op pagina 4 dat het geen checklist is, dat het nemen van maatregelen in dit kader niet rechtstreeks leidt tot het voldoen aan de verplichting en dat niet alle maatregelen in dit kader verplicht zijn. Dan is toch even de vraag: wordt nu alles wat in dat IKA staat verplicht of niet? Of komt er gewoon een registertje in dat IKA-stuk waarbij staat: deze onderdelen zijn verplicht en hieraan moet u voor honderd procent voldoen, en dit zijn zeer dringende adviezen?

Staatssecretaris Van Huffelen:

Het is eigenlijk allebei zo. De overkoepelende wetgeving is de AI-verordening in samenhang met een aantal andere wetten die we met elkaar kennen. Als het gaat over het toepassen van algoritmes door de overheid, dan is het uiteraard van belang dat je voldoet aan die AI-verordening. Daarin staat bijvoorbeeld dat je die mensenrechtentoets moet doen en dat je een DPIA moet doen en al dat soort elementen. Het kan zijn dat we in het implementatiekader ook nog wel aanvullingen doen in de zin van: dit zijn handreikingen; dit is iets wat je zou kunnen doen om het voor jezelf makkelijker te maken en te voldoen aan de wet. Dat kan. Maar de kernelementen van het implementatiekader zijn die elementen die ook wettelijk verplicht zijn. Daarmee zijn ze ook verplicht.

De voorzitter:

U kunt door, hoor, nu.

Staatssecretaris Van Huffelen:

Ik denk dat dat ook goed is. Het is altijd een beetje lastig, want u denkt soms dat een vraag misschien niet meer aan bod komt, maar ik heb in mijn mapjes nog wat antwoorden op vragen zitten. Misschien is het goed om die eerst door te lopen en dan te kijken of ik nog iets vergeten ben.

Er was nog een vraag van mevrouw Kathmann over de toezichthouders. In dit verband en bij de implementatie van die AI-verordening ben ik ontzettend blij met de afspraak met de toezichthouders om samen te werken in dat samenwerkingsplatform voor digitale toezichthouders. Het was volgens mij de heer Krul – hij is er nu even niet – die zei: wordt het dan niet een ontzettend warrige toestand? Ik denk juist van niet. Algoritmes worden toegepast in heel veel sectoren, bij de overheid, in de private sector. Het is ongelofelijk belangrijk dat we op dezelfde manier kijken naar het uitvoeren van die algoritmewetgeving voor die verschillende sectoren. Natuurlijk is het ook ontzettend belangrijk dat we dat doen in een gecoördineerd stelsel. Dat gecoördineerde stelsel is dat samenwerkingsverband waar ik het net over had.

Volgens mij ben ik dan door het mapje toezicht heen. O nee, ik heb nog één vraag. Wie is er verantwoordelijk voor de handhaving als het algoritmekader bindend is? Daarbij hebben we de afspraak dat het stelsel van toezichthouders aan het werk gaat en dat de AP hier de rol speelt van coördinerende toezichthouder.

Dan ga ik naar de vragen over het Algoritmeregister, voor zover die inmiddels nog niet beantwoord zijn. Er was een vraag van mevrouw Van der Werf over dat hoogrisicoalgoritmes in het kader van opsporing niet in het register staan. Dat is niet zo. Dit soort algoritmes moeten ook worden opgenomen als onderdeel van het algoritmekader. Het is wel zo dat niet alle informatie over dit soort algoritmes kan worden aangegeven. Ik kom terug op een onderwerp dat ook in de afgelopen jaren wel heeft gespeeld. Als je bijvoorbeeld bij een bepaalde controle bij de Belastingdienst een drempelbedrag invoert, dan zal je waarschijnlijk dat drempelbedrag niet willen openbaren, maar wil je wel helder maken dat er sprake is van algoritmische besluitvorming. Nogmaals, met alle departementen is afgesproken dat zij hun hoogrisicosystemen in het kader opnemen. Maar het is dus wel van belang dat de algoritmes worden opgenomen. Je kan er in het kader van bijvoorbeeld opsporing voor kiezen om niet alle elementen daarvan op te nemen.

Mevrouw Van der Werf (D66):

Dit is al een deels bevredigend antwoord. Ik stelde de vraag vooral omdat ik wil weten hoe je er als je iets niet opneemt, voor zorgt dat dat stukje wel kan worden doorgelicht. Daar gaat het me om. Ik kan me dus helemaal voorstellen dat je niet honderd procent transparant kan zijn, maar hoe zorg je er dan voor dat er ergens die toets is?

Staatssecretaris Van Huffelen:

De toezichthouders op deze organisaties zullen dat natuurlijk altijd wel krijgen. Die hebben altijd toegang en kunnen inzicht krijgen in die algoritmes.

Dan was er ook nog een vraag van de PVV over de verplichting van het Algoritmeregister volgens de AI-verordening. De AI-verordening geeft aan welke algoritmes verplicht moeten worden geregistreerd in een Europese database. Het nationale register dat we hebben, moet natuurlijk op z’n minst die algoritmes bevatten. Als wij nog meer in dat register willen zetten, dan kunnen we dat natuurlijk doen, maar op z’n minst moeten de hoogrisicoalgoritmes erin zitten die er volgens de verordening in moeten staan.

Dan was er nog de vraag van de PVV waarom het Algoritmeregister nog niet helemaal vol is. Dat is een oproep naar mijn hart. Ik nodig iedereen natuurlijk heel graag uit om die algoritmes ook daadwerkelijk in het register op te nemen. Mijn collega’s van de andere departementen hebben ook aangegeven dat ze dit gaan doen. Het is niet altijd heel erg makkelijk om dat snel te doen, maar ze zullen dat doen. Ze hebben aangegeven dat ze daar tot uiterlijk eind volgend jaar voor nodig hebben.

Dan zijn er nog vragen over het advies van de landsadvocaat. Nogmaals, daar gaat mijn collega verder op in.

Er was de vraag hoeveel departementen gebruikmaken van automatische besluitvorming en op welke termijn een reactie kan worden gegeven op het verzoek van de heer Idsinga daarover. Als coördinerende bewindspersoon ben ik aan het kijken hoe we uitvoering kunnen geven aan dat verzoek, namelijk hoe we inzicht krijgen in alle automatische besluitvorming waarvan sprake is. Op dit moment heb ik dat inzicht nog niet, maar ik ben wel aan het kijken hoe we dat kunnen doen. Mijn voorstel is om voor de zomer een brief naar de Kamer te sturen om aan te geven hoe we hieraan kunnen voldoen. Daarbij kijken we natuurlijk ook naar het advies dat we in dit kader zullen krijgen vanuit de Autoriteit Persoonsgegevens.

Dan kom ik bij het blokje overig.

Daarin begin ik met een vraag die mevrouw Van der Werf heeft gesteld: hoe kunnen we zorgen dat mensen beter begrijpen hoe AI werkt en hoe kunnen we hen informeren over de gevaren die daarmee samenhangen? Eigenlijk zijn we daarvoor een aantal dingen tegelijkertijd aan het doen, want dit heeft alles te maken met een belangrijk onderdeel van onze werkagenda, namelijk: zorgen dat mensen digitaal mee kunnen doen. Dat betekent dat er nu bijvoorbeeld als vast onderdeel in het curriculum op scholen niet alleen aandacht wordt besteed aan digitale vaardigheden, maar ook aan mediawijsheid. Dat onderwerp wordt nu verder uitgewerkt. Dat gebeurt natuurlijk onder leiding van de Minister van Onderwijs. We kijken ook of we aandacht kunnen besteden aan het onderwerp beter inzicht krijgen in bijvoorbeeld desinformatie en deepfakes. We hebben daar al websites voor met informatie daarover. Twee belangrijke bronnen daarvoor zijn mediawijsheid.nl en isdatechtzo.nl. Maar niet in de laatste plaats is het natuurlijk zo dat, als onderdeel van de DSA, deepfakes straks moeten worden gemarkeerd, voor zover die überhaupt mogen worden gebruikt; er zijn namelijk ook deepfakes die niet mogen worden ingezet. Daarmee hopen we ook veel meer inzicht te bieden in welke informatie te herkennen is als een deepfake, gemaakt of niet echt, en welke informatie wel echt is.

We zetten daarop in met educatie, te beginnen op scholen, en op allerlei manieren met lesprogramma’s en we komen binnenkort met een nieuwe brief over onze inzet op desinformatie, maar ik denk dat het desondanks echt een onderwerp is waar we in de komende jaren nog veel meer aandacht aan moeten besteden. Ondanks het feit dat iets gemarkeerd moet worden volgens de Digitaledienstenverordening, de SDA, en dat we meer aan mensen gaan aangeven hoe je deepfakes of andere dingen kunt herkennen, zullen we dit fenomeen namelijk zeker nog tegenkomen. Mensen daartegen wapenen is een belangrijke factor. Niet voor niks heeft bijvoorbeeld de oprichter van Bellingcat duidelijk gezegd dat dat een van de belangrijkste dingen is. Los daarvan moeten we ook techniek inzetten om te zorgen dat we dit fenomeen verder bestrijden.

Dan was er nog de vraag van DENK over de uitvoering van het ADR-onderzoek naar de uitvoering van de motie op stuk nr. 21. Dat onderzoek voert de ADR uit om te kijken of de departementen op een goede manier invulling hebben gegeven aan datgene wat er met de motie beoogd werd. De rapportages worden inderdaad in de zomer verwacht. Daar gaan we ook een zogenaamde rodedradenanalyse en een bestuurlijke reactie bij geven. Daarmee hopen we dus ook wat meer te laten zien over de manier waarop dit assessment is gedaan. U vroeg ook nog: gaat u dit nou structureel doen? Dat willen we eigenlijk niet doen, want we willen vooral zorgen dat we met de regelgeving die er is voor de inzet van algoritmes op een goede manier kunnen zorgen dat er een structureel element is waarmee we steeds de toetsen kunnen doen. Met het toezicht op de in- en uitvoering van de AI Act beogen we natuurlijk hetzelfde als de motie op stuk nr. 21.

Dan was er van DENK ook nog de vraag of de handreiking non-discriminatie gedeeld is met de private partijen. Dat hebben we gedaan. Die is namelijk openbaar beschikbaar. We zien ook dat veel van de aanbevelingen van toepassing zijn op en gebruikt worden door private partijen.

Dan was er nog de vraag – die was ook van DENK – over het protocol bij geconstateerde discriminatie. Zoals we hebben toegezegd, komt dat voor de zomer. Daarin ga ik in op de manier waarop overheidsorganisaties moeten omgaan met discriminatie op het moment dat die geconstateerd wordt. Dat gaat bijvoorbeeld om hoe je burgers moet informeren als er een probleem is en om hoe je op basis van de ontstane problematiek een klacht kunt indienen. We gaan verder kijken hoe de AI-verordening hier invulling aan geeft, maar het protocol is in ieder geval een belangrijke stap. Dat komt dus voor de zomer.

Dan ben ik als het goed is door de vragen heen.

De voorzitter:

Dan kijk ik even naar links, naar de Kamerleden. Ik zie al een vinger van de heer Valize. Zijn verder alle vragen aan de Staatssecretaris Koninkrijksrelaties en Digitalisering beantwoord? Oké.

De heer Valize (PVV):

Ik had ook nog een vraag gesteld met betrekking tot de Autoriteit Persoonsgegevens en de directie Coördinatie Algoritmes, die dus wat opgeschaald wordt. Ik had gevraagd of de capaciteit voldoende is.

Staatssecretaris Van Huffelen:

Op dit moment zien we dat er voldoende capaciteit is. In de verdere uitwerking en bij de implementatie van de verordening, en dus ook bij het beter definiëren van wie welke rol moet spelen en hoe dat er precies uit komt te zien, zullen we dat natuurlijk altijd in de gaten moeten houden. Het is natuurlijk belangrijk dat het toezicht bij zo’n verordening goed kan worden ingericht, maar op dit moment kan de AP met de huidige groep van mensen uit de voeten. Dat is in ieder geval de informatie die ik daarover heb. Mocht dat niet zo zijn, dan kom ik daar in een later stadium zeker graag op terug.

De voorzitter:

Dan dank ik de Staatssecretaris voor de beantwoording en gaan we naar de Staatssecretaris van Financiën, de heer Van Rij.

Staatssecretaris Van Rij:

Ja, dank u wel, voorzitter. Ik zal specifiek ingaan op de vragen die gesteld zijn naar aanleiding van het advies van de landsadvocaat. Dat wilde ik als volgt doen: eerst even het proces, dan het advies van de landsadvocaat en dan de vervolgstappen.

Collega Aukje de Vries en ondergetekende zijn al langere tijd bezig met het maken van een wetsontwerp, namelijk het wetsvoorstel Wet waarborgen gegevensverwerking Belastingdienst, Toeslagen en Douane, ook wel afgekort als WGBTD. Ik moet zelf altijd weer even nalezen waar het voor staat, vandaar dat ik het ook voluit heb gezegd. Daarover hebben we de Kamer in verschillende voorgangsrapportages ingelicht. Dat gaat over de AVG, de Algemene verordening gegevensbescherming, maar ook over de Baseline Informatiebeveiliging Overheid en over de Archiefwet. In het kader van het voorbereiden van die wetgeving hebben wij natuurlijk ambtelijk ook de uitspraak van het Hof van Justitie van 7 december jongstleden geconstateerd. Dat is het zogenaamde SCHUFA-arrest, en er was natuurlijk al een conclusie gewezen in maart vorig jaar.

Dat heeft er bij ons direct aanleiding toe gegeven advies te vragen aan de landsadvocaat. Dat advies hebben wij in eerste instantie gekregen op 31 januari en zo heb ik dat ook beantwoord op schriftelijke vragen van NSC. Wij hebben daar gesprekken over gehad. We hebben ook wat verduidelijkende en aanvullende vragen gesteld. We hebben ook de ambtelijke commissie publieke dienstverleners of uitvoeringsorganisaties hiervan op de hoogte gesteld. We hebben het ook aan de orde gesteld in februari in de ministeriële commissie uitvoeringsorganisaties publieke dienstverlening. Wij beseften natuurlijk dat we al met een wetgevingstraject bezig zijn, maar niet de collega-beleidsdepartementen daarmee wilden verrassen. Met name de Ministeries van SZW, OCW en VWS hebben aangegeven in die vergaderingen niet alleen in de inhoud van het advies van de landsadvocaat geïnteresseerd te zijn, maar daar ook opvattingen over te hebben. Dat is allemaal terechtgekomen in aanvullende vragen. Dat heeft geleid tot het advies van 12 maart.

Dan het advies zelf. De landsadvocaat geeft in dat advies aan en bouwt zeer zorgvuldig op dat het profileringsbegrip in de AVG ruim moet worden uitgelegd. Dat is wel een uitleg die een stuk ruimer is dan voor die tijd. Daar heeft de landsadvocaat ook argumenten voor.

Een van de vragen ging over selectiecriteria. We hebben aan de landsadvocaat de selectiecriteria voorgelegd die de Belastingdienst altijd hanteert. Ik heb nog meegemaakt dat er geen automatisering was, toen ik in 1983 begon. Ik ben nog van dat tijdperk. Toen waren er ook selectiecriteria. Ik geloof dat de heer Van Baarle het op een bepaald moment samenvatte. Nu zijn we natuurlijk met automatisering bezig. We ontkomen daar niet aan. Als we de automatisering moeten stopzetten bij alleen al 10 miljoen aangiftes inkomstenbelasting, die geautomatiseerd verwerkt worden op basis van vooraf ingevulde aangiftes, dan komen de belastingcentjes niet binnen. Het gaat natuurlijk om die selectiecriteria. Bij die selectiecriteria heeft de landsadvocaat over profilering gezegd dat van de tien er twee niet voldoen. Dat had te maken met leeftijd. Dat heeft er gewoon mee te maken dat je bijvoorbeeld bij een jonggehandicaptenkorting naar de leeftijd moet kijken of naar een bepaalde reserveringsruimte. Maar de overige voldoen wel. Dat is een behoorlijk ruime uitleg.

De volgende vraag waar de landsadvocaat op is ingegaan, is de volgende. Je hebt in eerste instantie de eerste fase: de aangiftes worden geautomatiseerd ingediend. Vervolgens worden er een aantal «uitgeworpen»; dat is de terminologie. Ik geloof dat de heer Krul het over een «ping» had, maar dit is de terminologie binnen de Belastingdienst. Dat is dan op basis van die selectiecriteria. Dat wil niet per definitie zeggen – helemaal niet, zelfs – dat de gedachte is: o, er is een fout gemaakt in de aangifte; dit kan de eerste stap zijn voor een fraudeonderzoek. Heel veel mensen maken fouten. In een van die selectiecriteria staat bijvoorbeeld iets over de situatie dat iemand voor de eerste keer zijn aangifte inkomstenbelasting invult omdat diegene een eigen huis gekocht heeft en recht op renteaftrek heeft. De ervaring leert dat heel veel mensen daarbij fouten maken, omdat dat de eerste keer is. Dan krijg je een vragenbrief. Dat gebeurde ook in de tijd dat er nog geen automatisering was. Heel vaak is dat juist in het belang van de belastingplichtige, want als je een niet goed ingevulde aangifte hebt, dan hoor je liever van de Belastingdienst waar het dan niet goed is, in plaats van dat je een heel hoge aanslag, een navorderingstraject of nog erger krijgt.

Zo is er ook het voorbeeld van een oudere dame. Die had bij het invullen van haar aangiftebiljet het knopje voor de buitengewone lastenaftrek zorgkosten te lang ingedrukt. In plaats van 4.000 kwam er 4 miljoen uit. Zij was ontzettend blij dat ze een telefoontje kreeg van de Belastingdienst met de vraag: klopt dit wel? Natuurlijk zijn er ook situaties waarin er niet zomaar «foutjes» door belastingplichtigen worden gemaakt, maar waarin er bewúst fouten worden gemaakt. Dat kan dan wel degelijk aanleiding geven tot niet alleen een vragenbrief, maar ook een vervolgonderzoek.

Ik kom op wat de landsadvocaat heeft gezegd. Wat betreft artikel 22 van de AVG gaat het om de vraag: wanneer is er nou sprake van een besluit met rechtsgevolgen? Wat betreft automatisering worden de twee stappen die ik net beschreef, als één gezien. Als er dan ook nog eens een keer sprake kan zijn van het «anderszins in aanmerkelijke mate treffen», doet zich de vraag voor of de werkwijze die wij thans hanteren, met die open norm, in strijd zou zijn met het huidige artikel 22 van de AVG en met artikel 40 van de Uitvoeringswet AVG.

Waar baseert de landsadvocaat zich op? Dit is trouwens ook echt een beetje onontgonnen terrein. De jurisprudentie ontwikkelt zich dus ook. Die jurisprudentie ontwikkelt zich heel vaak in private situaties. Je hebt te maken met het aspect dat je ook nog een publieke dienstverlener bent, die ook nog naar andere zaken moet kijken dan alleen die mogelijke fraudesituaties. Denk aan dat SCHUFA-arrest. Dat is allemaal nog onduidelijk qua jurisprudentie. We nemen het advies van de landsadvocaat natuurlijk ongelofelijk serieus. Maar zij baseren zich met name op het volgende. Er is, op basis van artikel 29 van de AVG, een Europees Comité voor gegevensbescherming. Dat brengt richtsnoeren uit, die door de rechter worden gebruikt bij de interpretatie van deze wetgeving. Dat zijn richtsnoeren. De landsadvocaat kan natuurlijk ook niet anders doen. Een deel van die wetgeving heeft ook te maken met die richtsnoeren.

Wij hebben het volgende gemeend. De consequenties van dit advies kunnen verregaand zijn. Hier werd ook al naar gevraagd. Wij dachten: «We gaan niet over één nacht ijs. Dan vragen we aan de Autoriteit Persoonsgegevens zélf om hier het licht over te laten schijnen.» Uiteindelijk is die namelijk de autoriteit met de onafhankelijke en objectieve deskundigheid wat betreft de interpretatie van deze wetgeving. Die vraag hebben we neergelegd bij de Autoriteit Persoonsgegevens. Wij verwachten daar eind mei een antwoord op.

Wij hadden in het antwoord op de schriftelijke vraag van NSC ook nog gezegd dat het onze bedoeling is om twee onafhankelijke wetenschappers daarover om advies te vragen. Die zijn niet eerder beschikbaar dan augustus of september. Dat vinden wij te laat. In nauwe samenspraak met de Staatssecretaris van BZK – ze heeft daar zojuist zelf ook al wat over gezegd – hebben wij nu het idee om, nadat we het advies van de AP hebben, in ieder geval als Ministerie van Financiën, met name collega De Vries en ikzelf, de vervolgstap te zetten. Die vervolgstap is dan toch: wetgeving voorbereiden, die niet alleen op de AVG betrekking heeft. Dat heb ik ook al eerder gezegd. We willen de Wet waarborgen gegevensverwerking Belastingdienst, Toeslagen en Douane rapido in gang zetten. Dan komen we uiteraard ook bij uw Kamer terug. Het is namelijk wel van cruciaal belang dat hiervoor een goede wettelijke grondslag komt. Dat loopt natuurlijk parallel aan wat de andere departementen wel of niet zullen doen. Want nogmaals, het gaat bij ons niet alleen om de AVG, maar ook om die andere onderwerpen.

Voorzitter. Volgens mij heb ik nu behoorlijk wat vragen beantwoord. Er was nog één vraag, van de heer Krul. Tenzij je met nieuwe wetgeving zou komen, zou de consequentie van het advies in extremis kunnen zijn dat je ten aanzien van de handhaving geen gerichte controle meer kan doen. Dan zou je het met aselecte steekproeven moeten doen. Dat doet iets met de voorbeelden die ik net noemde: aftrekbaarheid van de hypotheekrente in de situatie dat je voor de eerste keer een huis koopt, zorgkosten of die directeur-grootaandeelhouder in box 2. Ik heb ook al gezegd wat dit eventueel betekent voor andere departementen en dat we in goed overleg zijn.

Voorzitter. Dan is er alleen nog de vraag van de heer Krul over welke gevolgen deze uitspraak heeft voor het witwastoezicht, waarbij banken op basis van geautomatiseerde signalen onderzoek doen. Daarbij moet ik even tekstvast zijn. Dat zit namelijk in de portefeuille van de Minister van Financiën. Daar ben ik dus niet dagelijks mee bezig.

Poortwachters wat betreft de Wet ter voorkoming van witwassen en financieren van terrorisme, de Wwft, dienen altijd aan cliëntonderzoek en transactiemonitoring te doen. Er is een breed scala aan poortwachters, van banken tot advocaten. Een deel van dat proces is geautomatiseerd. Dat is efficiënter voor banken en klanten. De Nederlandsche Bank houdt Wwft-toezicht op banken. Dat is bekend. Deze wet verplicht alle poortwachters om een risicogebaseerd onderzoek te doen en voor elke cliënt een zelfstandige afweging te maken.

De Minister van Financiën heeft aangegeven met DNB in gesprek te zullen gaan over de processen van banken. Daar waar de Belastingdienst taken uitvoert in het kader van het toezicht op de Wwft, wordt geïnventariseerd in hoeverre daarvoor gebruik wordt gemaakt van geautomatiseerde selectietechnieken. Hierover wordt u schriftelijk nog nader geïnformeerd; dat gebeurt ook omdat er een verzoek ligt van het lid Idsinga om hiervan een overzicht op te leveren.

Voorzitter. Ik heb nog één laatste opmerking. Als er echt sprake is van fraude of als er aanwijzingen van fraude zijn, hebben we natuurlijk altijd nog de Wet politiegegevens. Op basis van die wet, die de FIOD veel ruimere bevoegdheden geeft, kan er natuurlijk altijd een onderzoek worden ingesteld. Daar was ook een vraag over gesteld, dacht ik.

De voorzitter:

Dan kijk ik als eerste naar de heer Krul van het CDA.

De heer Krul (CDA):

Dank aan de Staatssecretaris voor deze heldere en uitgebreide uitleg. Ik begrijp dat de situatie die geschetst wordt, waarin we alleen maar aselecte steekproeven zouden kunnen doen, een «in extremis»-situatie is. Dat zou natuurlijk ook grote gevolgen kunnen hebben voor de belastingplichtige die wel een fout heeft gemaakt, maar dat niet bewust heeft gedaan. In die zin zijn wij er niet geruster op. Ik zou willen vragen of de Staatssecretaris overwogen heeft om, naast de Autoriteit Persoonsgegevens – die is wat dat betreft natuurlijk de autoriteit – bijvoorbeeld ook de Raad van State om advies te vragen. Misschien is het juist verstandig om te kijken of we in bredere zin wat meer advies kunnen krijgen over het wetsvoorstel dat in ontwerp gaat. De gevolgen zouden in extremis immers erg impactvol kunnen zijn.

Staatssecretaris Van Rij:

Dank voor deze vraag. Dat hebben we wel overwogen. Dan zal de heer Krul waarschijnlijk bedoelen dat we de Raad van State om een voorlichting vragen. Daar hebben we toch van afgezien, omdat wij de Autoriteit Persoonsgegevens op dit moment eigenlijk de meest aangewezen instantie vinden, vanwege de korte termijn waarin we antwoorden willen hebben. Wij dienen het wetsontwerp ook niet in vóórdat we dat advies van de Autoriteit Persoonsgegevens hebben gehad. Anders kan de Autoriteit Persoonsgegevens natuurlijk geen advies geven. Bij de Raad van State zit je eigenlijk een beetje in een vergelijkbare situatie. Als wij namelijk met dat wetsontwerp komen, komt de Raad van State in het reguliere traject ook nog gewoon aan bod. In het reguliere traject geeft de Raad van State ook nog advies over het wetsontwerp. Die combinatie van argumenten heeft er dus bij ons toe geleid om te zeggen: we vragen het nu aan de Autoriteit Persoonsgegevens. We komen uiteraard direct bij uw Kamer terug als we dat ontvangen hebben.

De voorzitter:

Dan kijk ik even verder. Zijn alle vragen beantwoord? Dat is zo. Ik denk dat we dan kunnen starten met de tweede termijn en dan is het woord aan de heer Six Dijkstra van NSC.

De heer Six Dijkstra (NSC):

Dank u wel, voorzitter. Ook dank aan beide staatssecretarissen voor de beantwoording. Ik had nog een aantal punten. Allereerst zie ik natuurlijk erg uit naar het advies van de Autoriteit Persoonsgegevens, dat we dan eind mei verwachten, omdat dit, zoals ook eerder in het debat aan de orde is gekomen, een behoorlijk grote impact kan hebben. Het is natuurlijk goed dat het Ministerie van Financiën reeds bezig is met nieuwe wetgeving als het gaat om toeslagen, maar – ik kijk ook even naar de andere Staatssecretaris – als dit zo veel departementen treft, zal er misschien een hele hoop extra wetgeving moeten komen in potentie. Dat moeten we natuurlijk ondervinden en dat moet dan mogelijk in een volgend debat aan de orde komen. Daarom nogmaals mijn vraag aan de Staatssecretaris van BZK om te reflecteren op de vraag of een eventuele voorhangprocedure voor algoritmes niet een uitweg zou zijn om dit soort wetgeving te versterken. Ik besef daarbij wel dat ik vooruitloop op een eventueel advies in de toekomst van de AP.

Dan nog één laatste vraag, wederom mede namens de ChristenUnie. Kunnen wij het naar ons toe komen van het CODIO-kader en de status daarvan eind december als concrete toezegging noteren?

Dat was ’m van mijn kant. Dank u wel.

De voorzitter:

Dan is het woord aan mevrouw Van der Werf.

Mevrouw Van der Werf (D66):

Dank u wel, voorzitter. Ook dank aan beide bewindspersonen voor hun beantwoording, en ook aan hun ondersteuning. Ik wil graag nog op één punt terugkomen. Er is natuurlijk een hoop kommer en kwel voorbijgekomen over wat het schip en het schipwrak ons gaan brengen. Ik was mijn inbreng geëindigd met de vraag hoe we er nou voor kunnen zorgen dat AI onze overheden ook kan ondersteunen, met name op het gebied van de dienstverlening richting burgers. Nu lopen we natuurlijk traditioneel gezien wat achter als het gaat om ICT bij de overheid, maar je zou op dit punt zeker kunnen zeggen dat we daar ook de vruchten van kunnen plukken. Ik overweeg een motie op dit punt, dus als u het mij toestaat zou ik ook graag vast een tweeminutendebat aanvragen.

Ik heb nog één losse vraag, om het zo maar even te noemen. De Staatssecretaris voor Digitale Zaken gaf aan dat ook bij die complexe algoritmen toezichthouders wel 100% inzicht krijgen op het moment dat ze niet worden opgenomen in een register. Ik wou even ter check vragen: ik ga er dan vanuit dat u bedoelt vooraf en niet pas op het moment dat het is misgegaan.

Dank.

De voorzitter:

Dan de heer Valize van de PVV.

De heer Valize (PVV):

Voorzitter, dank voor het woord. Dank voor de beantwoordingen van de staatssecretarissen en hun ondersteuning. Dank ook aan de collega’s voor het goede debat. Dan de tweede termijn. We kijken ernaar uit om de terugkoppeling te krijgen over ervaringen in het veld. Die brief komt aan het eind van het jaar, heb ik begrepen uit de beantwoording. Over het vullen van het register voor de algoritmes zou ik nog de vraag willen stellen aan de Staatssecretaris of er een mogelijkheid is om er iets meer op aan te dringen bij de departementen om dat toch zo vroeg mogelijk te doen, zodat we niet tot eind 2025 moeten wachten totdat het register een keer gevuld is.

En dan heb ik nog één klein dingetje. Dat kwam toevallig voorbij. Dat is dat keurmerk. We hebben toevallig vorige week een debat over onlineveiligheid en cybersecurity gehad. Daar heb ik dit onderwerp ook al aangehaald, bij de Minister van EZK. Dat betreft het CE-logo. Er zijn twee verschillende CE-logos. Je hebt er eentje voor China Export en je hebt er eentje voor het Europese keurmerk en het verschil is minimaal. Ik vraag om er toch, in samenspraak met uw collega’s in Europa, op aan te dringen dat er iets gedaan wordt om dat logo toch meer te laten differentiëren van dat China Exportlogo, want dat kan tot heel veel verwarring leiden.

En dan ben ik aan het einde van mijn tweede termijn. Dank u.

De voorzitter:

Dan het CDA, de heer Krul.

De heer Krul (CDA):

Ja, voorzitter. Heel kort. Nogmaals dank aan de bewindspersonen voor hun duidelijke uitleg. We zijn er niet per se geruster op geworden. Ik denk dat de Autoriteit Persoonsgegevens een heel nuttig inzicht kan bieden. Tegelijkertijd denk ik aan aspecten als het belang van toezicht, een belastingmoraal en de uitvoerbaarheid, aspecten waar je niet per se kan verlangen dat een AP die goed kan overzien, omdat het simpelweg niet haar expertise is. Ik zou willen vragen, maar gewoon ins Blauwe hinein, aan de griffier om met het tweeminutendebat dat is aangevraagd even te wachten tot eind mei dat advies er is. Ik denk dat de Kamer dat wel tot zich moet kunnen nemen voordat we hier verder over praten.

Voor zover, voorzitter.

De voorzitter:

Dank u wel. Ik moet dan wel als bijsluiter meegeven dat de aanvrager van het tweeminutendebat D66 is. Volgens mij gaan zij ook over het inplannen van het tweeminutendebat. Toch? Er is een suggestie gedaan. Die hoeft niet per se gehonoreerd te worden.

Mevrouw Van der Werf (D66):

We zullen het in overleg oppakken.

De voorzitter:

Het is goed dat we dat nog even ergens anders parkeren, dat we daar als u dat echt wilt nog even verder over in overleg gaan. Dan de heer Van Baarle.

De heer Van Baarle (DENK):

Ik dank de Staatssecretaris voor de beantwoording. Beide staatssecretarissen, maar mijn vragen waren vooral aan Staatssecretaris Van Huffelen gericht. Een aantal dingen zijn helder geworden, maar een hoop blijft voor mij toch nog onduidelijk. Dat zal aan mij en de Staatssecretaris liggen, want ik ben ook zelfkritisch. We hebben met elkaar een algemeen normenkader. Hoogrisicoalgoritmen kunnen alleen toegepast worden met een keurmerk, maar we weten niet wie dat keurmerk gaat geven. We stellen iets op wat niet bindend is, want alleen die AI-verordening is bindend voor waar de zaken aan zouden moeten voldoen. Wij hebben toch wat zorgen over de richting waarin het gaat, dus wij zijn blij dat mevrouw Van der Werf een tweeminutendebat heeft aangevraagd.

De voorzitter:

De heer Meulenkamp heeft geen behoefte aan een tweede termijn. Dan vraag ik even aan de heer Six Dijkstra of hij de voorzittershamer kan overnemen, zodat hij mij het woord kan geven.

Voorzitter: Six Dijkstra

De voorzitter:

Zeker. Het woord is aan mevrouw Kathmann van de fractie van GroenLinks-PvdA.

Mevrouw Kathmann (GroenLinks-PvdA):

Dank u wel, voorzitter. Nog even drie dingen. Ik wil ieder geval nog iets meegeven. Ik hoop eigenlijk ook wel op een antwoord van de Staatssecretaris, maar ik denk dat dat niet meer vandaag kan. Er is – een advies mag ik het niet noemen – een scenariostudie gedaan door de Toekomstkamer. Die is onderdeel van de Stichting Toekomstbeeld der Techniek. Het is een scenariostudie over het Algoritmeregister. Wat het heel interessant maakt, is dat zij kijken naar het instrument van het Algoritmeregister in het kader van de verdere inrichting van het digitale toezicht, wat dat instrument nog doet en wat we eigenlijk misschien wel voor andere instrumenten kunnen gebruiken.

Wat mooi is, is dat zij in hun schrijven over doel van het Algoritmeregister zeggen: meer vertrouwen in de overheid, want we zijn transparant. Als we dan de cijfers er nog eventjes bij pakken, dan zie je dat maar 9% van de Nederlanders weet dat er een Algoritmeregister bestaat en dat drie op de vier Nederlanders als je vraagt of ze dat belangrijk vinden zeggen dat ze het eigenlijk wel belangrijk vinden, maar dat maar 12% van de Nederlanders denkt dat een register kan bijdragen aan het vertrouwen in algoritmes. Dat maakt dit stuk van deze denktank, die bestaat uit allerlei experts uit allerlei gelederen, dus van commerciële partijen tot ook zelfs overheidsexperts en kennisinstellingen, wel heel interessant. Ik hoop dus dat de Staatssecretaris daarop zou willen reageren.

Dan nog een vraag over die digitalisering op de werkvloer. Dank in ieder geval voor de beantwoording door de Staatssecretaris, maar het is me iets te kort door de bocht. Het gaat me echt om dingen die je nu bijvoorbeeld ziet. Ik las laatst een artikel – volgens mij was het in de Volkskrant – over een dame die bij een bedrijf werkt waar ze ongeveer door een Fitbit wordt aangestuurd en die van hot naar her moet rennen omdat haar werkgever bepaalt hoe hard ze moet lopen om haar werk goed te kunnen doen. Ik moest eigenlijk denken aan de stakingen van 40 jaar geleden, toen alle lopende banden gewoon zo hard stonden dat mensen het niet meer konden bijbenen. Uiteindelijk is het voor lopende banden een soort van wettelijk vastgelegd, is gezegd hoe het zat met de arbeidsproductiviteit en dat het technologisch dan misschien wel kon, maar menselijk gewoon niet gezond was. Uiteindelijk is dat dus wel vastgelegd, maar zijn die lopende banden ook steeds weer een klein beetje harder gezet. En nu zei de Staatssecretaris eigenlijk: deze mensen kunnen straks met die AI-verordening hun recht halen. Maar hoe gaat dat dan? Die mensen op de werkvloer zijn al vaak in kwetsbare posities. Gaat uit dit Europese beleid nou echt voortkomen dat die mensen precies weten waar ze dan kunnen zijn en welke rechten ze hebben? En hoe voelen ze zich dan comfortabel genoeg om hun recht te gaan halen? Mijn vraag is eigenlijk wat Nederland er nou aan gaat doen om dat voor iedere werknemer in Nederland te kunnen borgen.

Dan de vraag over wat er eigenlijk in een brief komt na de «ping». Ik begrijp de beantwoording van de Staatssecretaris heel goed. Zij gaf aan dat, wanneer iemand wel of geen toeslag heeft gekregen, ze in een brief uit kunnen leggen waarom diegene dat wel of niet heeft gehad. Maar dat is natuurlijk veel relevanter als je in het kader van bijvoorbeeld fraudeopsporing eruit bent gepikt. Ik heb het zelf een keer gehad. Toen kreeg ik een schatting met «u moet dit terugbetalen». Het kwam uit allemaal posten. Uiteindelijk ga je dan naar een kantoor, maar die producten praten niet met elkaar. En eigenlijk was mijn grote vraag bij heel veel balies: van welke proces bent u eigenlijk onderdeel? Als dan in een brief zou staan: «In het kader van fraudeonderzoek bent u er uitgelicht. Dit is het algoritme; u kunt het terugvinden in het register. Als u daar nog vragen over heeft, kunt u contact opnemen met persoon X». Dat is natuurlijk eigenlijk de informatie die dan op de brief zou moeten staan. Is dat dan ook de informatie die op de brief komt te staan? Dat zou ik dan graag willen weten.

De voorzitter:

Dank u wel. Dan geef ik de voorzittershamer weer over aan mevrouw Kathmann.

Voorzitter: Kathmann

De voorzitter:

Dank u wel. Dan kijk ik even naar de staatssecretarissen rechts van mij. We schorsen voor twee minuten en dan kunnen we overgaan tot de beantwoording.

De vergadering wordt enkele ogenblikken geschorst.

De voorzitter:

We gaan verder met de beantwoording in tweede termijn. Het woord is aan de Staatssecretaris.

Staatssecretaris Van Huffelen:

Dank u wel, voorzitter. Ik zal de vragen die gesteld zijn, beantwoorden. Ik begin met de heer Six Dijkstra, die vroeg of wij het een goed idee vinden dat algoritmes altijd worden voorgehangen bij de Tweede Kamer voordat ze worden ingesteld. Wat mij betreft is dat geen wenselijke route. We willen dat algoritmes alleen worden ingezet wanneer ze voldoen aan de criteria die daarvoor gesteld zijn in de AI-verordening. Dat betekent dat ze aan allerlei criteria moeten doen op het gebied van non-discriminatie enzovoort en dat ze goed getoetst zijn voordat ze worden ingezet door de overheid. Er zullen toezichthouders zijn die daarop toezicht kunnen houden. Ze worden opgenomen in een register. Het lijkt mij dan dubbel als je die ook vooraf bij de Tweede Kamer gaat voorhangen.

Er werd ook nog gevraagd of wat er gezegd werd over het waardenkader als toezegging genoteerd kan worden. Dat kan. Ons idee is dat het voor het eind van het jaar aan uw Kamer wordt toegestuurd.

Mevrouw Van der Werf gaf een paar dingen aan. Ten eerste zei ze: we kunnen ook de vruchten plukken van de inzet van AI. Dat is ook zo. Dat kunnen we op verschillende manieren, in de private en de publieke sector. Dat zijn we van plan te gaan doen. Dat doen we onder andere via de inzet van onze visie op het gebruik van generatieve AI.

Verder vroeg u of inzage van de toezichthouders in complexe algoritmes altijd kan en of dat ook vooraf kan. Dat kan. Toezichthouders mogen altijd inzage vragen in het gebruik van algoritmes, niet alleen bij de ontwikkeling maar ook bij de toepassing daarvan, of verderop in de tijd. Het is aan de toezichthouders zelf om dat moment te kiezen.

De heer Valize deed de oproep aan al mijn collega-departementen en aan andere overheden om zo snel mogelijk te komen tot het invullen van het Algoritmeregister. Ik ondersteun die oproep zeer en zal dat doorgeven aan mijn collega’s. Verder begrijp ik dat u al de toezegging van de Minister van EZK heeft gekregen over het CE-logo, om ervoor te zorgen dat helder wordt wat het een is en wat het ander is, zodat het niet tot verwarring kan leiden bij burgers. Hij gaat daarmee aan de slag in Brussel.

Dan is er toch nog iets wat mij van het hart moet naar aanleiding van de opmerkingen die door de heer Van Baarle zijn gemaakt. Allereerst moet helder zijn dat de AI-verordening ons natuurlijk enorm gaat helpen bij het inzicht in AI en het reguleren van AI. Dat is een thema waarbij de heer Van Baarle en ik elkaar voortdurend de hand kunnen schudden, denk ik. Ik heb het dan over vragen als wanneer het überhaupt mag en kan, hoe je het op een verantwoorde manier doet, hoe je ervoor zorgt dat het transparant is, hoe je ervoor zorgt dat er goed toezicht op is en hoe je ervoor zorgt dat het voor burgers helder is waar zij terechtkunnen wanneer zij het idee hebben dat zij niet op een goede manier worden behandeld.

De AI-verordening is mede door de inzet die wij als Nederland hebben gepleegd, echt een verordening geworden waarvan wij zien dat die ons gaat helpen op dit gebied. Zij is wel complex; dat gaf u ook aan. Ik denk niet dat die verordening complex is door u of door mij. Dat komt omdat het een ingewikkeld onderwerp is. Ik zou u echt aanraden om de technische briefing daarover te houden, omdat die veel meer inzicht gaat bieden in wat er precies in de verordening staat over hoe het gaat werken.

In uw woorden proefde ik een beetje de suggestie dat dit allemaal nog niet voldoende is. Ik denk dat we met deze verordening een heel breed terrein afdekken en dat we daarmee ervoor zorgen dat we op een verantwoorde manier kunnen werken. Het is helder dat we dat moeten vertalen naar wat het direct betekent voor de Nederlandse overheid, het goed moeten inrichten en er ook voor moeten zorgen dat onze toezichthouders goed geëquipeerd zijn om hun werk te doen. Maar het is niet zo dat we op basis van de verordening of van wat we bij de Nederlandse overheid aan het doen zijn – denk aan het register of ons implementatiekader – onduidelijkheid aan het creëren zijn. Het is ook niet zo dat het vage normen zijn of dat het niet helder is. Met deze verordening en met alles wat wij doen, wordt juist heel veel scherpte gecreëerd. Op basis daarvan kunnen we op een verantwoorde manier werken met algoritmes. Daarmee wordt ook duidelijk wanneer het niet kan.

Het is, nogmaals, goed om u daar verder over te laten voorlichten. U kunt mijn woorden geloven of niet – ik hoop natuurlijk van wel – maar het is belangrijk om met elkaar vast te stellen dat dit voldoet aan de vereisten die we willen. Dus nogmaals, we hebben een heel mooi kader gemaakt om op een verantwoorde manier te werken, maar het is goed als we dat met elkaar delen.

Dan was er nog een vraag van mevrouw Kathmann naar aanleiding van de scenariostudie. Dat is interessant. De Toekomst Kamer heeft ernaar gekeken en heeft aangegeven dat het belangrijk is dat burgers meer worden meegenomen in de digitale ontwikkelingen. Of ze dit instrument nou wel of niet precies kennen, is één deel daarvan, maar veel belangrijker is dat we weten dat mensen zich zorgen maken over de inzet van algoritmes, dat ze zich daar druk over maken. Kan ik nog wel vertrouwen wat ik zie op het internet? Kan ik de informatie die ik krijg van welke instantie dan ook, nog wel vertrouwen? Komt die ook echt van die instantie? Wij vinden het heel erg belangrijk om daar meer inzicht in te bieden. We kijken dus ook heel graag nog verder naar het werk dat is gedaan, om te zien of ons dat verder kan helpen in het geven van voorlichting aan burgers, vooral om ervoor te zorgen dat we meer vertrouwen creëren in het werk van de overheid.

Dan nog iets over de toepassing van AI in het werk en op de werkvloer. Wij hebben de SER, de Sociaal-Economische Raad, ons adviesorgaan, gevraagd om met name daarnaar te kijken. Zij zijn aan de slag gegaan met een uitgebreide studie om te zien wat de effecten zijn van generatieve AI, ook wel AI, op werken in Nederland. Wat betekent het voor banen, voor de manier waarop die worden ingericht? Wat betekent het überhaupt voor werk? Hoe kunnen we AI op een positieve manier inzetten? En wat voor risico’s zijn er? Voor ons is dat een heel belangrijk gegeven, omdat banen en werk zo veranderen door AI. Dat geldt niet voor alle banen. Het geldt ook niet voor alle banen in even grote mate. Maar er zal verandering op kunnen treden – ik denk dat er verandering op zál treden – wat betreft banen voor hoogopgeleiden. Denk aan de advocatuur of aan het maken van wetten bij de overheid. Maar het kan net zo goed voor mensen die nu in feite – dat is eigenlijk het voorbeeld dat u noemde – worden aangestuurd door AI. Dat is iets wat we in mijn perspectief overigens niet zouden moeten willen.

Het is heel belangrijk dat we daar meer inzicht in krijgen, dat we ons daarvan bewust zijn en dat we ervoor gaan zorgen dat het voor mensen die dit meemaken, veel duidelijker wordt waar zij terechtkunnen wanneer dit soort situaties zich voordoen. Daar zijn natuurlijk al allerlei regels voor gesteld in de Arbeidsomstandighedenwet, maar ik denk dat het belangrijk is dat we daar nog een keer scherp naar kijken, ook op basis van het voorbeeld dat u noemt, in het kader van de komst van AI. Zoals we ook al in de visie op generatieve AI hebben gezegd, willen we niet dat iemands baas straks AI is in plaats van een normaal mens van vlees en bloed.

Mevrouw Kathmann vroeg ook: hoe zit het met informatie over wanneer je eruit bent gepikt? Stel dat je wilt begrijpen waarom je geselecteerd bent om extra vragen te stellen. Hoe gaan we dat dan aan iemand duidelijk maken? Ik vertelde al dat wij bezig zijn met het aanpassen van de Algemene wet bestuursrecht en met name naar dit aspect, de toepassing van AI, willen kijken. Dat geldt zowel voor de vraag «kom ik wel of niet in aanmerking?» als voor dit soort vragen. Daar komen we dus ook nog bij u op terug. Ik begrijp namelijk heel goed dat u zegt: ik vind het ook belangrijk dat duidelijk wordt wanneer dat aan de orde is. Denk aan vragen als «waarom ben ik geselecteerd voor extra vragen?» of «wat is er aan de hand?» Ik vind dat een gerechtvaardigde vraag. Wij gaan goed kijken hoe we hier bij de aanpassing van de Algemene wet bestuursrecht meer inzicht in kunnen bieden. Ik kan nu nog niet helemaal antwoord geven op de vraag op welke manier we dat kunnen doen, maar ik vind het wel belangrijk dat we dit als onderdeel hierin verwerken.

Dat waren de antwoorden op de vragen die aan mij gesteld zijn.

De voorzitter:

Dan is het woord aan Staatssecretaris Van Rij.

Staatssecretaris Van Rij:

Dank u wel, voorzitter. Ik begin met het punt van de heer Krul. Ik wil er toch op wijzen dat de landsadvocaat voorzichtig geformuleerd heeft in de conclusies. Hij spreekt tot twee keer toe over «waarschijnlijk». De eerste keer is dat bij de vraag: is er bij een eerste selectie van een aangifte via een geautomatiseerd selectiesysteem sprake van een besluit? Een besluit in de zin van de AVG is strikter dan een besluit in de zin van de Algemene wet bestuursrecht. Dan gaat het erom of anderszins in aanmerkelijke mate de burger getroffen kan worden.

Het tweede is natuurlijk dat de landsadvocaat zegt dat ook wanneer er sprake is van menselijke tussenkomst, in die tweetrapsraket die ik beschreven heb, waarschijnlijk toch sprake kan zijn van een besluit waarmee de burger anderszins in aanmerkelijke mate getroffen kan worden. Dat zegt de landsadvocaat. Juristen formuleren altijd zorgvuldig. Dat is een. Twee is dat het een advies is. Dat geldt ook voor de AP, die we om advies hebben gevraagd. Dat is dus iets anders dan een boetebesluit. Wij, beide staatssecretarissen, zullen dan uiteraard onze eigen afwegingen moeten maken en dan komen we bij u terug. Overigens niet meteen eind mei. Eind mei komt de AP met haar advies. Dat moeten wij dat natuurlijk wel even goed verwerken, maar we komen uiteraard voor het zomerreces dan naar de Kamer toe en het liefst zo snel mogelijk.

Wij moeten dan namelijk ook precies het punt wegen dat terecht door de heer Six Dijkstra en de heer Krul op tafel is gelegd. We hebben aan de ene kant natuurlijk privacy, ongelofelijk belangrijk, maar Belastingdienst, Toeslagen en Douane zullen ook moeten handhaven en toezicht moeten houden. Daar de balans in vinden, dat is de grote uitdaging. Vandaar ook dat we bezig zijn met het voorbereiden van nieuwe wetgeving om met nog betere grondslagen te komen, maar dat is natuurlijk iets waar we nu ook voortdurend mee worden geconfronteerd. Ook in Kamerdebatten wordt daar natuurlijk steeds op gewezen. Aan de ene kant horen we in de commissie Financiën natuurlijk voortdurend, en terecht, als het over de Belastingdienst gaat: handhaaft u nog wel, houdt u toezicht en pakt u fraudeurs aan? Aan de andere kant is privacy een heel groot goed. Dat is de balans die we moeten zien te vinden.

De voorzitter:

Dan kijk ik even naar links, naar de zijde van de Kamer. Zijn alle vragen beantwoord, ook in de tweede termijn? Ja, dat is zo. Dan gaan we even naar de toezeggingen.

− In december wordt de Kamer nader geïnformeerd over de toepassing van het CODIO-kader.

− De Kamer ontvangt voor de zomer een brief waarin wordt aangegeven hoe uitvoering wordt gegeven aan het verzoek van het lid Idsinga.

− Het protocol geconstateerde discriminatie komt voor de zomer naar de Kamer. Dit was naar aanleiding van een vraag van de heer Van Baarle.

Dan nog even aangaande het tweeminutendebat. De eerste spreker is mevrouw Van der Werf van D66 en de vraag is dus of de Griffie bij het inplannen van het debat rekening dient te houden met het advies van de AP, of daar bij het inplannen op gewacht moet worden.

Mevrouw Van der Werf (D66):

Wat mij betreft niet.

De voorzitter:

Oké, dan weten we dat. Dan kan de Griffie daar rekening mee houden.

Dan kijk ik nog even naar rechts, naar de staatssecretarissen. Er was nog een mogelijke toezegging aangaande het stuk van de Toekomstkamer. De Staatssecretaris gaf aan: we gaan hier rekening mee houden in ons beleid. De vraag was volgens mij of er een schriftelijke reactie kon komen. Ik kijk even naar rechts: hoe denkt de Staatssecretaris daar invulling aan te kunnen geven?

Staatssecretaris Van Huffelen:

We brengen ieder kwartaal een verzamelbrief uit. Dan nemen we daarin dat stuk mee. Dan geven we ook een reactie op dit punt. En nog even ten aanzien van de toezeggingen: de eerste en de derde toezegging zijn al eerder gedane toezeggingen. De heer Van Baarle vroeg: gaat u het ook echt doen? Dat is waar. Ik weet niet of we ze nou dubbel moeten noteren. Het zijn toezeggingen die we eerder hebben gedaan.

De voorzitter:

Dat is dan nog even genoteerd. Die laatste toezegging is ook genoteerd. Dan dank ik de staatssecretarissen voor hun beantwoording en de bode voor de goede zorgen, ook voor onze gasten, en dan sluit ik de vergadering.

Sluiting 12.59 uur.