[overzicht] [activiteiten] [ongeplande activiteiten] [besluiten] [commissies] [geschenken] [kamerleden] [kamerstukdossiers] [🧑mijn] [open vragen]
[toezeggingen] [stemmingen] [verslagen] [🔍 uitgebreid zoeken] [wat is dit?]

Toezicht in het digitale domein (o.a. op AI en algoritmes)

Informatie- en communicatietechnologie (ICT)

Brief regering

Nummer: 2023D22054, datum: 2023-05-24, bijgewerkt: 2024-02-19 10:56, versie: 3

Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (kst-26643-1029).

Gerelateerde personen: Bijlagen:

Onderdeel van kamerstukdossier 26643 -1029 Informatie- en communicatietechnologie (ICT).

Onderdeel van zaak 2023Z09180:

Onderdeel van activiteiten:

Preview document (🔗 origineel)


Tweede Kamer der Staten-Generaal 2
Vergaderjaar 2022-2023

26 643 Informatie- en communicatietechnologie (ICT)

Nr. 1029 BRIEF VAN DE STAATSSECRETARIS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES

Aan de Voorzitter van de Tweede Kamer der Staten-Generaal

Den Haag, 24 mei 2023

Via deze brief ga ik, mede namens de Minister van Economische Zaken en Klimaat en de Minister voor Rechtsbescherming, in op verschillende vragen en toezeggingen die in het eerste deel van 2023 zijn gedaan in het kader van toezicht in het digitale domein, in het bijzonder op Artificiële Intelligentie (AI) en algoritmes.

Allereerst ga ik nader in op de uitkomsten van het gesprek dat ik op 27 maart jl. voerde met zeven toezichthouders die actief zijn op het digitale domein, waaronder alle leden van het Samenwerkingsplatform Digitale Toezichthouders (SDT) en met het Ministerie van Economische Zaken en Klimaat (EZK). Vervolgens besteed ik aandacht aan de vraag of er een bepaalde doorzettingsmacht is bij de Autoriteit Persoonsgegevens (AP) als het gaat om algoritmes en in brede zin op het gebied van digitalisering. Deze toezegging heb ik tijdens het Commissiedebat «Inzet algoritmes en data-ethiek binnen de rijksoverheid» van 15 februari jl. (Kamerstuk 26 643, nr. 982) aan uw Kamer gedaan. Tot slot beantwoord ik de vragen die op 28 maart jl. in het tweeminutendebat over de «Inzet algoritmes en data-ethiek binnen de rijksoverheid» (Handelingen II 2022/23, nr. 66, item 30) mondeling zijn gesteld door het lid Rahimi (VVD) over toezicht op onder meer algoritmes.

1. Uitkomsten gesprek toezichthouders binnen het digitale domein

Op 27 maart jl. voerde ik een gesprek met vertegenwoordigers (directeuren en/of bestuursvoorzitters) van zeven toezichthouders die actief zijn binnen het digitale domein en EZK. Aanwezig waren de vier leden van het SDT: de Autoriteit Consument en Markt (ACM), de Autoriteit Financiële Markten (AFM), de AP en het Commissariaat voor de Media (CvdM). Daarnaast waren het College voor de Rechten van de Mens (CRM), De Nederlandsche Bank (DNB) en de Rijksinspectie Digitale Infrastructuur (RDI) aanwezig. Deze toezichthouders krijgen in hun werk regelmatig te maken met toezicht op algoritmes en complexere algoritmische systemen die ook wel als AI bekendstaan. De belangrijkste uitkomsten van het gesprek zijn als volgt:

• De noodzaak tot afstemmen en coördinatie op digitale onderwerpen, en dan voornamelijk AI en algoritmes, wordt breed gedeeld. Er is behoefte aan een structuur die geen gaten in het toezicht laat vallen, waarbij (overheids)organisaties en bedrijven zoveel mogelijk vooraf weten op welke wijze zij compliant kunnen zijn en waarbij de toezichthouders zich niet in het vaarwater van elkaars bevoegdheden bevinden.

• Daarbij wijzen de toezichthouders ook op het belang van samenwerking op alle aspecten van digitalisering, en AI in het bijzonder, en op afstemming over normuitleg. Dit laatste betreft de wijze waarop (geldende) regels en normen worden uitgelegd aan ondertoezichtgestelden. Het uniform uitleggen van normen is van groot belang om burgers, bedrijven en overheden zekerheid te bieden over waar zij aan dienen te voldoen, bijvoorbeeld in het geval van (effectieve) transparantie. Dit naast de andere aspecten, zoals hoe AI op de markt komt vanuit de Europese productregelgeving, hoe veilig geëxperimenteerd kan worden om ruimte te geven aan innovatie en hoe de sectorale risico’s van AI te duiden zijn.

• Samenwerkingsverbanden tussen toezichthouders, zoals het SDT en de Inspectieraad, zijn van belang om de wetgever en beleidsmakers te voorzien van input en te anticiperen op (aankomende) toezichtsvraagstukken en voor de coördinatie van de normuitleg.

• Het SDT maakte in maart 2023 bekend dat het twee zogeheten Kamers zal oprichten waarin afstemming zal plaatsvinden over het toezicht op online platforms en de normuitleg van algoritmes en AI. Bij deze Kamers zullen ook niet-SDT-leden worden betrokken.

• Het SDT ziet het als zijn verantwoordelijkheid om – ter voorkoming van extra overleggremia – een goede afstemming te bevorderen tussen deze ambtelijke samenwerkingsverbanden en het bestuurlijke overleg in het SDT.

• Naast het SDT bestaan er nog verschillende andere samenwerkingsverbanden tussen toezichthouders. Bijvoorbeeld de «Werkgroep AI» onder de vlag van de Inspectieraad waarin meer dan twintig rijksinspecties, colleges en markttoezichthouders zitting hebben.

• Enkele toezichthouders wijzen op de risico’s van te veel verschillende overleggremia voor toezichthouders.

• De toezichthouders die actief zijn binnen de financiële sector (met name de AFM en DNB) en digitale infrastructuur (de RDI) wijzen erop dat zij al veel ervaring hebben met toezicht op AI en algoritmes.

• De AP wijst erop dat het belangrijk is dat alle toezichthouders zich binnen hun mandaat in toenemende mate richten op algoritmes. De recent opgerichte Directie Coördinatie Algoritmes bij de AP neemt daarbij geen bevoegdheden over, maar richt zich op het versterken van de samenwerkingen met colleges, markttoezichthouders en rijksinspecties, het signaleren en analyseren van overkoepelende risico’s, het komen tot gezamenlijke normuitleg en bekijkt waar zich gaten bevinden in het toezicht op algoritmes.

• Met het oog op het brede scala aan Europese (digitale) wetgeving dat in de maak is benoemen enkele toezichthouders het risico dat bedrijven zich elders vestigen wanneer Europese wetgeving in Nederland zou worden voorzien van aanvullende nationale regels. Hiermee zouden bedrijven vanuit andere EU-lidstaten Nederlandse consumenten bedienen, met als gevolg dat de consument minder goed beschermd wordt. Tevens kunnen nationale regels de integrale Europese benadering doorkruisen.

• De rechtstreekse toepasselijkheid van Europese regelgeving op het digitale toezichtdomein in Nederland (zoals de AI-verordening, de Data-verordening, de Digital Markets Act en de Digital Services Act) vraagt om een samenspel tussen Europa, (Nederlandse) ministeries en toezichthouders. Zo kan de samenhang worden bewaakt en tijdig worden geanticipeerd op nieuwe wet- en regelgeving die toezichtcomponenten bevatten. Gewezen wordt in dit verband op de noodzaak van flexibele en op expertise gebaseerde samenwerking tussen toezichthouders.

• Gezien het belang van goede samenwerking zal er voor de zomer (in het tweede kwartaal van 2023) door het kabinet wederom met een brede groep toezichthouders worden gesproken. Ditmaal zal er specifiek worden ingegaan op de Europese AI-verordening en de toezichtstaken- en vraagstukken die hier (mogelijk) uit voortvloeien. De AI-verordening bevindt zich momenteel nog in onderhandeling en zal naar verwachting op z’n vroegst eind 2025 in werking treden.

2. Doorzettingsmacht AP en rol Directie Coördinatie Algoritmes

Tijdens het Commissiedebat «Inzet algoritmes en data-ethiek binnen de rijksoverheid» van 15 februari jl. verzocht uw Kamer mij om schriftelijk in te gaan op de vraag of er een «doorzettingsmacht van de AP» bestaat inzake het toezicht op digitaliseringsgebied. Ik zal dit hieronder nader toelichten.

Met doorzettingsmacht wordt de bevoegdheid bedoeld om een doorslaggevende stem uit te brengen bij verschillende standpunten. Alle toezichthouders binnen het digitale domein die met algoritmes te maken krijgen zijn volledig bevoegd om te beslissen over de inzet van hun eigen bevoegdheden. Er is in die zin dus geen sprake van een doorzettingsmacht ten aanzien van algoritmes. Indien het toezicht op naleving van het gegevensbeschermingsrecht betreft is de AP bevoegd om boetes en andere sancties op te leggen en tot normuitleg te komen binnen het (Nederlandse) toezichtlandschap. Op dezelfde wijze zijn op de verschillende toezichtsterreinen in het Nederlandse toezicht- en controlelandschap de andere colleges, markttoezichthouders en rijksinspecties bevoegd. De DNB en AFM bepalen bijvoorbeeld – binnen hun wettelijke taken en bevoegdheden – hoe zij normen uit regelgeving omtrent financiële markten toepassen.

Als er sprake is van een toezichtsvraagstuk waarbij verschillende instanties bevoegd zijn, bijvoorbeeld wanneer het een algoritme of AI-systeem betreft dat persoonsgegevens verwerkt in de zorg, kunnen zowel de Inspectie Gezondheidszorg en Jeugd (IGJ) en de AP bevoegd zijn om handhavend op te treden. In een dergelijk geval is het aan de bevoegde toezichthouders zelf om te komen tot afspraken over het (concrete) handhavingsbeleid. Zowel samenwerkingsplatformen als het SDT – als de al bestaande samenwerkingsconvenanten – kunnen invulling geven aan dergelijke afstemming.

Rol Directie Coördinatie Algoritmes (DCA)

De (toezichts)taken van de Directie Coördinatie Algoritmes (DCA) bij de AP – waarmee invulling is gegeven aan de in het coalitieakkoord (Bijlage bij Kamerstuk 35 788, nr. 77) opgenomen algoritmetoezichthouder – bestaan uit verschillende taken om het bestaande toezichtlandschap op algoritmes te versterken.1 Het bestaande toezichtlandschap blijft daarbij intact.

Allereerst deelt de DCA domeinoverstijgende signalen met onder meer toezichthouders en departementen. Omdat AI en algoritmes in allerlei sectoren worden ingezet, en ook algoritmes die geen persoonsgegevens verwerken de belangen van burgers of organisaties kunnen schaden, is het belangrijk dat signalen over de risico’s en kansen van algoritmegebruik breed worden geanalyseerd en gedeeld.

Ten tweede optimaliseert de DCA samenwerkingen tussen toezichthouders en brengt het overkoepelend toezicht op AI en algoritmegebied in kaart. Gezamenlijk optrekken is juist omdat algoritmes in veel verschillende sectoren worden ingezet – van de zorg, financiële markten, infrastructuur tot het veiligheidsdomein – van groot belang.

Ten derde faciliteert en ondersteunt de DCA het uniform uitleggen van normen die betrekking hebben op algoritme-inzet. Dit is van meerwaarde omdat er binnen het AI- en algoritmedomein – en breder binnen het gehele digitaliseringsdomein – sprake is van een breed scala aan verschillende wetten en regels die invulling dienen te geven aan concrete normen en waarden. Voor ondertoezichtgestelden – bijvoorbeeld burgers, bedrijven of overheden – is het onder meer in het kader van rechtsbescherming en de voorspelbaarheid van het overheidshandelen belangrijk dat zij weten aan welke normen zij moeten voldoen. Voor de DCA ligt er een rol in het faciliteren van uniforme uitleg van (domeinoverstijgende) normen in samenwerking met andere toezichthouders.

3. Beantwoording vragen lid Rahimi (VVD)

Tijdens het tweeminutendebat van 28 maart jl. heeft lid Rahimi mondeling een aantal vragen gesteld over (toezicht op) algoritmes. Hieronder geef ik daarop antwoord.

3.1 Wat is het mandaat van de AP?

De AP is voor Nederland de toezichthoudende autoriteit als het gaat om persoonsgegevens. De taken en bevoegdheden van de toezichthoudende autoriteit staan vastgelegd in de Algemene Verordening Gegevensbescherming (AVG). Het takkenpakket van de AP bestaat voor een groot deel uit handhavingstaken, maar daarnaast betreffen de taken van de AP ook het geven van advies, het samenwerken met andere toezichthoudende autoriteiten en het behandelen van klachten. In de AVG en in de Uitvoeringswet Algemene Verordening Gegevensbescherming (UAVG)2 zijn, met het oog op de bovengenoemde taken, bevoegdheden toegekend aan de AP. Zo heeft de AP de bevoegdheid tot het opleggen van een last onder dwangsom en een last onder bestuursdwang. Ook is zij bevoegd tot het opleggen van administratieve boetes. Uiteindelijk is de AP de toezichthouder op de naleving van de AVG, maar diens taak ontslaat individuele organisaties niet van een scherpe blik op de eigen processen. Elke organisatie die persoonsgegevens verwerkt is er namelijk in de eerste plaats zelf verantwoordelijk voor dat dit op een rechtmatige manier gebeurt, en moet daarbij voldoende interne toezichtmechanismen inrichten om daarop toe te zien.3

Daarnaast is de AP in 2023 van start gegaan met nieuwe, coördinerende taken die een impuls moeten geven aan het toezicht op algoritme-inzet, ook indien het andere gegevens dan persoonsgegevens betreft. Bij de AP is daarvoor in 2023 een nieuw organisatieonderdeel opgericht, de DCA, die werkt aan de in de inrichtingsnota algoritmetoezichthouder geformuleerde doelen.4 In paragraaf 2 (pagina’s 3 en 4) wordt verder ingegaan op de specifieke taken van de DCA.

3.2 Hoe verhouden de andere toezichthouders zich tot de AP?

Zoals ook benoemd in paragraaf 2, is de AP is de bevoegde toezichthouder als het gaat om het toezicht op persoonsgegevens in Nederland. De andere toezichthouders zijn, conform hun respectievelijke wettelijke taken, verantwoordelijk voor het toezicht binnen hun eigen domein waarvoor zij het mandaat hebben, ook wanneer algoritmes worden gebruikt.

De verschillende toezichthouders komen bij de toepassing van hun wettelijke bevoegdheden gelijksoortige vraagstukken op het gebied van algoritmes tegen. De DCA bij de AP streeft daarom naar uniforme normuitleg (en guidance)5, in samenspraak met de andere betrokken toezichthouders. Deze uniforme normuitleg en guidance doet niets af aan de onderscheidende mandaten die verschillende toezichthouders hebben, ook niet op algoritmegebied.

3.3 Heeft de AP genoeg kennis in huis om alles te toetsen?

De AP houdt niet toezicht op alles met betrekking tot AI en algoritmen. De AP houdt toezicht op naleving van het gegevensbeschermingsrecht. De AP heeft voldoende expertise om toezicht te houden op de bescherming van persoonsgegevens, ook indien die verwerkt worden door algoritmes. De DCA zet zich daarnaast in om de samenwerking tussen toezichthouders te versterken, domeinoverstijgende signalen op te vangen en kennis te delen over het toezicht op algoritmes. Het delen van kennis over het toezicht op AI – waarbij het dus ook gaat om algoritmes en AI-systemen die geen persoonsgegevens verwerken – is des te belangrijker omdat algoritmes in alle sectoren voorkomen en veel verschillende toezichthouders binnen hun mandaat te maken krijgen met dit soort technologie.

3.4 Welke wetgeving is er in Nederland nog nodig (op algoritmegebied)?

Als systeemtechnologie zijn de toekomstige ontwikkelingen van AI en de impact van AI op de samenleving vooraf onmogelijk volledig af te bakenen.6 Daarom is het belangrijk de opgaven die AI met zich meebrengt structureel te benaderen. Regulering van AI is één van die opgaven. Gezien de snelle ontwikkelingen van AI is het belangrijk dat wetgevende kaders toekomstbestendig zijn en dat regelmatig wordt geëvalueerd of de kaders nog adequaat zijn.

De (aankomende) Europese AI-verordening zal het primaire wetgevende kader op AI zijn en het fundament zijn waarmee het toezicht op AI en algoritmes verder zal worden vormgegeven in Nederland. De Europese AI-verordening bevindt zich momenteel nog in de onderhandelingsfase. De verordening classificeert verschillende AI-systemen in risicocategorieën, waarbij systemen die onder een hoger risiconiveau vallen aan meer waarborgen en specifieke eisen moeten voldoen. De verordening zal voor zowel de ontwikkelaars als de gebruikers van AI-systemen verplichtingen bevatten.

Voor de toepassing van algoritmes door Nederlandse overheden wordt verder onderzocht in hoeverre ingezette beleidstrajecten en in ontwikkeling zijnde instrumenten – zoals het algoritmeregister, implementatiekader en (verplichte) mensenrechten impacttoetsen – behulpzaam zijn bij de verdere uitwerking van het (toekomstig) toezicht. Uitgangspunt is dat daarbij niet vooruit zal worden gelopen op de toezichtstaken en verplichtingen uit de AI-verordening.

3.5 Gaat de AP helpen bij het maken van onderscheid tussen verwerken van data en algoritmes?

De AP kan op basis van de AVG toezicht houden op data die persoonsgegevens zijn en ook op de verwerking van persoonsgegevens met algoritmes. Data (in sommige gevallen persoonsgegevens) fungeren als input voor algoritmes, zonder data kunnen algoritmes niet functioneren. Werkende algoritmes zijn dus een vorm van dataverwerking. Het maken van onderscheid is daarom niet per se zinvol.

3.6 De werking van algoritmes uitleggen is complex. Hoe kunnen we zorgen dat burgers in normale taal weten wat deze voor hen betekenen?

Het is van groot belang dat algoritmes die worden ingezet bij besluiten die burgers of organisaties raken transparant zijn. Eind 2022 lanceerde ik daarom een eerste versie van het algoritmeregister dat bijdraagt aan de uitlegbaarheid van de toepassing en uitkomsten van (overheids)algoritmes.7 Het algoritmeregister biedt volksvertegenwoordigers, journalisten, onderzoekers en burgers de mogelijkheid om inzage te krijgen in welke algoritmes er worden ingezet door overheden. Daarmee kunnen zij het algoritmegebruik van de overheid volgen, controleren en bevragen of in een specifiek geval nagaan of algoritmes worden gebruikt om een beslissing te nemen. Op dit moment wordt het algoritmeregister doorontwikkeld. Ook de broncode van het algoritmeregister is online te vinden. Belangstellenden en experts kunnen daarbij suggesties doen voor verbeteringen.

Met betrekking tot de uitlegbaarheid van algoritmes wijs ik ook graag op de wijziging van de Algemene wet bestuursrecht (Awb) ter versterking van de waarborgfunctie daarvan.8 Het voorstel is 19 januari jl. aangeboden aan stakeholders in een zogeheten pre-consultatie, een informele en extra stap voorafgaand aan de gebruikelijke (internet)consultatie. Hierin is onder meer aandacht voor algoritmische besluitvorming en het belang van een begrijpelijke motivering van (overheids)besluiten. Dit onderwerp is tevens nader verkend in een expertsessie en zal worden meegenomen in de verdere ontwikkeling van het voorstel.

Tot slot vereist de AVG ook al dat (overheids)organisaties en bedrijven die geautomatiseerd besluiten nemen in bepaalde gevallen voldoen aan concrete eisen, zoals uitlegbaarheid en transparantie. De logica van een algoritme kan in dat kader dus uitgelegd worden.

3.7 De problemen met algoritmes zijn structureel van aard. Daarom moet er ook een structurele oplossing voor worden bedacht. Bijvoorbeeld door een auditor, die net als een accountant, structureel elk jaar de cijfers van een gemeente controleert en aanbevelingen doet. Wil de Staatssecretaris onderzoeken hoe we dit kunnen waarmaken?

Er lopen momenteel verschillende trajecten en initiatieven die raken aan het inzetten van audits om tot verantwoorde inzet van algoritmes te komen.

Aanbieders van hoog-risico AI-systemen van zowel bedrijven als overheden zullen onder de AI-verordening aan specifieke eisen omtrent onder meer menselijk toezicht en datakwaliteit moeten voldoen. Aanbieders van deze systemen moeten dit aantonen door middel van een ex ante conformiteitsbeoordeling. Deze beoordeling kan in bepaalde gevallen ook uitgevoerd worden door een derde partij.

Voor de overheid dient te worden onderstreept dat de Auditdienst Rijk (ADR) al regelmatig adviezen uitbrengt over algoritmegebruik binnen de Rijksdienst en het toezicht hierop.9 Ook de Algemene Rekenkamer kan op eigen initiatief onderzoeken starten naar algoritmegebruik bij de (Rijks)overheid, hetgeen de afgelopen jaren resulteerde in meerdere onderzoeken.10 Daarnaast is hier de rol van de Rijksinspecties, die in hun toezicht ook algoritmes tegenkomen, relevant. De Rijksinspecties geven ook signalen aan ministeries en de Tweede Kamer over de uitwerking van beleid in de praktijk en over de stand van zaken in een specifieke sector. Dit wordt gedaan in de vorm van onderzoeks- en inspectierapporten, jaarrapportages en publicaties.

Daarnaast gaf ik in de inrichtingsnota van de algoritmetoezichthouder, die ik in december 2022 met uw Kamer deelde, aan periodieke audits op algoritme-inzet voor het Rijk verder te verkennen. Dit zou kunnen gaan om het laten uitvoeren van periodieke audits op algoritme-inzet door overheidsorganisaties, bijvoorbeeld door een onafhankelijke partij zoals de ADR. Het zou de AP, en andere toezichthouders die in hun taken te maken krijgen met algoritmes, daarbij kunnen helpen als de (eventuele) rode draden uit deze audits werden teruggekoppeld. Op die manier kan het inzicht in de mate van beheersing in zowel positieve als negatieve punten van algoritmegebruik door overheden mogelijk worden versterkt en kunnen toezichthoudende instanties rekening houden met eventuele signalen.

In dit kader wijs ik ook graag op de recent aangenomen motie van het lid Kathmann c.s., die oproept om te onderzoeken in hoeverre de inzet van expertteams die op vertrouwelijke basis volledige inzage krijgen in een hoe een algoritme succesvol kan zijn in het bestrijden van discriminerende algoritmes.11 Over de voortgang van deze motie hoop ik uw Kamer in het derde kwartaal van dit jaar nader te informeren.

De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties,
A.C. van Huffelen


  1. Kamerstuk 26 643, nr. 953.↩︎

  2. De UAVG geeft in Nederland uitvoering aan de AVG.↩︎

  3. Organisaties zijn in bepaalde situaties verplicht een functionaris gegevensbescherming (FG) aan te stellen om binnen de organisatie toezicht te houden op AVG-naleving.↩︎

  4. Kamerstuk 26 643, nr. 953.↩︎

  5. Guidance: Het bieden van voorlichting, uitleg en hulpmiddelen over hoe een organisatie

    vastgestelde en uitgelegde normen kan implementeren en naleven.↩︎

  6. WRR-rapport nr. 105; Opgave AI. De nieuwe systeemtechnologie.↩︎

  7. https://algoritmes.overheid.nl/.↩︎

  8. Om de menselijke maat te bevorderen bij wetten en regels werkt het kabinet aan het wetsvoorstel Wet versterking waarborgfunctie Awb.↩︎

  9. Bijvoorbeeld: ADR (2022), «Onderzoeksrapport beheersing algoritmes binnen het Rijk».↩︎

  10. Algemene Rekenkamer, «Algoritmes getoetst» (2022) & «Aandacht voor algoritmes» (2021).↩︎

  11. Kamerstuk 26 643, nr. 995.↩︎