Inrichtingsnota algoritmetoezichthouder
Informatie- en communicatietechnologie (ICT)
Brief regering
Nummer: 2022D56234, datum: 2022-12-22, bijgewerkt: 2024-02-19 10:56, versie: 3
Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (kst-26643-953).
Gerelateerde personen:- Eerste ondertekenaar: A.C. van Huffelen, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties
- Inrichting algoritmetoezicht. Scenario’s korte en lange termijn
- Beslisnota inzake Inrichtingsnota algoritmetoezichthouder
Onderdeel van kamerstukdossier 26643 -953 Informatie- en communicatietechnologie (ICT).
Onderdeel van zaak 2022Z26092:
- Indiener: A.C. van Huffelen, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties
- Volgcommissie: vaste commissie voor Binnenlandse Zaken
- Voortouwcommissie: vaste commissie voor Digitale Zaken
- 2023-01-17 15:05: Regeling van werkzaamheden (Regeling van werkzaamheden), TK
- 2023-01-25 11:00: Procedurevergadering (Procedurevergadering), vaste commissie voor Digitale Zaken
- 2023-02-15 14:00: Inzet algoritmes en data-ethiek binnen de rijksoverheid (Commissiedebat), vaste commissie voor Digitale Zaken
- 2023-10-05 13:40: Aanvang middagvergadering: Regeling van werkzaamheden (Regeling van werkzaamheden), TK
Preview document (🔗 origineel)
Tweede Kamer der Staten-Generaal | 2 |
Vergaderjaar 2022-2023 |
26 643 Informatie- en communicatietechnologie (ICT)
Nr. 953 BRIEF VAN DE STAATSSECRETARIS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES
Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 22 december 2022
Achtergrond
Op 15 december 2021 is in het coalitieakkoord (Bijlage bij Kamerstuk 35 788, nr. 77) aangekondigd dat zal worden geregeld dat algoritmen gecontroleerd worden op transparantie, discriminatie en willekeur en dat een algoritmetoezichthouder dit bewaakt. In de budgettaire bijlage staan hiervoor vanaf 2023 middelen toegewezen aan de Autoriteit Persoonsgegevens (AP).1 De AP ontvangt voor deze opgave vanaf 2023 1 miljoen euro oplopend naar structureel 3,6 miljoen euro in 2026.
Met deze inrichtingsnota wordt de invulling van de geformuleerde doelen bij de AP belegd, vanaf januari 2023 start de algoritmetoezichthouder bij de AP met activiteiten om deze doelen te verwezenlijken. Het gaat in eerste instantie om het stimuleren van (bestaande) samenwerking, het signaleren en analyseren van sectoroverstijgende risico’s en het bevorderen van gezamenlijke normuitleg in de toezichtspraktijk ten aanzien van algoritmen. Vervolgens wordt bezien welke toezichtinstrumenten wenselijk zijn. Dit zal een langduriger traject zijn, vanwege de (mogelijke) wetgeving die daarvoor nodig is. Om tot een verantwoorde inzet van algoritmen te komen zetten we daarbij voor de overheid nu al stappen door onder meer een publiek algoritmeregister op te zetten en te werken aan een implementatiekader voor algoritmen.2 Tot slot kan de AP, naast de taken die de algoritmetoezichthouder zal krijgen, op basis van de Algemene verordening gegevensbescherming (AVG) al boetes en andere sancties opleggen in het geval het algoritmen betreft die (onrechtmatig) persoonsgegevens verwerken. Ook dit toezicht wordt in 2023 door het kabinet versterkt.
Vanwege mijn rol als coördinerend bewindspersoon op het digitaliseringsdomein stuurt het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) de (beleidsmatige) inrichting van de algoritmetoezichthouder aan. In deze relatie vervult BZK de rol van opdrachtgever en is de AP is uitvoerder van deze opgave. De Minister voor Rechtsbescherming is verantwoordelijk voor het beheer en het toezicht op de financiële middelen verstrekt uit de het begrotingsartikel van de AP in de Rijksbegroting van het Ministerie van Justitie en Veiligheid (JenV).
In deze brief informeer ik uw Kamer over het verloop en de uitkomsten van de verkenning. Vervolgens ga ik in op de doelen en hoe de AP die activiteiten zal gaan inrichten waarop de algoritmetoezichthouder zich per 1 januari 2023 zal richten. Tot slot ga ik nader in op de vervolgstappen die in gezamenlijkheid met betrokkenen worden genomen in het kader van de opschaling van de algoritmetoezichthouder.
Belang verantwoorde inzet algoritmen en AI
De afgelopen jaren was er in verschillende domeinen sprake van serieuze problemen met de inzet van algoritmen, waarvan de kinderopvangtoeslagenaffaire en (zelflerende) werving- en selectie algoritmen die in sommige gevallen leidden tot uitsluiting en discriminatie, bekende exponenten zijn.3 De oprichting van een algoritmetoezichthouder komt voort uit de ambitie om publieke waarden en grondrechten bij de inzet van algoritmen beter te beschermen. Om meer grip te krijgen op algoritmegebruik is meermaals onderstreept dat het toezicht op algoritme(gebruik) een structureler karakter dient te krijgen.4. De motie van het lid Van Baarle (DENK) c.s. over het controleren van (overheids-)algoritmen op transparantie, discriminatie en willekeur, en het versterken van de algoritmewaakhondfunctie bij bestaande toezichthouders, is in dit kader ook van belang.5 Daarbij werd de grote waarde van toezicht en controle op het gebruik van algoritmen binnen de rijksoverheid dit jaar nogmaals onderstreept door de Auditdienst Rijk (ADR). Zij geeft in haar rapport onder andere aan dat er vaak tijdens het ontwikkelproces van algoritmen vooraf geen (duidelijke) criteria worden gesteld waaraan algoritmen moeten voldoen. Ook ontbreekt het veelal aan het inrichten van controles achteraf. Een continu leer- en verbeterproces is daarom nodig om vat te krijgen op de inzet van (overheids)algoritmen.6 Het in 2021 verschenen rapport van de Wetenschappelijke Raad voor het Regeringsbeleid (WRR) wijst daarnaast op de groeiende rol van de overheid, en daarmee ook van wetgeving en toezicht, naarmate complexere algoritmische systemen – die ook wel als Artificiële Intelligentie (AI) bekendstaan – meer ingebed raken in de gehele samenleving.7
De uitdagingen omtrent toezicht op algoritmen en AI nu en in de toekomst zijn daarmee breder dan alleen toezicht op de overheid. Alle toezichthouders (waarmee in deze nota de colleges, markttoezichthouders en rijksinspecties worden aangeduid) zullen moeten kunnen omgaan met de impact die AI als systeemtechnologie8 met zich zal meebrengen. De maatschappelijke gevolgen bij onrechtmatig gebruik van algoritmen kunnen groot zijn en de negatieve effecten kunnen een breed scala aan burgers, bedrijven en organisaties treffen. Soms blijft dit onopgemerkt door een gebrek aan transparantie, wat de rechtsbescherming van individuen in de weg staat. Aan de andere kant dragen algoritmen dagelijks bij aan bijvoorbeeld betere dienstverlening, het stellen van diagnoses in de gezondheidzorg of het wijzen van mensen op regelingen waar ze recht op hebben. En worden veel algoritmen ook gebruikt in het fysieke domein voor effectief onderhoud en het opsporen van illegale activiteiten. De ontwikkeling van innovatieve toepassingen van AI en algoritmen in lijn met onze regels, normen en waarden is daarom essentieel. Hierop moet helder toezicht worden ingericht, vooraf, tijdens en na het gebruik.
Inrichten algoritmetoezichthouder
De algoritmetoezichthouder signaleert en analyseert risico’s en effecten over alle sectoren en domeinen van de samenleving heen. Daarbij wordt samengewerkt met huidige toezichthouders, worden eventuele lacunes in toezicht geadresseerd en wordt waar mogelijk gezamenlijke normuitleg gestimuleerd. De algoritmetoezichthouder faciliteert en stimuleert samenwerking tussen colleges, markttoezichthouders en rijksinspecties, vooral in het digitale domein. Bij haar activiteiten heeft de algoritmetoezichthouder bijzondere aandacht voor de bevordering van transparantie en de risico’s op het gebied van discriminatie en willekeur. Dit draagt eraan bij dat de negatieve effecten van algoritme-inzet worden tegengegaan en dat de positieve effecten optimaal kunnen worden benut. Het oprichten van een algoritmetoezichthouder is onderdeel van de bredere opgave om algoritmen beter te reguleren en discriminatie en willekeur tegen te gaan en transparantie te bevorderen. Zodat mensen erop kunnen vertrouwen dat algoritmen en AI-systemen aan publieke waarden voldoen, er zicht ontstaat op risicovolle inzet en het duidelijk is hoe deze werken. De inrichting van de algoritmetoezichthouder is onderdeel van de Werkagenda Waardengedreven Digitaliseren van BZK,9 die ik eerder dit najaar met uw Kamer deelde.
1. Proces en ontwikkeling algoritmetoezichthouder bij de AP
In het voorjaar van 2022 is BZK gestart met een (voor)verkenning van de activiteiten, processen en taken met het oog op de oprichting van een algoritmetoezichthouder. Tijdens deze verkenning zijn gesprekken gevoerd met de AP, andere toezichthouders, experts en betrokken departementen.
Als onderdeel van dit traject heeft BZK het bedrijf Privacy Company opdracht gegeven om verschillende scenario’s uit te werken als inspiratie voor de korte en lange termijn inrichting van algoritmetoezicht (zie bijlage). In oktober 2022 heeft er een sessie plaatsgevonden met negen toezichthouders, waarbij vraagstukken rondom kennis(deling) en onderlinge samenwerking op het gebied van algoritmen en AI centraal stonden.
Daarnaast hebben er op 24 november en 30 november 2022 vier expertsessies plaatsgevonden waarbij een breed scala aan experts – vanuit toezichthouders, ministeries, wetenschap, maatschappelijke organisaties en bedrijfsleven – aanwezig was om hun stem te laten horen over hoe de activiteiten van de algoritmetoezichthouder eruit zouden kunnen zien op de korte en lange termijn. Tevens hebben er tijdens het ontwikkeltraject op verschillende niveaus en momenten gesprekken plaatsgevonden over de nut en noodzaak, potentiële doelstellingen, taken en scope van een algoritmetoezichthouder. Hierbij heeft de AP – op verzoek van BZK – ook de mogelijkheden als toezichthouder in kaart gebracht op basis van eigen expertsessies en voorbereidingen getroffen voor het uitvoeren van activiteiten.
Deze brede en grondige verkenning heeft een aantal belangrijke inzichten opgeleverd. De belangrijkste bevindingen betreffen:
• Veel (sectorale) toezichthouders krijgen bij het uitvoeren van hun taken en bevoegdheden te maken met algoritmen. Zo zijn er bestaande toezichthouders die – variërend van niet of weinig tot zeer veel – toezicht houden op het gebruik van algoritmen door overheden en private partijen. Dit geldt bijvoorbeeld voor de Autoriteit Financiële Markten (AFM) wanneer het algoritmen op de kapitaalmarkten betreft, het Commissariaat voor de Media (CvdM) die onder andere kijkt naar de kansen en risico’s van AI en algoritmen in het waarborgen van informatie en vrijheid van meningsuiting of de Inspectie Gezondheidszorg en Jeugd (IGJ) als het gaat om algoritmen in de zorg. De toezichthouders werken samen in verschillende werkgroepen. Zonder regie, waarbij gestructureerd en op thema’s kennis wordt vergaard en samengewerkt, is er een risico dat er gaten vallen in de kennisdeling tussen de verschillende toezichthouders. Dit vraagt voldoende capaciteit en focus om te investeren in zowel de praktische als inhoudelijke aspecten van samenwerken.
• Een groot aantal toezichthouders heeft een grote behoefte aan het delen van kennis (over algoritmen en AI en het toezicht daarop). Zeker als het gaat om de uitwisseling van concrete casuïstiek en inzet van instrumenten en interventies.
• Er bestaan al verschillende samenwerkingsplatforms tussen toezichthouders. Dit betreft bijvoorbeeld de informele werkgroep «Toezichthouders op AI», die sinds 2020 actief is en waarin verschillende toezichthouders deelnemen om kennis en casuïstiek te delen en te bespreken. Het betreft een gemêleerde groep van toezichthouders en stakeholders (zoals de ADR en de Algemene Rekenkamer) die elk op hun eigen terrein te maken hebben of krijgen met de effecten van de inzet van algoritmen. Daarnaast is er het Samenwerkingsplatform Digitale Toezichthouders (SDT) waar toezichthouders (onder andere door periodiek te overleggen) samenwerken bij het toezicht op digitale diensten, digitalisering en ontwikkelingen in het digitale domein.10 De effecten van de inzet van algoritmen zijn veelal onderdeel van digitalisering en de ontwikkelingen in het digitale domein. Dergelijke vormen van samenwerking en kennisdeling zijn van meerwaarde omdat toezichthouders over vele uiteenlopende soorten (sectorspecifieke) kennis beschikken en algoritmen en AI vaak juist ook vragen om sector- of domeinoverstijgende uitwisseling.
• Toezicht op algoritmen vraagt in tal van situaties om vooruit en over bestaande toezichtsvelden en juridische kaders heen te kijken. Een brede en sectoroverstijgende benadering van risico’s en toezicht is van meerwaarde en kan bijdragen aan het krijgen van grip op de verantwoorde ontwikkeling en inzet van algoritmen en om discriminatie, willekeur en een gebrek aan transparantie te voorkomen. Net als eventuele nieuwe soortgelijke risico’s die momenteel nog niet in beeld zijn. Dit sluit aan op het WRR-rapport «Opgave AI: de nieuwe systeemtechnologie» waarin wordt onderstreept dat AI zich als systeemtechnologie snel en breed verspreidt en door verschillende domeinen en sectoren heen snijdt.11
• De (maatschappelijke) impact van een algoritme is veelal afhankelijk van de context waarin het wordt ingezet. Dit wordt grotendeels bepaald door de manier van gebruik, het domein waarin het wordt ingezet en de data die ten grondslag liggen aan het ingezette algoritme.
• Uit een analyse gemaakt door adviesbureau Hooghiemstra & Partners in opdracht van BZK in 2019, volgde dat er geen juridische lacunes zijn in de bevoegdheden van de toezichthouders op algoritmegebied bij overheden.12 Dit hangt volgens dit onderzoek nauw samen met het feit dat het gebruik van algoritmen een middel is en daarmee integraal onderdeel is van de taakuitoefening door de overheid. Mede om deze reden werd in 2019 geadviseerd om voorlopig geen afzonderlijke zelfstandige toezichthouder aan te wijzen voor het toezicht op algoritmegebruik door de overheid. Hooghiemstra & Partners onderstreepte daarbij wel het belang om periodiek te onderzoeken hoe het toezicht op algoritmen zich ontwikkelt. De afgelopen jaren is de behoefte om algoritme-gebruik te reguleren toegenomen en hierop dient ook passend en helder toezicht plaats te kunnen vinden.
• Het toezicht dient daarom momenteel op meerdere niveaus te worden versterkt om grip op de inzet van algoritmen te vergroten en transparantie te bevorderen.13 Dit kan (deels) worden bewerkstelligd door maatschappijbrede en sectoroverstijgende signalering en analyse van risico’s door de algoritmetoezichthouder en als toezichthouders samen op te trekken. Zo kunnen de toezichthouders op basis van hun bestaande (juridische) instrumentarium effectief toezicht blijven houden op onderwerpen die ook bij algoritmen van belang zijn. Daarnaast zal de aankomende AI-verordening eraan bijdragen dat het toezicht wordt versterkt en transparantie verder wordt bevorderd.
1.1 Scenario’s en rode draden expertsessies
Privacy Company heeft als onderdeel van het adviestraject verschillende scenario’s opgesteld voor de korte en lange termijn doelen en activiteiten van de algoritmetoezichthouder. Deze zijn tijdens de expertsessies door de aanwezigen besproken. Uit de (expert-)sessies kwam duidelijk naar voren dat het scenario waarin de algoritmetoezichthouder zich (primair) richt op het ondersteunen en stimuleren van samenwerking tussen toezichthouders, het signaleren en analyseren van risico’s en blinde vlekken en het komen tot (gezamenlijke) voorlichting en normuitleg de voorkeur genoot. Door middel van deze onderdelen kan het bestaande toezichtslandschap het beste worden ondersteund en in staat worden gesteld om (effectief) toezicht te houden op algoritme-inzet. Scenario’s waarin de algoritmetoezichthouder een (openbaar) klachtenloket zou inrichten, een nieuwe publieke website of een (interne) gezamenlijke database met signalen en klachten konden niet rekenen op veel draagvlak, onder meer vanwege de hoge kosten en twijfels over de nut en noodzaak.
De belangrijkste uitkomsten uit de verschillende (expert)sessies: • Het toezichtslandschap op het gebied van algoritmen bestaat uit veel verschillende toezichthouders met uiteenlopende doelen en expertise. • Bijna alle toezichthouders zullen binnen hun sector of domein toezicht moeten houden op AI. Bij het beoordelen van de risico’s van AI in een bepaalde context is juist sector- en domeinspecifieke kennis van belang. • Een groot aantal experts gaf aan dat er niet één toezichthouder op algoritmen en AI kan zijn. Vooral het versterken van het bestaande toezichtslandschap is belangrijk. • Een groot deel van de experts benadrukte het belang van samenwerking, signalering en normuitleg – uitleg over hoe bepaalde normen in de praktijk dienen te worden toegepast – als (korte termijn) taken. Er is behoefte aan concrete handvatten (zoals bijvoorbeeld de Handreiking non-discriminatie by design14 die in opdracht van BZK is ontwikkeld) hoe organisaties directe en indirecte discriminatie kunnen voorkomen bij het ontwerp van algoritmische systemen. • Voor activiteiten als het formuleren van gezamenlijke normering – dit betreft bijvoorbeeld het opstellen van richtlijnen met verschillende toezichthouders – of voor een klachtenloket was veel minder animo. Er bestaan reeds veel klachtenloketten voor burgers en organisaties. Een nieuw loket zou de herkenbaarheid voor burgers juist kunnen verslechteren vanwege de potentiële overvloed aan verschillende loketten («de lokettenjungle»). Beide opties werden daarom gezien als onhaalbaar en niet wenselijk. • Het belang van (kennis)netwerken en opbouwen van opleidingen werd onderstreept, ook voor jonge instroom van medewerkers. Op de korte termijn zou de algoritmetoezichthouder het initiatief uit de Werkgroep AI kunnen ondersteunen om bestaande opleidingen te inventariseren. • Er was niet veel draagvlak voor dure (nieuwe) platforms en databases, juist het gebruik van bestaande middelen en kennis werd benadrukt. • Burgers zien alleen een uitkomst, niet dat er algoritmen worden gebruikt. Het is daarom belangrijk dat organisaties die algoritmen toepassen de inzet van algoritmen zichtbaar maken. Dit draagt er ook aan bij dat burgers beter begrijpen dat ze bij die organisatie om meer uitleg of een ander besluit kunnen vragen. • Op het publiek algoritmeregister werd als potentieel toezichtinstrument positief gereageerd, wel werd het belang van vervolggesprekken en verdere verkenning over de eventuele rol van de algoritmetoezichthouder hierbij benoemd. • Houd op wetgevingsniveau rekening met overlappende bevoegdheden, voorkom stapeling van toezicht. • Een toezichthouder actief op het gebied van algoritmen en AI dient oog te hebben voor zowel diversiteit in de samenleving als binnen de eigen organisatie. • Het is belangrijk om de verwachtingen over de algoritmetoezichthouder goed te managen: met de beschikbare middelen kan deze toezichthouder niet zelf alle vragen en problemen oplossen. |
2. Inhoudelijke inrichting van de algoritmetoezichthouder in 2023
De uitkomsten van de brede verkenning en de input uit verschillende (expert-)sessies vormen de basis voor de doelen en activiteiten waarmee de algoritmetoezichthouder vanaf 2023 van start kan gaan. Om aan de in deze inrichtingsnota geformuleerde doelen uitvoering te geven zal de AP als onafhankelijk bestaand zelfstandig bestuursorgaan met eigen rechtspersoonlijkheid activiteiten ontplooien. Afgeleid van de precieze organisatorische inbedding van deze activiteiten zal de AP begin 2023 het nieuwe pakket van activiteiten voorzien van een passende naam. Tot dan worden de hier beschreven doelen en activiteiten aangeduid met «de algoritmetoezichthouder».
Uitgangspunt is dat het toezichtslandschap, het controlebestel en bestaande bevoegdheden intact blijven en worden versterkt, onder meer door het signaleren en analyseren van domein- en sectoroverstijgende risico’s en effecten, bevorderen van kennisuitwisseling en het faciliteren en stimuleren van samenwerking en activiteiten op het gebied van algoritmetoezicht. Daarmee wordt verder invulling gegeven aan de in 2021 geformuleerde ambities om het bestaande sectoroverstijgend toezicht voor zowel de overheid als de private sector te versterken en samenwerking tussen toezichthouders te stimuleren.15 Daarbij zijn zeker in het geval van sectoroverstijgende vraagstukken gemeenschappelijke kennisontwikkeling en uitwisseling van grote meerwaarde.16
Daarnaast versterkt de AP, als toezichthouder op de naleving van de AVG, het toezicht op algoritmen met persoonsgegevens. De inzichten en uitkomsten hiervan kunnen de activiteiten op het gebied van algoritmetoezicht versterken.
De algoritmetoezichthouder moet zich dan ook inzetten voor het optimaliseren van de samenwerking tussen betrokken toezichthouders. Dit is des te meer van belang omdat goede samenwerking het domeinoverstijgend signaleren, analyseren en adresseren van risico’s aanzienlijk kan verbeteren. Hiervoor kunnen zoveel mogelijk de bestaande structuren, kennis en bevoegdheden binnen het (digitale) toezichtslandschap worden benut. De algoritmetoezichthouder zal zich vanaf januari 2023 primair richten op de volgende doelen:
• Het signaleren en analyseren van sectoroverstijgende en overkoepelende risico’s en effecten van algoritmen en het delen van kennis daarover;
• Het optimaliseren van (bestaande) samenwerkingen met colleges, markttoezichthouders en rijksinspecties, en het in kaart brengen van overkoepelend toezicht op het gebied van algoritmen en AI;
• Het komen tot gezamenlijke normuitleg en het scheppen van overzicht in wettelijke en andere kaders.
a) Het signaleren van risico’s en uitvoeren van overkoepelende analyses
Een belangrijke rol voor de algoritmetoezichthouder betreft het zo vroeg mogelijk signaleren, analyseren en agenderen van potentiële maatschappijbrede risico’s van de inzet van algoritmen, waarbij specifiek aandacht is voor discriminatie, uitsluiting en transparantie. Hierbij kan onder andere gedacht worden aan het samenbrengen en analyseren van signalen uit bestaand toezicht, van belangenorganisaties of andere stakeholders. Hiermee kunnen risico’s vroeger in de ontwikkeling of inzet in beeld gebracht en aangepakt worden. Een dergelijke vorm van analyse vraagt een goede maatschappelijke antenne. Dit kan worden gerealiseerd door naast met andere toezichthouders, ook nadrukkelijk de samenwerking en dialoog op te zoeken met het maatschappelijk middenveld, kennisinstellingen en de wetenschap.17 Daarbij is het ook van belang dat de algoritmetoezichthouder zichtbaar is voor onder meer burgers en (overheids)organisaties, zodat ook vanuit deze hoek signalen kunnen worden opgevangen en geanalyseerd. Het beeld dat na analyse daaruit ontstaat vormt een belangrijke bouwsteen voor de samenwerkingen (als benoemd onder 2b). Deze kunnen daarnaast het startpunt vormen voor een potentieel onderzoek van een (sectorale) specifieke toezichthouder, die op basis van eigen bevoegdheden op acties zou kunnen overgaan. Ook bestaat er de mogelijkheid, afhankelijk van of de bevoegdheden van de betrokken toezichthouders dit toelaat, om gezamenlijk een onderzoek op te starten. Tot slot kunnen de signalen en risico’s op structurele wijze worden teruggekoppeld naar relevante departementen met het oog op (toekomstig) beleid.18
Met de AP is overeenstemming bereikt over de volgende activiteiten:
• Het verzamelen en analyseren van (sector- en domeinoverstijgende) signalen en inzichten over de risico’s en effecten van algoritmegebruik. Hierdoor krijgen toezichthouders mogelijke (nieuwe) inzichten in significante ontwikkelen en risico’s. Dit stelt hen in staat om hier (indien wenselijk) vervolgens toezicht op te intensiveren. Ook voor andere stakeholders zoals burgers, organisaties, wetenschap en burgerrechtenorganisaties kan beter zicht op de risico’s en effecten van algoritmegebruik van meerwaarde zijn.
• Het delen van inzichten in risico’s, effecten en over de verantwoorde inzet van algoritmen, voortkomend uit signalering en analyse. Deze kennis wordt periodiek en publiekelijk gedeeld, bijvoorbeeld op de website van de algoritmetoezichthouder.
b) Het optimaliseren van (bestaande) samenwerkingen
Het intensiveren van de samenwerking en het delen van kennis en expertise, zowel op het vlak van mensenrechtenbescherming als binnen het technische domein, zal ertoe leiden dat risico’s van algoritmegebruik effectiever kunnen worden aangepakt en eerder aan het licht komen of kunnen worden voorkomen. De algoritmetoezichthouder zal zich vanaf januari 2023 dan ook inzetten om samenwerking tussen toezichthouders te bevorderen.
Met de AP is overeenstemming bereikt over de volgende activiteiten:
• Het versterken en faciliteren van (bestaande) samenwerkingen op toezichtsgebied. Het optimaliseren van samenwerking zal, waar mogelijk, gebruikmaken van bestaande overleggen zoals een kerngroep toezichthouders die meer verdiepend en intensiever de samenwerking op het gebied van algoritmen en AI zullen aangaan. De AP zal hier de wensen inventariseren, initiatieven en samenwerking praktisch faciliteren, bijeenkomsten organiseren en het versterken van samenwerking stimuleren. Door de grote diversiteit aan toezichtsgebieden is het faciliteren van samenwerkingen van meerwaarde.
• Het in gezamenlijkheid kijken naar domeinoverstijgende maatschappijbrede risico’s, toezichtsvraagstukken en blinde vlekken in het toezicht op het gebied van algoritmen en AI, in samenwerking met het toezichtslandschap en andere betrokkenen. Op deze wijze krijgen specifieke toezichthouders meer inzicht en grip op de brede onbekende effecten, risico’s en mogelijk te adresseren vraagstukken op het gebied van algoritme(-inzet).
c) Gezamenlijke normuitleg in de toezichtspraktijk en overzicht scheppen
Vanuit rechtszekerheid en met het oog op de naleving van regels moeten toezichthouders in veel gevallen invulling geven aan vastgestelde normen (regels) over algoritmegebruik en de wijze waarop de door ondertoezichtgestelden kunnen worden toegepast. De algoritmetoezichthouder kan eraan bijdragen dat multidisciplinaire kennis in de vorm van guidance19 of normuitleg wordt gedeeld met burgers, bedrijven en overheden. Daarbij kan de algoritmetoezichthouder normuitleg van twee toezichthouders – indien er sprake is van gemeenschappelijke toezichtsthema’s en het in samenwerking tot stand komt – samenbrengen of niet-verplichte kaders inzichtelijk maken. Eenduidige en gezamenlijke uitleg van normen en guidance over de toepassing daarvan kan het implementeren van bestaande en nieuwe wetgeving voor onder toezicht gestelden vergemakkelijken.
Met de AP is overeenstemming bereikt over de volgende activiteiten:
• Het aanjagen van de opstelling van gezamenlijke en toezichtsgebied overstijgende normuitleg en guidance in samenwerking met andere toezichthouders. Bijvoorbeeld door aanpalende thema’s te identificeren en vanuit het signaleren en identificeren potentiële normen voor verdere uitleg te agenderen. Hierbij zal normuitleg moeten leiden tot meer rechtszekerheid bij de inzet van algoritmen en zal guidance over de wijze waarop deze normen gehanteerd kunnen worden moeten leiden tot betere naleving.
• Het bieden van informatie en overzicht (door middel van guidance en normuitleg) aan een brede groep ondertoezichtgestelden en burgers over (verantwoorde) inzet van algoritmen. Denk hierbij aan kleine overheden, maar ook startups in de technologiesector. Dit sluit ook aan op de belangrijke rol die toezichthouders hebben als het gaat om voorlichting geven over algoritmen gericht op de gehele samenleving.20
2.1 Randvoorwaarden
Hieronder worden randvoorwaarden beschreven die – naast de hierboven genoemde doelen en activiteiten – relevant zijn voor het optimaal kunnen uitvoeren van de taken die de algoritmetoezichthouder bij de AP zal oppakken.
Transparantie in werkwijze
• Een goed functionerende toezichthouder is transparant over de te hanteren normen en het beleid. De algoritmetoezichthouder zal voldoen aan de geldende transparantie-eisen, zoals bijvoorbeeld de Wet Open Overheid (WOO). Tevens zal de algoritmetoezichthouder zijn positie in het toezichthouderslandschap bij de start toelichten en inzicht geven in vorderingen op het behalen van de geformuleerde doelen. Jaarlijks zal als onderdeel van het jaarverslag van de AP een overzicht gegeven worden van uitgevoerde werkzaamheden en resultaten.
• Daarbij geldt ook het uitgangspunt dat de toezichtstrategie die (specifiek) wordt geformuleerd voor het werk en de (toezichts)activiteiten van de algoritmetoezichthouder zal worden gedeeld.
• De algoritmetoezichthouder publiceert eind 2023 een rapport om de ontwikkelingen in het algoritmetoezicht en de risico’s van algoritmen inzichtelijk te maken. Daarbij is aandacht voor zowel de positieve als de negatieve effecten van algoritme-inzet. Het geeft hiermee uitvoering aan het eerste doel (het signaleren van risico’s en uitvoeren van analyses) in deze nota. Dit rapport zal met uw Kamer worden gedeeld.
Versterken van (bestaand) toezicht op algoritmen via AVG
Naast de activiteiten die de AP op het gebied van algoritmetoezicht vanuit het coalitieakkoord op zich neemt, zal de AP zich als toezichthouder op de AVG de komende jaren ook nog actiever inzetten om de negatieve gevolgen van het gebruik van algoritmen waar persoonsgegevens worden gebruikt te voorkomen. Op 28 april 2022 is door JenV besloten om de AP hiervoor vanaf 2023 structureel 2,61 miljoen euro toe te wijzen in het kader van de «Werk aan uitvoering» (WaU)-middelen. De AP zal deze middelen inzetten om haar toezicht op gebruik van algoritmen te versterken met als doel negatieve gevolgen van het gebruik van algoritmen waarin persoonsgegevens worden gebruikt te voorkomen, de risico’s te signaleren en aan te pakken. De beoogde effecten en prestaties zijn dat de ontwikkeling van algoritmen op een verantwoorde manier gebeurt en negatieve gevolgen zoals discriminatie wordt voorkomen. Ook (specifiek) voor de algoritmetoezichthouder zijn deze opgedane signalen op het gebied van de bescherming van persoonsgegevens van meerwaarde in de verschillende doelen en activiteiten, zoals het signaleren van risico’s en uitvoeren van analyses.
3. Vervolgstappen
In 2023 zullen door BZK in het kader van de algoritmetoezichthouder – in nauwe afstemming met de AP, betrokken departementen en toezichthouders – verschillende vervolgstappen worden genomen om noodzakelijke aspecten rondom toezicht op algoritmen verder uit te werken. Er is onderscheid gemaakt tussen een aantal speerpunten die in 2023 verder moeten worden uitgewerkt. Concreet betreft het de volgende vervolgstappen:
• Duidelijkheid scheppen over de doelen en activiteiten van de algoritmetoezichthouder vanaf 2024.
• Het voeren van een structurele dialoog met digitale toezichthouders en het in kaart brengen van (nieuwe) toezichtstaken op het gebied van algoritmen.
• Het verkennen van de (potentiële) rol van de algoritmetoezichthouder in relevante (BZK-)beleidstrajecten en opkomende wet- en regelgeving.
In het derde kwartaal van 2023 informeer ik uw Kamer over de vorderingen.
a) Duidelijkheid over opschaling activiteiten vanaf 2024
In de loop van 2023 zal ook invulling worden gegeven aan de middelen die vanaf 2024 zijn toegewezen aan de AP voor algoritmetoezichthouder. Het gaat concreet om 2 miljoen euro in 2024, 3 miljoen euro in 2025 en vanaf 2026 structureel 3,6 miljoen euro.21 Deze budgetverhoging brengt met zich mee dat de activiteiten en taken van de algoritmetoezichthouder vanaf 2024 kunnen worden geïntensiveerd en waar nodig uitgebreid. Op basis van de verkenning en expertsessies22 worden de volgende activiteiten in ieder geval verder verkend en, waar wenselijk en mogelijk, onderdeel van het takenpakket en de doelen van de algoritmetoezichthouder bij de AP vanaf 2024:
• Voorlichtende functie uitbreiden. Vanaf 2024 kan de algoritmetoezichthouder zich actiever richten op het geven van diverse vormen van voorlichting aan burgers en (overheids)organisaties. Dit zal zich bijvoorbeeld kunnen toespitsen op specifieke voorlichting over de effecten van deze technologie of handvatten voor de bescherming van grondrechten. Hiermee kan mogelijk ook worden ingespeeld op eventuele verdere behoeftes wat betreft normuitleg en guidance om de negatieve effecten van algoritmegebruik zoveel mogelijk in een vroeg stadium te voorkomen. Daarnaast kunnen ook positieve voorbeelden van algoritme-inzet worden gedeeld.
• Vergroten van kennis. De extra middelen vanaf 2024 bieden een kans om de (interne) kennis en expertise bij toezichthouders en wellicht andere stakeholders op het gebied van effecten van, en toezicht op algoritmen en AI te vergroten, bijvoorbeeld door opleidingen of andere kennisgerichte activiteiten.
• Uitbreiden van signalerings- en analysefunctie. Het verder uitbreiden hiervan met bijvoorbeeld meer eigen verkenningen en het uitvoeren van zelfstandig en gezamenlijk onderzoek moet bijdragen aan het in kaart brengen van de risico’s, ontwikkelingen en blinde vlekken die eraan bijdragen dat er bij algoritme inzet sprake kan zijn van discriminatie, willekeur of een gebrek aan transparantie. De uitkomsten uit onderzoeken kunnen daarbij worden opgevolgd door specifieke voorlichting of waar mogelijk eventueel opvolging door de gespecialiseerde (sectorale) toezichthouder. Tevens kunnen deze inzichten worden gebruikt aan de beleidskant, bijvoorbeeld bij beleidsvorming of uitvoering.
In het derde kwartaal van 2023 zal meer duidelijkheid worden gegeven over de doelen en activiteiten die in 2024 zullen worden uitgevoerd door de algoritmetoezichthouder.
b) Dialoog met digitale toezichthouders en overzicht (nieuwe) toezichtstaken
De komende jaren moet verder vorm gegeven worden aan de vele nieuwe toezichtstaken binnen het digitale domein die onder andere voortvloeien uit EU-regelgeving. Voor de vormgeving en uitvoeringswetgeving van deze toezichtstaken vindt nauw overleg plaats tussen betrokken departementen en toezichthouders. Indien er meerdere toezichthouders in aanmerking komen voor toezichtstaken wordt met de relevante stakeholders gesproken om te bepalen hoe het kabinet het toezicht het beste kan beleggen om effectief toezicht tot stand te brengen. Hierbij is het belangrijk dat de samenhang in het toezicht op alle EU en (nationale) wetgevingsinitiatieven binnen het algoritme en AI-domein wordt gewaarborgd.
Dit pleit temeer voor een dialoog tussen politiek en toezichthouders binnen het digitale domein, iets waarvoor ik mij ga inzetten. Zo ben ik de afgelopen periode in gesprek geweest met onder meer de AP en de ACM en zal ik in 2023 in gesprek treden met samenwerkingsverbanden van toezichthouders. Dit moet bijdragen aan een meer structurele dialoog met toezichthouders en relevante samenwerkingsverbanden (waar mogelijk ook een rol is weggelegd voor de algoritmetoezichthouder). Dit helpt tevens bij het bieden van overzicht en helderheid in bestaande en nieuwe (toezichts)taken en bevoegdheden als het gaat om toezicht op algoritmen. Ook wordt hiermee gehoor gegeven aan de toezegging die in oktober 2021 is gedaan aan uw Kamer om in gesprek te gaan met de bestaande toezichthouders om te kijken hoe zaken verbeterd zouden kunnen worden als het gaat om toezicht op discriminerende algoritmen naar aanleiding van de motie met Kamerstuk 35 925 VII, nr. 33 van het lid Van Baarle (DENK).23
c) Nieuwe wet- en regelgeving algoritmen
Om de gewenste opschaling van de algoritmetoezichthouder mogelijk te maken zal er in 2023 tevens verder worden verkend welke nieuwe wet- en regelgeving nodig is om algoritmetoezicht verder te verwezenlijken. Hierin zullen nieuwe taken en bevoegdheden voor de algoritmetoezichthouder, die zien op het toezicht op algoritmen, worden overwogen en verkend. BZK zal dit verkennen in nauw overleg met de betrokken stakeholders en voor de gekozen activiteiten zal BZK passende middelen aan de AP toewijzen. Ook hierin geldt het uitgangspunt dat bij de inrichting van het toezicht zo veel mogelijk wordt voortgebouwd op of aansluiting gezocht bij bestaand toezicht. Daarbij zijn ook aspecten als uitvoerbaarheid en het voorkomen van stapeling van toezicht van groot belang. Ten aanzien van nieuwe toezichtstaken zal een uitvoeringstoets worden uitgevoerd.
De AI-verordening is momenteel nog in onderhandeling en zal bepalingen bevatten die raken aan (sommige van) de genoemde instrumenten en trajecten. De Europese AI-verordening vormt daarbij het fundament waarop zal moeten worden gebouwd. Daarom wordt de uitvoering van deze verordening leidend bij het vormgeven van het algoritmetoezicht. Over de inrichting van het nationale toezicht op de AI-verordening kan worden besloten als de onderhandelingen zijn afgerond en het voorstel definitief is. Zoals eerder benoemd worden er nu al stappen gezet om tot de verantwoorde inzet van algoritmen bij de overheid te komen, bijvoorbeeld via het implementatiekader voor algoritmen. In 2023 kan verkend worden in hoeverre (ingezette) beleidstrajecten behulpzaam zijn bij de verdere uitwerking van het toekomstig toezicht, zonder daarbij vooruit te lopen op de toezichtstaken en verplichtingen uit de AI-verordening:
• Verplicht uitvoeren van mensenrechten impacttoets waar uw Kamer om heeft gevraagd.24 Na de invoering van deze verplichting zou de algoritmetoezichthouder onderzoek kunnen doen naar (on)uitgevoerde mensenrechten impacttoetsen.
• Het implementatiekader voor algoritmen schept duidelijkheid aan overheden over de eisen waar ze aan moeten voldoen en wat van ze wordt verwacht.25 De algoritmetoezichthouder zou een rol kunnen spelen in het toezien op de naleving van het implementatiekader.
• Verplichtingen publiek algoritmeregister. Het kabinet gaat het opstellen van een publiek algoritmeregister voor overheidsorganisaties verplicht stellen.26 Na invoering van (eventuele) verplichting zou de algoritmetoezichthouder toezicht kunnen houden op de vulling van het register.
• Onderzoek doen naar periodieke audits op algoritme-inzet. Er bestaat de mogelijkheid om overheidsorganisaties te verplichten om periodieke audits op algoritme-inzet te laten uitvoeren, bijvoorbeeld door de ADR. Op basis van deze uitgevoerde audits zou de algoritmetoezichthouder rode draden kunnen analyseren en overkoepelende risico’s en transparantie in kaart kunnen brengen.
4. Slotwoord
Sinds de bekendmaking van het coalitieakkoord is er door de betrokken partijen – departementen, de AP, andere toezichthouders en een breed scala aan experts – hard gewerkt aan het verkennen en vormgeven van de doelen en activiteiten voor de algoritmetoezichthouder bij de AP. Deze brief bevat een omschrijving van activiteiten waarmee de algoritmetoezichthouder vanaf januari 2023 zal starten, evenals de vervolgstappen om de komende jaren tot verdere vormgeving van het toezicht op algoritmen te komen. Door het oprichten van de algoritmetoezichthouder wordt het bestaand toezicht in Nederland beter in staat gesteld om toezicht te houden op de mogelijk negatieve (maatschappelijke) effecten van algoritmegebruik, zoals discriminatie of willekeur. Door goed toezicht maakt de overheid algoritmen en hun toepassingen eerlijk en transparant, zodat iedereen op een gelijke behandeling kan rekenen en vertrouwen heeft en rechtsbescherming geniet in de digitale wereld. Wel zullen er daarbij in de komende jaren – in nauwe samenwerking met toezichthouders, overheden, maatschappelijke organisaties en private partijen – nog verschillende aspecten nader worden ingevuld om tot een optimale inrichting van het toezichtslandschap op algoritmen te komen. Hierbij is een goede samenwerking en een grondig proces cruciaal. De oprichting van de algoritmetoezichthouder vormt daarbij een nieuwe en broodnodige stap om te komen tot een verantwoorde inzet van algoritmen in Nederland.
De Staatssecretaris van Binnenlandse Zaken en
Koninkrijksrelaties,
A.C. van Huffelen
Bijlage bij Kamerstuk 35 788, nr. 77.↩︎
Kamerstuk 2022–2023, 26 643, nr. 924.↩︎
College voor de Rechten van de Mens (2022), «Factsheet voor ambtenaren over algoritmes voor werving en selectie».↩︎
Kamerstuk 35 212, nr. 3.↩︎
Kamerstuk 35 925 VII, nr. 3.↩︎
ADR (2022), «Onderzoeksrapport beheersing algoritmes binnen het Rijk» (Bijlage bij Kamerstuk 26 643, nr. 854).↩︎
WRR (2021), «Opgave AI: de nieuwe systeemtechnologie».↩︎
Technologieën die door de hele economie en samenleving voor allerlei doelen ingezet kunnen worden. Zie ook: WRR (2021), «Opgave AI: de nieuwe systeemtechnologie» (Bijlage bij Kamerstuk 26 643, nr. 805).↩︎
https://www.rijksoverheid.nl/documenten/rapporten/2022/11/04/bijlage-1-werkagenda-waardengedreven-digitaliseren.↩︎
Bijlage bij Kamerstuk 26 643, nr. 940.↩︎
WRR (2021), «Opgave AI: de nieuwe systeemtechnologie».↩︎
Hooghiemstra & Partners (2019), «Onderzoek Toezicht op het gebruik van algoritmen door de overheid» (Bijlage bij Kamerstuk 26 643, nr. 657).↩︎
Zoals ook benoemd in de Kamerbief Voortgang AI en algoritmen (2021) moet toezicht periodiek worden geëvalueerd om ervoor te zorgen dat specifieke algoritmen bij het toezicht niet tussen wal en schip kunnen vallen (Kamerstuk 26 643, nr. 765).↩︎
Kamerstuk 26 643, nr. 765.↩︎
Kamerstuk 26 643, nr. 765.↩︎
WRR (2013), «Toezien op publieke belangen. Naar een verruimd perspectief op rijkstoezicht».↩︎
WRR (2021), «Opgave AI: de nieuwe systeemtechnologie».↩︎
Dit was tevens een van de aanbevelingen van de WRR (2021) uit haar rapport «Opgave AI: de nieuwe systeemtechnologie».↩︎
Guidance: Het bieden van voorlichting, uitleg en hulpmiddelen over hoe een organisatie vastgestelde en uitgelegde normen kan implementeren en naleven.↩︎
Kamerstuk 35 212, nr. 3.↩︎
https://open.overheid.nl/repository/ronl-838b6d3a-15e0-48c7-9808-31d5ba9a1e32/1/pdf/budgettaire-bijlage-coalitieakkoord-15-december-2021.pdf.↩︎
Tijdens de expertsessies bleek dat er weinig animo was voor een scenario waarin de algoritmetoezichthouder zich richt op het beschikbaar stellen van technische voorzieningen (zoals testdata) en/of het actief inzetten op de werving van (net afgestudeerd) personeel.↩︎
Kamerstuk 35 925 VII, nr. 3.↩︎
Kamerstuk 26 643, nr. 835.↩︎
Bijlage bij Kamerstuk 26 643, nr. 940.↩︎
Kamerstuk 26 643, nr. 924.↩︎