[overzicht] [activiteiten] [ongeplande activiteiten] [besluiten] [commissies] [geschenken] [kamerleden] [kamerstukdossiers] [open vragen]
[toezeggingen] [stemmingen] [verslagen] [🔍 uitgebreid zoeken] [wat is dit?]

Reactie op het onderzoek 'Algoritmes afwegen. Verkenning naar maatregelen ter bescherming van mensenrechten bij profilering in de uitvoering' van het Rathenau Instituut

Informatie- en communicatietechnologie (ICT)

Brief regering

Nummer: 2022D40584, datum: 2022-10-07, bijgewerkt: 2024-02-19 10:56, versie: 3

Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (kst-26643-922).

Gerelateerde personen: Bijlagen:

Onderdeel van kamerstukdossier 26643 -922 Informatie- en communicatietechnologie (ICT).

Onderdeel van zaak 2022Z18973:

Onderdeel van activiteiten:

Preview document (🔗 origineel)


Tweede Kamer der Staten-Generaal 2
Vergaderjaar 2022-2023

26 643 Informatie- en communicatietechnologie (ICT)

33 826 Mensenrechten in Nederland

Nr. 922 BRIEF VAN DE STAATSSECRETARIS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES

Aan de Voorzitter van de Tweede Kamer der Staten-Generaal

Den Haag, 7 oktober 2022

Bij deze bied ik uw Kamer een reactie aan op het onderzoek Algoritmes afwegen. Verkenning naar maatregelen ter bescherming van mensenrechten bij profilering in de uitvoering van het Rathenau Instituut, dat op mijn verzoek is uitgevoerd. Graag wil ik mijn waardering uitspreken voor dit rapport. Het onderzoek brengt in kaart welke maatregelen uitvoeringsorganisaties nemen om bij de ontwikkeling en het gebruik van profilerende systemen mensenrechten te borgen en hoe zij deze borging kunnen versterken. Ik kan mij vinden in de aanbevelingen en ga daarmee aan de slag. Dit onderzoek is bruikbaar voor alle overheidsorganisaties en is een goede eerste stap om te komen tot een compleet pakket van maatregelen en inzicht te krijgen in de mate waarin overheden gereed zijn om mensenrechten te borgen bij de inzet van algoritmen.

Het Rathenau Instituut heeft in dit onderzoek gekeken naar drie pilots bij uitvoeringsinstanties:

(1) een pilot gericht op het innen van openstaande boetes en het voorkomen van schuldenoploop van het Centraal Justitieel Incassobureau (CJIB);

(2) een pilot gericht op het opsporen van bewust of onbewust misbruik van AOW-uitkeringen voor alleenstaanden van de Sociale Verzekeringsbank (SVB) en;

(3) een pilot gericht op het detecteren van specifieke regelovertredingen en het bieden van hulp bij het vinden van werk van het Uitvoeringsinstituut Werknemersverzekeringen (UWV).

Het onderzoek laat zien dat de inzet van algoritmen nuttig kan zijn in de uitvoering van overheidstaken en kansen biedt om maatschappelijke opgaven aan te pakken. Maar ik zie ook1 dat algoritmen vooral worden ingezet om misbruik aan te pakken: bij opsporing, inspectie en handhaving. Ik wil dat algoritmen meer worden ingezet om burgers te helpen, bijvoorbeeld bij het gebruik van regelingen zoals bij UWV en SVB. En dat algoritmen alleen worden gebruikt wanneer het echt nodig is om de overheid goed te laten werken. Daarbij moeten we ons als overheid baseren op heldere juridische eisen en ethische beginselen, en die overal eenduidig toepassen in organisaties. Deze juridische eisen en beginselen blijven we binnen de overheid vaststellen en verplichten, in één implementatiekader voor de inzet van algoritmen, en in Europa in de AI-verordening voor ontwikkelaars. Ik voel ook een verantwoordelijkheid om het gesprek daarover binnen de overheid en tussen overheden op gang te brengen, en kennis te delen voor een goede implementatie. Dit met als doel dat algoritmen vooraf worden getoetst en gedurende het gebruik steeds weer worden onderzocht op datakwaliteit, proportionaliteit en mogelijke bias. Op deze algoritmen moet helder toezicht worden ingericht, vooraf, tijdens en na het gebruik. En de werking en inzet moeten transparant zijn, waarbij het duidelijk is waar burgers en bedrijven hun recht kunnen halen wanneer ze menen dat het algoritme onrechtmatig wordt ingezet.

Het onderzoek laat ook zien dat uitvoeringsorganisaties voor een complex vraagstuk staan: hoe zorg je ervoor dat je je wettelijke taak op effectieve wijze uitvoert, waarbij je tegelijkertijd alle mogelijke waarborgen treft om mensenrechten bij de taakuitoefening te beschermen? Ik heb waardering voor de initiatieven die uitvoeringsorganisaties nemen om wettelijke vereisten te vertalen naar een hanteerbare praktijk en om ethische expertise in de organisaties te versterken. De kennis uit de praktijk is onmisbaar bij het naleven van bestaande richtlijnen en kaders.

Op basis van het onderzoek en de ervaringen uit de praktijk zal ik de komende jaren tot een compleet pakket van maatregelen komen om de mensenrechten bij de inzet van algoritmen bij overheidsorganisaties te borgen. We doen dat samen met andere landen via Europese regelgevingstrajecten en zetten nu al stappen waar dat kan.

Een van deze maatregelen is het inrichten en wettelijk verplichten van het gebruik van een algoritmeregister voor in ieder geval hoog-risico algoritmen door overheidsorganisaties. Uitgangspunt is dat overheden zelf verantwoordelijk zijn voor het opstellen en beheer van een algoritmeregister. Het kabinet gaat in overleg met overheden om te komen tot een eenduidige registratie van algoritmen. Om het algoritmeregister zo in te richten dat het beheer daarvan haalbaar is voor de uitvoering, zal een uitvoeringstoets worden uitgevoerd. Ik heb de betrokken organisaties gevraagd om de algoritmen die de afgelopen tijd zijn doorgelicht zoveel mogelijk voor het eind van het jaar in het register te publiceren. Daarnaast zal mijn inzet zijn om het komend jaar de verschillende bestaande instrumenten samen te voegen en te stroomlijnen in één implementatiekader voor algoritmen op basis waarvan overheidsorganisaties aan de slag kunnen. Om ervoor te zorgen dat het implementatiekader zo uitvoerbaar mogelijk is, zal ten aanzien van het kader een uitvoeringstoets plaatsvinden.

Hoewel de huidige juridische kaders al de nodige waarborgen bieden voor een verantwoorde inzet van algoritmen2, zal bij het implementatiekader aandacht zijn voor non-discriminatie, menselijke tussenkomst, proportionaliteit3 en al bestaande verplichtingen rondom IT-beheer en gegevensverwerkingsbeheer. Ook is er geld beschikbaar gesteld voor een onafhankelijke algoritmetoezichthouder. Ik wil dit implementatiekader samen met overheden en experts gaan uitwerken. Ik neem dit onderwerp mee in de werkagenda Digitalisering, die uw Kamer in oktober ontvangt.

In het vervolg van deze brief ga ik in op de concrete aanbevelingen uit het onderzoek en geef ik aan hoe wij daar opvolging aan (gaan) geven.

Het onderzoek doet een zevental aanbevelingen:

1. Zorg dat juridische vereisten en ethische beginselen beter hanteerbaar worden

2. Stimuleer ethische expertise in de gehele organisatie

3. Blijf investeren in privacy-toetsing

4. Versterk de manier waarop biastoetsing plaatsvindt

5. Investeer in actieve informatievoorziening

6. Versterk de waarborgen voor procedurele rechten; en

7. Voorkom verkokering bij de ontwikkeling en beoordeling van algoritmische toepassingen en verbeter dienstverlening.

Op deze aanbevelingen ga ik hieronder gebundeld in.

Aanbeveling 1, 6 en 7: Hanteerbaarheid richtlijnen, procedurele waarborgen en voorkomen van verkokering

Het Rathenau Instituut concludeert dat uitvoeringsorganisaties mensenrechtelijke risico’s bij de inzet van profilering onderkennen, met name als het gaat om risico’s op het gebied van privacy, gebrekkige transparantie, beperkte uitlegbaarheid en ontbrekende menselijke tussenkomst. Maar het komt ook tot de conclusie dat uitvoeringsorganisaties zoekende zijn hoe zij concreet invulling moeten geven aan juridische eisen. Daarom adviseert het Rathenau Instituut dat bestaande juridische vereisten en ethische beginselen beter hanteerbaar worden, dat waarborgen voor procedurele rechten versterkt worden en dat verkokering bij de ontwikkeling en beoordeling van algoritmische toepassingen wordt voorkomen.

Bestaande juridische eisen zijn – om goede redenen – vaak in algemene termen omschreven. Dat vraagt in de praktijk om een vertaalslag, bijvoorbeeld in de vorm van impact assessments, de ontwikkelde normenkaders of handreikingen die juridische eisen verhelderen. Het Ministerie van BZK heeft om die reden onder meer het Impact Assessment Mensenrechten Algoritmen (IAMA), Code Goed Digitaal Openbaar Bestuur (CODIO) en de handreiking non-discriminatie by design laten ontwikkelen. Het College van de Rechten van de Mens ontwikkelde het toetsingskader voor risicoprofielen. Het Rathenau Instituut geeft aan dat de totstandkoming van dit soort instrumenten een goede ontwikkeling is en uitvoeringsorganisaties kan helpen om beter aan de juridische eisen te voldoen, maar dat er ook onduidelijkheid is over de vraag hoe deze hulpmiddelen zich tot elkaar verhouden en welk instrument leidend moet zijn. Verschillende uitvoeringsorganisaties zijn nu zelf bezig om een normenkader op te stellen dat aangeeft hoe mensenrechtelijke aspecten belegd kunnen worden.

Ik neem deze kennis en inzichten mee om te komen tot het zojuist genoemde implementatiekader «inzet van algoritmen» voor het Rijk en andere overheden die ervoor moet zorgen dat er duidelijkheid bestaat in welke gevallen welk instrument wordt ingezet en welke vaste (verplichte) plek dit krijgt in de werkprocessen. Deze is uitdrukkelijk bedoeld om de bestaande instrumenten en hulpmiddelen meer in samenhang te brengen, en zaken als biastoetsing, menselijke controle, bezwaarmogelijkheden, uitlegbaarheid en proportionaliteit hierin een plek te geven. Ik ga dit implementatiekader samen met overheden uitwerken.

Daarnaast zal ik voor het inschatten van mensenrechtelijke risico’s een verzoek aan circa 20 overheden (Rijk, provincies en gemeenten) doen om een IAMA toe te passen om vast te stellen of alle aandachtspunten rondom de inzet van algoritmen voldoende meegenomen zijn. Op basis van de toepassing van het IAMA voor een bepaald algoritme zal het IAMA geëvalueerd en doorontwikkeld worden. Vanaf dit najaar zal ik een experttafel organiseren waar overheden en uitvoeringsorganisaties kennis kunnen delen en van elkaar kunnen leren, zodat we de komende jaren tot een compleet overzicht kunnen komen van hoe overheden mensenrechten borgen bij de inzet van algoritmen bij overheidsorganisaties. Op basis van de motie van Kamerleden Bouchallikh (GroenLinks) en Dekker-Abdulaziz (D66), om het gebruik van het IAMA te verplichten, zal het IAMA of een soortgelijk instrument op den duur een meer verplichtend karakter krijgen (Kamerstuk 26 643, nr. 835). Dit bezie ik wel in samenhang met bestaande verplichtingen, zoals een DPIA, en de nieuwe verplichtingen die uit de Europese AI-verordening4 volgen voor ontwikkelaars.

Aanbeveling 2, 3: Stimuleren van ethische expertise en blijven investeren in privacytoetsing

Het Rathenau Instituut adviseert ook om ethische expertise in de gehele organisatie te stimuleren. Ik stel vast dat uitvoeringsorganisaties hier goede stappen in zetten en zal de komende jaren naar een compleet overzicht toewerken hoe organisaties hiermee omgaan. Ethiek is wat mij betreft vooral ook onderdeel van goed gedrag waarbij zowel het navolgen van wet- en regelgeving als ruimte voor reflectie onontbeerlijk zijn. In het toetsingskader van de Algemene Rekenkamer is ethiek één van de vijf perspectieven. De Algemene Rekenkamer heeft ethiek verder geoperationaliseerd in verschillende principes. Ethiek als toetsingscriterium gebruiken, stimuleert organisaties om in het ontwerp en het gebruik meer ethische overwegingen te maken en te expliciteren. Naast ethiek als onderdeel van toetsing is het belangrijk om te investeren in kennis. In de opleiding van I-trainees, de nieuwe informatieprofessionals van de overheid, wordt specifiek bij de ethische aspecten van digitalisering stil gestaan. De Rijksacademie voor Digitalisering en Informatisering Overheid (RADIO) biedt ook trainingen aan op het snijvlak van ICT en ethiek, zoals over digitale grondrechten en data gedreven organisaties en ethiek.

Tevens worden op basis van de Interbestuurlijke Data Strategie regels ontwikkeld voor data-ethiek in de publieke sector. We gaan bij datagebruik vroegtijdig integrale afwegingen maken tussen wat ethisch wenselijk is, juridisch is toegestaan en technisch kan. Dit betekent niet dat we stoppen met data verzamelen en delen. Data kunnen enorm behulpzaam zijn voor overheden om burgers beter te ondersteunen en om maatschappelijke problemen aan te pakken, zoals de energietransitie, armoedebestrijding en het stikstofdossier.5Daarom is er een adviesfunctie «verantwoord datagebruik» gestart: een loket om afwegingen rondom concrete casussen te kunnen maken en hierover het gesprek te voeren met mensen vanuit verschillende disciplines. Vaak speelt privacy en de bescherming van persoonsgegevens daarin een belangrijke rol. Met de AVG is er al een kader voor de bescherming van persoonsgegevens, ook bij algoritmische toepassingen bij de overheid. Het kabinet heeft daarbovenop recent een onderzoek laten starten naar de naleving door de overheid van de AVG. Het onderzoek wordt door het Wetenschappelijk Onderzoek- en Documentatiecentrum (WODC) uitgevoerd. Ook het budget van de Autoriteit Persoonsgegevens wordt in het coalitieakkoord (bijlage bij Kamerstuk 35 788, nr. 77) structureel verhoogd. In 2023 en 2024 is er respectievelijk 4 en 6 miljoen euro extra en vanaf 2025 komt er structureel 8 miljoen euro bij.

Aanbeveling 4: Versterken van de manier waarop biastoetsing plaatsvindt

Het Rathenau Instituut adviseert ook om de manier waarop biastoetsing plaatsvindt te versterken. Bij de inzet van algoritmen bestaat het risico dat op basis van trainingsdata er een bias ontstaat die kan leiden tot onrechtmatige en ongelijke behandeling. Non-discriminatie en gelijke behandeling moeten daarom basisbeginselen zijn bij het ontwerp, de ontwikkeling en de toepassing (en «training») van digitale systemen.

Ik stel vast dat de uitvoeringsorganisaties die onderzocht zijn investeren in een breed scala aan maatregelen om bias te toetsen, maar dat de biastoetsing effectiever kan worden vormgegeven en dat expertise over biastoetsing beter gedeeld kan worden. Daarom zal ik vanaf dit najaar een experttafel organiseren waar kennis over algoritmegebruik bij de overheid gedeeld kan worden en organisaties van elkaar kunnen leren.

De toetsing van bias kan al met behulp van de hierboven genoemde handreiking non-discriminatie by design die vorig jaar door het Ministerie van BZK is ontwikkeld. Omdat momenteel nog onvoldoende duidelijk is hoe deze handreiking in de praktijk gebruikt wordt en de impact daardoor lastig vast te stellen is, heb ik de Auditdienst Rijk gevraagd om een advies uit te brengen hoe de bekendheid van deze handreiking vergroot kan worden. Deze resultaten neem ik mee in het genoemde implementatiekader. Het is van belang om in beeld te hebben waar bias of verkeerd datagebruik binnen de overheid leidt tot discriminatie. Daarom breng ik n.a.v. de motie van het lid Marijnissen6 het gebruik van afkomstgerelateerde gegevens in rijksoverheidssystemen in kaart en zet ik deze stop op het moment dat het gebruik onrechtmatig of oneigenlijk is.

Aanbeveling 5: Investeren in een actieve informatievoorziening

Het Rathenau Instituut concludeert dat onderzochte uitvoeringsorganisaties zoeken naar de balans tussen actieve en passieve informatievoorziening, en het adviseert om te investeren in een actieve informatievoorziening. Gelet op de gevoeligheid van het onderwerp zoeken de organisaties naar de beste manier om over profilerende algoritmen te communiceren. Er gelden diverse transparantieverplichtingen die al eerder in een brief met uw Kamer zijn gedeeld.7

Maar het Rathenau Instituut komt ook tot de conclusie dat een algoritmeregister kan helpen bij het vergroten van transparantie omtrent algoritme-inzet door de overheid. Zoals ik in de inleiding al meldde, gaat het kabinet een algoritmeregister8 verplicht stellen voor overheidsorganisaties. Het algoritmeregister bevat in ieder geval hoog-risico algoritmen. Uitgangspunt is dat overheden zelf verantwoordelijk zijn voor het opstellen en beheer van een algoritmeregister. Het kabinet werkt aan het op een centrale plek toegankelijk maken van algoritmen, gevoed door informatie over algoritmen die overheidsorganisaties publiceren op hun eigen pagina. Het streven is om algoritmen die de afgelopen tijd zijn doorgelicht zoveel mogelijk voor het eind van het jaar in het register te publiceren. Het kabinet wil verder in overleg met overheden komen tot een eenduidige registratie van algoritmen. De voorlopige uitgangspunten van het algoritmeregister zijn geformuleerd. Dan gaat het onder andere om het doel van het algoritme, de (verwachte) consequenties en de proportionaliteit van de inzet van het algoritme.9 Om het algoritmeregister zo in te richten dat het beheer daarvan haalbaar is voor de uitvoering, zal een uitvoeringstoets worden uitgevoerd.

Aanbeveling 7: Verbeteren van de dienstverlening

Als laatste adviseert het Rathenau Instituut om samen met uitvoeringsorganisaties profilerende toepassingen te verkennen die de burger meer ondersteuning bieden. Het kabinet heeft in de hoofdlijnenbrief Digitalisering (Kamerstuk 26 643, nr. 842) aangegeven te werken aan het realiseren van concrete verbeteringen in het leven van mensen. Aan de hand van de werkagenda Werk aan Uitvoering10 worden data gebruikt om burgers te ondersteunen in het aanvragen van toeslagen of om te voorkomen dat burgers in de schuldsanering terechtkomen. BZK investeert in een persoonlijke regelingen assistent (PRA), een digitale innovatie die burgers proactief attendeert op voorzieningen waar zij mogelijk recht op hebben, maar ook attendeert op mogelijke risico’s.11 In 2022 werkt het project aan 4 use cases, onder andere met de Belastingdienst en de Kamer van Koophandel. Deze use cases zorgen voor een duidelijk beeld van het proces waar een burger mee te maken krijgt bij het aanvragen van een regeling. Het geeft inzicht in wat de te ontwikkelen applicaties moeten kunnen en waar de PRA rekening mee moet houden. Ook gaan we (niet-algoritmische) beslisregels opnemen in een openbaar register, zodat overheden decentraal nieuwe dienstverlenende applicaties kunnen ontwikkelen om burgers te ondersteunen.

In deze brief ben ik ingegaan op de onderzoeksresultaten en de 7 aanbevelingen. Ik ga aan de slag met alle aanbevelingen en zal deze meenemen bij het opstellen van de werkagenda die een uitwerking is van de hoofdlijnenbrief Digitalisering.

De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties,
A.C. van Huffelen


  1. https://www.rijksoverheid.nl/documenten/rapporten/2021/05/20/quickscan-ai-in-publieke-dienstverlening-ii.↩︎

  2. Kamerstukken 33 826 en 26 643, nr. 45.↩︎

  3. https://standaard.algoritmeregister.org/.↩︎

  4. Kamerstukken 33 826 en 26 643, nr. 45.↩︎

  5. Bijlage bij Kamerstuk 26 643, nr. 797.↩︎

  6. Kamerstuk 35 510, nr. 21.↩︎

  7. Kamerstukken 26 643 en 32 761, nr. 570.↩︎

  8. https://www.algoritmeregister.nl/.↩︎

  9. https://standaard.algoritmeregister.org.↩︎

  10. Kamerstuk 29 362, nr. 295.↩︎

  11. https://www.digitaleoverheid.nl/overzicht-van-alle-onderwerpen/dienstverlening-aan-burgers-en-ondernemers/persoonlijke-regelingen-assistent/.↩︎