[overzicht] [activiteiten] [ongeplande activiteiten] [besluiten] [commissies] [geschenken] [kamerleden] [kamerstukdossiers] [🧑mijn] [open vragen]
[toezeggingen] [stemmingen] [verslagen] [🔍 uitgebreid zoeken] [wat is dit?]

Voortgang AI en algoritmen

Informatie- en communicatietechnologie (ICT)

Brief regering

Nummer: 2021D22770, datum: 2021-06-10, bijgewerkt: 2024-02-19 10:56, versie: 3

Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (kst-26643-765).

Gerelateerde personen: Bijlagen:

Onderdeel van kamerstukdossier 26643 -765 Informatie- en communicatietechnologie (ICT).

Onderdeel van zaak 2021Z10411:

Onderdeel van activiteiten:

Preview document (🔗 origineel)


Tweede Kamer der Staten-Generaal 2
Vergaderjaar 2020-2021

26 643 Informatie- en communicatietechnologie (ICT)

Nr. 765 BRIEF VAN DE MINISTERS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES EN VOOR RECHTSBESCHERMING EN VAN DE STAATSSECRETARISSEN VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES EN VAN ECONOMISCHE ZAKEN EN KLIMAAT

Aan de Voorzitter van de Tweede Kamer der Staten-Generaal

Den Haag, 10 juni 2021

De aandacht voor de impact van algoritmen en artificiële intelligentie (AI) op de samenleving is de laatste jaren sterk toegenomen. Met name de risico’s die deze toepassingen kunnen meebrengen staan terecht hoog op de politieke en maatschappelijke agenda. Het kabinet vindt het van belang om ook te blijven wijzen op de kansen die AI en algoritmen bieden voor innovatie en om maatschappelijke problemen aan te pakken.1 Door de risico’s van AI en algoritmen te beperken kunnen de maatschappelijke en economische kansen van AI op een verantwoorde wijze worden benut. Wanneer algoritmen of artificiële intelligentie in een verkeerde context, op verkeerde wijze of met het verkeerde doel worden ingezet kan de impact enorm zijn.2 Publieke waarden en fundamentele rechten zoals privacy, non-discriminatie, autonomie en menselijke waardigheid kunnen onder druk komen te staan waardoor burgers in de knel kunnen komen. Normering en toezicht kunnen eraan bijdragen de risico’s van algoritmen te beperken.

In het kader van de Parlementaire Ondervragingscommissie Kinderopvangtoeslagen (POK) zijn er meerdere moties ingediend waarin de koppeling tussen de POK en het beleid en de regelgeving omtrent algoritmen wordt gemaakt. Deze moties zien toe op het juridisch kader en methoden om transparantie over de inzet van algoritmen te bevorderen. Het kabinet zal in deze brief op een aantal van deze moties3 ingaan.

Het kabinet onderschrijft het belang van beleid en regelgeving omtrent algoritmen en AI. Om problemen met algoritmen te voorkomen is daarbij een proactieve houding noodzakelijk. Het kabinet heeft uw Kamer eerder, al dan niet in reactie op verricht onderzoek, geïnformeerd over de risico’s die zich voor kunnen doen bij de inzet van algoritmen, over het juridisch kader omtrent de inzet van algoritmen en over het kabinetsbeleid om schendingen van mensenrechten te voorkomen.4

Met deze brief informeert het kabinet uw Kamer over de voortgang op de lopende beleidstrajecten die voortvloeien uit de beleidsbrief «AI, publieke waarden en mensenrechten» van 8 oktober 2019.5 Voorts ontvangt u de resultaten van de projectgroep normering en toezicht algoritmen.6 Op basis van het werk van de projectgroep heeft het kabinet de «Beleidsagenda Normering en Toezicht Algoritmen» opgesteld (hierna: «de beleidsagenda») die in deze brief is opgenomen. Hiermee brengt het kabinet bestaande trajecten samen en zorgt ze voor eenheid van beleid. In de beleidsagenda wordt aangegeven welke concrete acties het kabinet onderneemt om een verantwoorde inzet van algoritmen te borgen en te zorgen dat er effectief toezicht is op de regels die hieruit voortvloeien. Daarbij is ook het bevorderen van transparantie en uitlegbaarheid van algoritmen en hun toepassingen van groot belang. De voortgang met betrekking tot acties uit de kabinetsreactie op het onderzoek «Toezicht op het gebruik van algoritmen door de overheid» van 20 april 2020 is in de beleidsagenda meegenomen.7

AI, publieke waarden en mensenrechten

In de beleidsbrief «AI, publieke waarden en mensenrechten»8 heeft het kabinet kansen en risico’s en geschetst voor het borgen van publieke waarden en mensenrechten bij de inzet van AI. In dat kader zijn het afgelopen jaar verschillende initiatieven ondernomen of ondersteund. Vanuit de getrapte innovatiecompetitie Small Business Innovation Research (SBIR) investeerde BZK in ongeveer 40 initiatieven in verschillende overheidslagen. Daarnaast wordt actief deelgenomen aan het opzetten van Ethical Legal and Societal Aspects Labs (ELSA labs), waar overheid en bedrijven experimenteren met mensgerichte AI. Het kabinet streeft naar mensgerichte AI en werkt(e) deze uit in drie concrete instrumenten. Deze instrumenten hebben geen verplichtend karakter, maar zijn hulpmiddelen voor overheidsorganisaties die algoritmen willen inzetten. Het komend jaar wordt in samenwerking met ministeries, uitvoeringsorganisaties en (vertegenwoordigers van) medeoverheden in de praktijk ervaring opgedaan met het gebruik van de instrumenten en wordt de onderlinge samenhang van de instrumenten verder uitgewerkt. De instrumenten zullen worden samengebracht in de online toolbox Ethisch verantwoord innoveren voor overheden9. Het betreft de volgende drie instrumenten:

Handreiking AI-systeemprincipes voor non-discriminatie. Dit hulpmiddel is in januari van dit jaar afgerond en biedt een praktisch toepasbaar ontwerpkader dat ontwikkelaars helpt om al in de ontwikkelfase van een AI-systeem discriminerende patronen in gegevens zoveel mogelijk te identificeren, te voorkomen en te bestrijden. In de handreiking is een vertaalslag gemaakt van essentiële juridische kaders naar operationele ontwerpprincipes. De handreiking is toegevoegd in bijlage 110 bij deze brief. Het achterliggende onderzoeksrapport en de bijbehorende documenten worden zo spoedig mogelijk gepubliceerd op de website www.digitaleoverheid.nl.

Impact assessment voor mensenrechten bij de inzet van algoritmen (IAMA). Dit impact assessment kan een organisatie gebruiken om in de gehele levenscyclus van algoritmische systemen de risico’s voor mensenrechten in kaart te brengen en te mitigeren. Het IAMA wordt in opdracht van het kabinet door de Universiteit Utrecht ontwikkeld en is naar verwachting eind juni gereed.

Code Goed Digitaal Openbaar Bestuur. Deze code is op verzoek van uw Kamer ontwikkeld11 en geeft aandacht aan de gevolgen van digitalisering voor Goed Openbaar Bestuur door middel van principes en waarden die in drie ankerpunten (democratie, rechtsstaat en bestuurskracht) verwerkt zijn. Daarnaast bevat de code een aanzet voor organisatorische acties die nodig zijn om publieke waarden en mensenrechten te borgen. Daarom wordt onderzocht of de code geïntegreerd kan worden in de te actualiseren code Goed Openbaar Bestuur.12 De Code Goed Digitaal Openbaar Bestuur is toegevoegd in bijlage 213 bij deze brief.

Resultaat projectgroep normering en toezicht algoritmen

Bij brief van 15 oktober 202014 heeft het kabinet aangekondigd een ambtelijke projectgroep normering en toezicht algoritmen in te stellen. Dit besluit is genomen naar aanleiding van de initiatiefnota «Menselijke grip op algoritmen» van het lid Middendorp van uw Kamer. De projectgroep heeft twee opdrachten vervuld:

• Het inventariseren van de openstaande beleidsvraagstukken (onder meer voortkomend uit afgerond onderzoek) op het gebied van normering en toezicht algoritmen. Hiertoe zijn medeoverheden, het maatschappelijk middenveld, het bedrijfsleven en de wetenschap geconsulteerd. Het resultaat van deze inventarisatie is in bijlage 315 weergegeven.

• Het brengen van overzicht in de bestaande trajecten op het gebied van normering en toezicht algoritmen en de doelstellingen van deze trajecten. In onderstaande tabel is dit overzicht weergegeven.

In onderstaande tabel zijn de meest relevante trajecten weergegeven die zien op de generieke normering van en het toezicht op algoritmen, de tabel is niet uitputtend. Het betreft trajecten die in aanvulling op bestaande kaders zoals de Algemene verordening gegevensbescherming (AVG), Algemene wet bestuursrecht (Awb) en het consumentenrecht relevant zijn. Door verschillende nationale en internationale organisaties wordt gelijktijdig gewerkt aan het stimuleren en borgen van de inzet van verantwoorde algoritmen en AI. Daarnaast beproeven verschillende overheden deze instrumenten nu in de praktijk. Deze ervaringen kunnen t.z.t. een goede basis bieden voor eventuele vervolgstappen. In de tabel wordt aangegeven op wie en hoe normen van toepassing zijn, door wie en hoe het instrumentarium gebruikt kan worden (doel) en de mate waarin het een verplichtend karakter heeft.

Recommendation on the Ethics of AI – UNESCO Aanbevelingen ten behoeve van landen voor wetgeving en beleid om AI ethisch in te zetten. Niet bindend: Aanbeveling Het voorstel voor de aanbevelingen wordt eind 2021 verwacht. De preliminary study is reeds op de UNESCO-site te vinden.
Ethics Guidelines for Trustworthy AI – Europese Commissie Ethische richtsnoeren ontwikkelt op verzoek van de Europese Commissie die organisaties kunnen gebruiken wanneer zij AI inzetten. Niet bindend: Hulpmiddel De richtsnoeren zijn in april 2019 opgeleverd.
Juridisch raamwerk voor AI (CAHAI) – Raad van Europa Met een feasibility study is de noodzaak bepaald om te komen tot een juridisch raamwerk (bijvoorbeeld in de vorm van een verdrag) ter verdere bescherming van de democratie, rechtsstaat en fundamentele rechten. N.t.b. mogelijk bindende en niet bindende onderdelen De feasibility study is in december 2020 afgerond en door de CAHAI (tijdens de plenaire vergadering) aangenomen.
Wetgeving m.b.t. algoritmen en AI – Europese Commissie De Europese Commissie publiceerde in april 2020 haar Witboek AI dat als doel had inzicht te geven in de denkrichtingen m.b.t. mogelijke wetgeving op het gebied van algoritmen en artificiële intelligentie. In opvolging hiervan heeft de Commissie op 21 april 2021 een voorstel voor een verordening om het juridisch kader verder aan te vullen gepubliceerd. N.t.b. mogelijk bindende en niet-bindende onderdelen. Het kabinet heeft uw Kamer in mei 2020 haar appreciatie van het Witboek AI toegezonden. 21 april 2021 is het voorstel voor een verordening AI gepubliceerd.
Richtlijnen voor het toepassen van data-analyse door de overheid – het kabinet Overheidsorganisaties handvatten te bieden om op rechtmatige wijze (algoritmische) data-analyse toe te passen. Niet bindend: hulpmiddel. Worden doorlopend aangescherpt. In deze brief wordt de verwezen naar de publicatie van de laatste versie.
Toezicht kaders
Impact Assessment voor Mensenrechten bij de inzet van Algoritmen – het kabinet Instrument dat overheidsorganisaties helpt om in de gehele levenscyclus van technologische systemen risico’s voor mensenrechtenschendingen in kaart te brengen en te mitigeren. Niet bindend: hulpmiddel. Het IAMA wordt naar verwachting eind juni van 2021 opgeleverd.
Data Protection Impact Assessment (DPIA) In kaart brengen van risico’s voor rechten en vrijheden van personen bij het verwerken van persoonsgegevens Verplicht voor hoog-risico verwerkingen (artikel 35 AVG) Artikel 35 AVG.
Toetsingskader Algoritmen – ARK Het toetsingskader is een praktisch instrument dat de ARK en andere overheidsorganisaties kunnen gebruiken om te toetsen of algoritmes aan kwaliteitscriteria voldoen én of de risico’s in beeld zijn en worden beperkt. Niet bindend. Het toetsingskader is op de site van de ARK te vinden.
Normenkader Algoritmen – ADR Een door de ADR ontwikkeld toetsingskader dat op termijn wellicht ingezet kan worden voor het structureel auditen van algoritmes bij de overheid n.t.b. Het kader wordt in 2021 a.d.h.v. specifieke casuïstiek getoetst en doorontwikkeld.
Handreikingen en methodieken
AI-systeemprincipes non-discriminatie – het kabinet De AI-systeemprincipes voor non-discriminatie zijn in de vorm van een handreiking een hulpmiddel voor overheidsorganisaties om ontwikkelaars van AI-systemen helpt discriminatie al in de ontwikkelfase van een AI-systeem te ondervangen. Niet bindend: handreiking. Deze handreiking is in januari 2021 opgeleverd en wordt met deze brief meegestuurd.
Code Goed Digitaal Openbaar Bestuur – het kabinet Addendum op Code Goed Openbaar Bestuur specifiek voor digitalisering. Niet bindend. De code wordt met deze brief meegestuurd.
Calculemus-FLINT – het kabinet Systematiek om transparantie van gemaakte keuzes in algoritmen te vergroten. Om wet- en regelgeving transparanter te maken worden de juridische bronnen waar publieke diensten op gebaseerd zijn, expliciet gemaakt. Niet bindend: hulpmiddel. Wordt verder uitgewerkt a.d.h.v casuïstiek.
Artificial Intelligence Impact Assessment – ECP De (AIIA) helpt bedrijven artificiële intelligentie verantwoord in te zetten door een kader te bieden waarmee een bedrijf kan toetsen wat de impact van het algoritme op mensen is. Niet bindend: hulpmiddel. Het AIIA is te vinden op de site van het ECP.
Algoritmeregister (of alternatief instrument met vergelijkbare functie) in ontwikkeling – het kabinet Het bieden van een standaardformat om overzicht te houden – en transparant te zijn over- de inzet van algoritmen. N.t.b. Het kabinet zal een proef doen met een concreet transparantie-instrument, zoals een algoritmeregister.
Code Kinderrechten Online – het kabinet Het bieden van handvatten aan overheden en bedrijven om de rechten van kinderen online te borgen. Niet bindend Het bieden van handvatten om de rechten van kinderen online te borgen

Beleidsagenda normering en toezicht algoritmen

De resultaten van de projectgroep indiceren dat nadere acties nodig zijn. Daartoe is de volgende beleidsagenda opgesteld met acties ten aanzien van de normering van algoritmen en het toezicht op algoritmen.

Normering van algoritmen

Het kabinet heeft eerder in de kabinetsreactie op drie algoritmeonderzoeken geconcludeerd dat algoritmen niet in een juridisch vacuüm vallen.16 Het huidig (algemene) wettelijk kader bestaat uit onder meer mensenrechtenverdragen, de Grondwet, de Algemene wet bestuursrecht (Awb), het Burgerlijk Wetboek (BW), gelijke behandelingswetgeving, en de Algemene verordening gegevensbescherming (AVG). Wel is een aantal knelpunten en vraagstukken met betrekking tot deze kaders gesignaleerd.17 Ook is vastgesteld dat deze kaders veelal uit open normen bestaan, waardoor onzekerheid bestaat over de praktische uitleg van deze normen wanneer een organisatie algoritmen inzet. Tenslotte is aangeven dat ook sectorale interventies nodig kunnen zijn.18 Door het kabinet is in de eerdere brief over «Waarborgen tegen de risico’s van data-analyse» in dit verband een aantal mogelijke aanpassingen van wetgeving besproken. Als reactie op het Witboek AI van de Europese Commissie (EC)19 onderschreef het kabinet voorts dat een additioneel Europees wetgevend instrument voor artificiële intelligentie (met een hoog risico) van toegevoegde waarde kan zijn. Het kabinet wees daarbij op de noodzaak van een nadere uitwerking van gedane voorstellen, met aandacht voor o.a. een adequate aansluiting op bestaande wettelijke kaders.20 Momenteel werkt de EC aan de uitwerking van een wetgevend kader voor mensgerichte AI. Dit voorstel is 21 april jl. gepubliceerd.21

Uit de externe consultatie van de projectgroep – waarvoor enkele stakeholders uit de wetenschap, medeoverheden, het maatschappelijk middenveld en het bedrijfsleven zijn benaderd – en uit de lopende beleidsontwikkeling in de EU komt het belang van transparantie veelvuldig naar voren. Dit betreft zowel transparantie over de inzet van algoritmen alsook over hun werking en (potentiële) impact in zowel de publieke als private sector. Er zijn reeds een aantal bestaande verplichtingen voor de private en de publieke sector die bijdragen aan transparantie van algoritmen. Vanwege het, terecht, onderstreepte belang van transparantie is het goed om op te merken dat aspecten zoals kennis, organisatiecultuur en bewustzijn essentieel zijn voor het versterken van transparantie. De balans tussen transparantieverplichtingen en deze factoren die (ook) van invloed zijn is en blijft een punt van aandacht. Zo is er nog beperkt zicht op hoe de bestaande verplichtingen vanuit een burgerperspectief concreet uitwerken. Daarnaast lijkt betrokkenheid van en bewustwording onder burgers bij de ontwikkeling en/of de inzet van nieuwe technologieën vooralsnog beperkt. Digitaal burgerschap is echter van belang om mee te kunnen komen in een sterk technologische samenleving. Het kabinet organiseerde daarom burgerdialogen en ontwikkelde lesmateriaal zoals het spel «TechTwijfels» dat scholieren laat discussiëren over kansen en risico’s van technologieën en ook ontwikkelde het kabinet een Code Kinderrechten Online.22

Het kabinet constateert dat de bestaande kaders verder moeten worden ingevuld. Dit kan gebeuren door rechtsontwikkeling, maar gezien de urgentie wil het kabinet ook zelf stappen zetten om te komen tot een eenduidiger juridisch kader omtrent de inzet van algoritmen. In reactie op de motie Azarkan, waarin wordt verzocht te komen tot een wettelijk kader voor AI23, heeft de Minister voor Rechtsbescherming toegezegd24 u te informeren over het proces omtrent aanvullende wettelijke waarborgen. In deze agenda wordt dit proces weergegeven. Daarnaast wordt gewerkt aan additionele wettelijke waarborgen in Europees of nationaal verband. Dit vraagt om een actieve en gebalanceerde benadering met de volgende acties25:

Actie 1: Het kabinet pakt geconstateerde (juridische) knelpunten met betrekking tot de algemene kaders met voorrang aan:

a. Het kabinet zal een additionele wettelijke grondslag voor de verwerking van bijzondere persoonsgegevens in het leven roepen die ertoe strekt het onder strenge voorwaarden mogelijk te maken gegevens te verwerken om discriminatie in een algoritmisch model te voorkomen.26

b. Het Wetenschappelijk Onderzoek- en Documentatiecentrum (WODC) zal in opdracht van het kabinet onderzoek laten verrichten naar hoe de invulling van het begrip «persoonsgegeven» in de AVG verandert door nieuwe technische mogelijkheden waarmee eerder anonieme gegevens toch tot individuen kunnen worden herleid. Hiermee wordt naar verwachting duidelijkheid verschaft over de reikwijdte van de AVG en daarmee over de mate waarin deze verordening burgers bescherming biedt wanneer algoritmen worden ingezet.27

Actie 2: Het kabinet draagt actief bij aan de ontwikkeling en uitwerking van verwachte Europese initiatieven die raken aan de normering, toezicht en transparantie van algoritmen:

a. Het kabinet zet, in lijn met de kabinetsappreciatie van het witboek AI28, door actieve participatie in Europese gremia in op verantwoorde en mensgerichte AI.

b. De EC heeft 21 april jl. een wetgevend voorstel voor AI gepubliceerd.29 Het kabinet heeft uw Kamer via de BNC-procedure geïnformeerd over haar appreciatie van dit voorstel.

c. In Raad van Europa verband wordt een haalbaarheidsstudie naar een juridisch raamwerk met betrekking tot AI uitgevoerd in het licht van de fundamentele rechten, de democratie en de rechtsstaat. Nederland participeert actief in dit proces, dat eind dit jaar zal worden afgerond.

Actie 3: Het kabinet zorgt dat er voldoende wettelijke waarborgen voor de inzet van algoritmen zijn. Voor zover het voorstel van de EC (zie actie 2) hier voldoende waarborgen voor bevat, sluit het kabinet hierbij aan.

a. Op basis van de opgedane ervaring met de richtlijnen voor data-analyse door de overheid (zie actie 4) zal het kabinet, in overleg met gemeenten en uitvoeringsorganisaties, een voorstel publiceren voor het mogelijk wettelijk verankeren van aanvullende waarborgen.30

b. Zoals toegelicht in de brief «wettelijke waarborgen tegen de risico's van data-analyse voor de overheid»31 kan het daarbij onder meer gaan over verplichtingen omtrent het informeren van het publiek over de inzet van data-analyse, naast het informeren van individuele betrokkenen en het concretiseren van de verplichting om uitleg te geven over de werking van algoritmen.

c. Bij het formuleren van het voorstel zal het gebruikelijk traject met onder meer een internetconsultatie en het betrekken van externe experts, uitvoeringsorganisaties en andere belanghebbenden worden gevolgd.

Actie 4: Parallel werkt het kabinet verder aan het uitdragen en doorontwikkelen van de richtlijnen voor data-analyse door de overheid.

a. De richtlijnen kennen vooralsnog geen verplichtend karakter. Het kabinet zal dit jaar met overheidsorganisaties de richtlijnen nadrukkelijker onder de aandacht brengen wanneer deze organisaties data-analyses uitvoeren.

b. Daarnaast worden deze richtlijnen doorlopend, in samenspraak met overheidsorganisaties, aangescherpt en zijn daarmee een »levend document». De geüpdatete versie van de richtlijnen 2021 zijn onlangs gepubliceerd.32

c. Het kabinet stelt op verzoek van uw Kamer naar aanleiding van de aangenomen motie Azarkan33 een commissie in die de richtlijnen zal toetsen, onder meer opdat deze voldoen aan de van toepassing zijnde wet- en regelgeving. Het kabinet zal ethische en juridische experts in deze commissie betrekken.

Actie 5: In aanvulling op mogelijke regels zoekt het kabinet naar een passend instrument voor overheden om transparant te zijn over de inzet van algoritmen. Het onderzoekt derhalve naar aanleiding van de aangenomen motie Klaver c.s.34, hoe een algoritmeregister bij kan dragen aan het vergroten van transparantie over de inzet van algoritmen door overheden.

a. Eerst wordt gekeken naar de ervaringen met registers van gemeenten, zoals die van Amsterdam, Utrecht en Rotterdam, en hoe die betrokken kunnen worden bij onderstaand genoemde proef.

b. Op basis van deze verkenning zal het kabinet een proef uitvoeren met een concreet transparantie-instrument, zoals een algoritmeregister.

Actie 6: Het kabinet werkt verder aan de ontwikkeling en toepassing van instrumenten die overheden en bedrijven ondersteunen bij het nakomen van bestaande wettelijke verplichtingen en die (daarmee) helpen AI en algoritmen op verantwoorde wijze in te zetten:

a. Het kabinet gaat zich op verzoek van het lid Moorlag35 van uw Kamer inzetten om het bedrijfsleven in samenwerking met consumentenorganisaties te bewegen tot het opstellen van een gedragscode op het gebied van online keuze beïnvloeding door gebruik van consumentendata en algoritmes.

b. Relevante instrumenten worden bij elkaar gebracht in de «toolbox ethisch verantwoord innoveren» die online beschikbaar is gesteld.36 Daarbij heeft het kabinet extra aandacht voor het voorkomen van inbreuken op mensenrechten. Het betreft onder meer het eerdergenoemde impact assessment voor mensenrechten bij de inzet van algoritmen (IAMA), de Handreiking systeemprincipes non-discriminatie en de Code Goed Digitaal Openbaar Bestuur.

c. Het kabinet zal het Rathenau Instituut vragen om een onderzoek te doen in de uitvoeringspraktijk hoe kaders en instrumenten die gericht zijn op de bescherming van mensenrechten bij de ontwikkeling en het gebruik van algoritmische systemen zo goed mogelijk geoperationaliseerd (kunnen) worden.

Actie 7: Het kabinet blijft mensgerichte AI en verantwoorde inzet van algoritmen ondersteunen via onderzoek en experimenten.

a. Het kabinet stelt financiële middelen beschikbaar ten behoeve van experimenteren met en opschalen van mensgerichte AI (AI die mensenrechten borgt en versterkt). Dat doet het kabinet samen met partners binnen de Nederlandse AI Coalitie (NLAIC). Een voorbeeld hiervan is het Ethical Legal and Societal Aspects Lab (ELSA lab) «Voorkomen armoede en schulden».

b. Het kabinet zal aan het eind van dit jaar met een rapportage komen met daarin opgenomen een dwarsanalyse van de belangrijkste bevindingen uit de verschillende experimenten en projecten en antwoord geven op de vraag of en in hoeverre mensgerichte AI daadwerkelijk geborgd en versterkt zijn.

Toezicht

Op 20 december 2019 is het onderzoek «Toezicht op het gebruik van algoritmen door de overheid» aangeboden aan uw Kamer.37 Op 20 april 2020 volgde hierop de kabinetsreactie.38

Op basis van het verrichte onderzoek en het werk van de projectgroep constateert het kabinet dat het bestaande externe toezicht op de overheid in beginsel geen juridische lacunes kent en voldoende integraal is, maar in de uitvoering enige fragmentatie kent. Voor effectief toezicht is het belangrijk dat toezichthouders vanuit hun eigen expertise en toezichtsdomein toezicht houden. Dit vereist kennis en samenwerking. Met het oprichten van de werkgroep toezicht op AI in het voorjaar van 2020 heeft de samenwerking tussen toezichthouders een meer structurele vorm gekregen. Voorts zijn ook interne toezichthouders op de overheid zoals de Audit Dienst Rijk (ADR) ten aan zien van audits en de Algemene Rekenkamer (ARK) als het gaat om onderzoek, actief met het verder ontwikkelen van toezicht op inzet van algoritmen door de overheid.

Het generieke, sector overstijgende toezicht voor zowel overheid als private sector kan wel nog verder worden versterkt. In aanvulling op reeds lopende acties is blijvende aandacht nodig voor het versterken van beschikbare capaciteit van toezichthouders en de samenwerking van de gezamenlijke toezichthouders.

Ook moet integraliteit van het toezicht periodiek worden geëvalueerd om ervoor te zorgen dat specifieke algoritmen bij het toezicht niet tussen wal en schip kunnen vallen. Daarnaast kan de samenhang in toetsingskaders verder worden versterkt om ervoor te zorgen dat er één duidelijke maatstaf en daarmee consistentie van toezicht is voor organisaties die algoritmen in zetten. Daarom komt het kabinet tot de hieronder volgende acties in aanvulling op de reeds lopende initiatieven vanuit de toezichthouders. Waarbij opgemerkt dat deze acties parallel lopen aan discussies over het versterken van capaciteit van specifieke toezichthouders als de Autoriteit Persoonsgegevens (AP) waarover u separaat bent geïnformeerd.39

Actie 8: Het kabinet versterkt de integraliteit van het toezicht op algoritmen en ondersteunt toezichthouders als de ARK en de ADR om te komen tot één consistent toezichtskader voor overheidsorganisaties die algoritmen inzetten.

a. Voor normering van en toezicht op algoritmische data-analyse in de private sector zet het kabinet in op het vergroten van de samenhang van het toezicht. Dit najaar organiseert het kabinet in dat kader een rondetafelgesprek met de toezichthouders op de inzet van algoritmen in de private sector om te borgen dat er goede en integrale samenwerking plaatsvindt. Het kabinet zal uw Kamer hierover na afloop over informeren.

b. In 2022 laat het kabinet nogmaals een evaluatie van het toezichtlandschap op de inzet van algoritmen uitvoeren.

c. De ADR werkt momenteel middels een aantal pilots aan de aanscherping van haar audit-methodiek. Wanneer dit is afgerond zal door het kabinet een besluit worden genomen over een mogelijk structurele auditrol van de ADR ten aanzien van het beoordelen van algoritmen binnen het Rijk.

d. Het is van belang dat het toezichtskader aansluit op de richtlijnen voor data-analyse door de overheid (zie onder stap 4 van «normering»). Het kabinet treedt hiertoe in gesprek met de ADR en ARK.

Het kabinet heeft uw Kamer in deze brief geïnformeerd over reeds uitgevoerde en voorgenomen acties die burgers de noodzakelijke bescherming moeten bieden wanneer algoritmen en AI worden ingezet. Deze acties strekken er in hoofdzaak toe om zeker te stellen dat er een robuust en gebalanceerd wettelijk kader is omtrent de inzet van algoritmen en AI, dat dit kader consistent en praktisch toepasbaar is en dat er toezicht op de naleving van deze wettelijke vereisten plaatsvindt. Alleen als aan deze voorwaarden is voldaan, kunnen de maatschappelijke en innovatieve kansen van algoritmen en AI op verantwoorde wijze benut worden en kunnen ze bijdragen aan het versterken van de kwaliteit van de overheid en samenleving.

De Minister van Binnenlandse Zaken en Koninkrijksrelaties,
K.H. Ollongren

De Minister voor Rechtsbescherming,
S. Dekker

De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties,
R.W. Knops

De Staatssecretaris van Economische Zaken en Klimaat,
M.C.G. Keijzer


  1. Zo helpen AI-systemen tijdens de huidige COVID-19 crisis om uitbraken te voorspellen en COVID-19 symptomen bij patiënten te detecteren om tijdiger tot passende behandelingen over te gaan wat leidt tot gezondheidswinst. https://www.rijksoverheid.nl/documenten/rapporten/2020/06/25/nederlandse-digitaliseringsstrategie-2020.↩︎

  2. Tevens relevant voor verantwoorde inzet van AI en algoritmen is de kwaliteit van gebruikte data om AI te trainen. In dat kader is de «Interbestuurlijke datastrategie» in het leven geroepen. U wordt over de voortgang hiervan separaat in juni geïnformeerd.↩︎

  3. Moties van het lid Azarkan, Kamerstuk 35 510, nr. 35, Kamerstuk 31 066, nr. 778 en van het lid Klaver c.s., Kamerstuk 35 510, nr. 16.↩︎

  4. Kamerstukken 26 643 en 32 761, nr. 642. Kamerstuk 26 643, nr. 726. Kamerstukken 26 643 en 32 761, nr. 641, Kamerstuk 35 212, nr. 5.↩︎

  5. Kamerstukken 26 643 en 32 761, nr. 642.↩︎

  6. Kamerstuk 35 212, nr. 5.↩︎

  7. Kamerstuk 35 212, nr. 3 – bijlage 2.↩︎

  8. Kamerstukken 26 643 en 32 761, nr. 642.↩︎

  9. https://www.digitaleoverheid.nl/dossiers/toolbox-ethisch-verantwoorde-innovatie/↩︎

  10. Raadpleegbaar via www.tweedekamer.nl↩︎

  11. Plenair debat Digitalisering van de overheid d.d. 10 september 2019 (Handelingen II 2018/19, nr. 106, item 26).↩︎

  12. https://www.rijksoverheid.nl/onderwerpen/kwaliteit-en-integriteit-overheidsinstanties/documenten/brochures/2009/06/23/brochure-nederlandse-code-voor-goed-openbaar-bestuur↩︎

  13. Raadpleegbaar via www.tweedekamer.nl↩︎

  14. Kamerstuk 35 212, nr. 5.↩︎

  15. Raadpleegbaar via www.tweedekamer.nl↩︎

  16. Kamerstuk 26 643, nr. 726.↩︎

  17. Idem.↩︎

  18. Kamerstuk 26 643, nr. 726, p. 3.↩︎

  19. https://ec.europa.eu/digital-single-market/en/news/white-paper-artificial-intelligence-public-consultation-towards-european-approach-excellence↩︎

  20. Kamerstukken 26 643 en 32 761, nr. 680↩︎

  21. https://ec.europa.eu/commission/presscorner/detail/en/ip_21_1682↩︎

  22. https://codevoorkinderrechten.nl/↩︎

  23. Motie van het lid Azarkan, Kamerstuk 35 510, nr. 35.↩︎

  24. Kamerstuk 35 510, nr. 49.↩︎

  25. Deze stappen worden deels gezet voor of gelijktijdig met het indienen van een Europees wetgevend voorstel dat verwacht wordt eind april 2021. Het EU-traject kan van invloed zijn op onderstaande geschetste stappen (EU-wetgeving prevaleert immers boven nationale wetgeving), het kabinet zal de samenhang tussen de trajecten onderling borgen.↩︎

  26. Kamerstukken 26 643 en 32 761, nr. 641, Kamerstuk 26 643, nr. 726, p. 5.↩︎

  27. Kamerstuk 26 643, nr. 726, p. 5.↩︎

  28. Kamerstukken 26 643 en 32 761, nr. 680↩︎

  29. https://ec.europa.eu/commission/presscorner/detail/en/ip_21_1682↩︎

  30. Kamerstukken 26 643 en 32 761, nr. 641 p. 5 e.v.↩︎

  31. Kamerstukken 26 643 en 32 761, nr. 641.↩︎

  32. https://led.pleio.nl/news/view/5438dd4e-5101-4dde-9d1a-ab58cedff81c/richtlijnen-voor-het-toepassen-van-algoritmen-door-overheden↩︎

  33. Motie van het lid Azarkan, Kamerstuk 31 066, nr. 778.↩︎

  34. Motie van het lid Klaver c.s., Kamerstuk 35 510, nr. 16.↩︎

  35. Kamerstuk 27 879, nr. 81.↩︎

  36. https://www.digitaleoverheid.nl/dossiers/toolbox-ethisch-verantwoorde-innovatie/↩︎

  37. Kamerstuk 26 643, nr. 657.↩︎

  38. Kamerstuk 35 212, nr. 3 – bijlage 2.↩︎

  39. Kamerstuk 27 529, nr. 240.↩︎