[overzicht] [activiteiten] [ongeplande activiteiten] [besluiten] [commissies] [geschenken] [kamerleden] [kamerstukdossiers] [🧑mijn] [open vragen]
[toezeggingen] [stemmingen] [verslagen] [🔍 uitgebreid zoeken] [wat is dit?]

Beantwoording vraag, gesteld tijdens het Commissiedebat Telecomraad van 24 november 2021, over verplichte mensenrechtentoets bij hoog risico AI-systemen

Informatie- en communicatietechnologie (ICT)

Brief regering

Nummer: 2021D46459, datum: 2021-11-26, bijgewerkt: 2024-02-19 10:56, versie: 3

Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (kst-26643-800).

Gerelateerde personen:

Onderdeel van kamerstukdossier 26643 -800 Informatie- en communicatietechnologie (ICT).

Onderdeel van zaak 2021Z21793:

Onderdeel van activiteiten:

Preview document (🔗 origineel)


Tweede Kamer der Staten-Generaal 2
Vergaderjaar 2021-2022

26 643 Informatie- en communicatietechnologie (ICT)

32 761 Verwerking en bescherming persoonsgegevens

Nr. 800 BRIEF VAN DE MINISTER VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES

Aan de Voorzitter van de Tweede Kamer der Staten-Generaal

Den Haag, 26 november 2021

In het Commissiedebat Telecomraad van 24 november jl. vroeg het lid Van Ginneken (D66) of er in de concept-verordening AI vanuit de Europese Commissie geen verplichte mensenrechtentoets moet komen voor AI-systemen of algoritmische systemen. Tevens werd gevraagd of de overheid niet nu al een verplichte mensenrechtentoets moet uitvoeren voordat een AI-systeem of algoritme wordt ingezet. De Minister van Economische Zaken en Klimaat gaf aan hier schriftelijk op terug te komen en bovendien te bezien in hoeverre de mensenrechtentoets bij hoog risico AI-systemen al geborgd zou zijn in de huidige concept-verordening AI. Vanwege mijn verantwoordelijkheid voor het borgen van mensenrechten bied ik u dit antwoord aan.

Met mevrouw Van Ginneken deel ik het belang om de grondrechten te beschermen bij de inzet van AI en algoritmen. In de eerste plaats betekent het dat wetgeving de gebruikers van AI-systemen, bijvoorbeeld de overheid, reguleert en dat hun handelen binnen de kaders van de Grondwet gebeurt. Overheidshandelen heeft een basis nodig in wetgeving. Er gelden verder nationaal al veel regels die bijdragen aan het beschermen van grondrechten, ook bij het gebruik van AI, zoals de Algemene Wet Gelijke Behandeling en het gegevensbeschermingsrecht. Als een verwerking van persoonsgegevens een hoog risico voor de fundamentele vrijheden kan hebben, moet een verplichte Data Protection impact Assessment (DPIA) worden uitgevoerd. De DPIA beperkt zich niet alleen tot privacy als belangrijk grondrecht, maar ziet ook op non-discriminatie.

In de tweede plaats moet de technologie zelf op een behoorlijke manier werken, zodat mensenrechtenschendingen niet door die technologie mogelijk worden gemaakt. In elke fase van de levenscyclus (ontwerpen, bouwen, testen, gebruiken en monitoren) van AI-systemen moet daarom aandacht zijn voor de grondrechten. De conceptverordening AI biedt daartoe mogelijkheden: het bevat eisen die aan hoog risicosystemen worden gesteld die bijdragen aan de bescherming van grondrechten. Zo moet de data op orde zijn om schendingen van privacy en discriminatie te voorkomen, moet de technologie te begrijpen zijn om transparantie te stimuleren, en is er een verplichting om met een ex ante conformiteitsbeoordeling van tevoren te kijken of aan deze eisen is voldaan.

Ook de tijdelijke AI-commissie van de Raad van Europa (CAHAI), die werkt aan een juridisch raamwerk voor AI, onderzoekt of een impact assessment bij AI-systemen kan bijdragen aan de bescherming van grondrechten. Nederland draagt hier actief aan bij.

Naast deze waarborgen heeft het kabinet – ter ondersteuning van de bescherming van mensenrechten bij de inzet van algoritmen – een aantal instrumenten ontwikkeld, die gebaseerd is op bestaande wettelijke verplichtingen en ontwerpers moet helpen. Zo heeft het Ministerie van BZK het Impact Assessment Mensenrechten Algoritmen ontwikkeld. Ook de Handreiking non-discriminatie by design van het Ministerie van BZK en de Richtlijnen voor het gebruik van algoritmen door overheden van het Ministerie van JenV dragen hieraan bij. Het gebruik hiervan is vooralsnog op vrijwillige basis, maar de opgedane ervaringen worden gebruikt bij het vormgeven van het (internationale) wettelijke kader. Ook is er actieve inzet om de toepassing van deze instrumenten te bevorderen.1 Het kabinet wil er voor waken dat er nieuwe instrumenten worden ontwikkeld terwijl van verschillende bestaande instrumenten nog gekeken wordt hoe deze – in samenhang met elkaar – zo effectief en proportioneel mogelijk (kunnen) bijdragen aan de bescherming van mensenrechten.

Tot slot wil ik noemen dat het kabinet binnenkort een reactie stuurt op de aanbevelingen die Amnesty International doet in haar rapport «Xenofobe machines – Discriminatie door ongereguleerd gebruik van algoritmen in het Nederlandse toeslagenschandaal». Een van de aanbevelingen is het invoeren van een verplichte mensenrechtentoets.

Het voorstel van mevrouw Van Ginneken kan op mijn sympathie rekenen. Ik vind het belangrijk dat de mensenrechten ook bij de inzet van AI en algoritmen goed worden beschermd. Door de risico’s van AI en algoritmen te beperken, kunnen de maatschappelijke en economische kansen van AI en algoritmen worden benut.

Alle genoemde ontwikkelingen – nationaal en internationaal – beschouw ik graag in samenhang om te beoordelen of dit pakket mogelijk al in voldoende bescherming voorziet alvorens te beslissen over nut en noodzaak van aanvullende verplichtingen. Ik zal u hierover nader informeren.

De Minister van Binnenlandse Zaken en Koninkrijksrelaties,
K.H. Ollongren


  1. Ter uitvoering van de motie van het lid Van Baarle c.s. (Kamerstuk 35 925 VII, nr. 39) wordt de bekendheid van deze handreiking bij en de implementatie ervan door overheden onderzocht.↩︎