Tweeminutendebat Inzet algoritmes en data-ethiek binnen de rijksoverheid (CD 28/1) (ongecorrigeerd)
Stenogram
Nummer: 2025D07579, datum: 2025-02-20, bijgewerkt: 2025-02-21 10:01, versie: 1
Directe link naar document (.docx), link naar pagina op de Tweede Kamer site.
Onderdeel van activiteiten:- 2025-02-20 10:16: Tweeminutendebat Inzet algoritmes en data-ethiek binnen de rijksoverheid (CD 28/1) (Plenair debat (tweeminutendebat)), TK
Preview document (🔗 origineel)
Inzet algoritmes en data-ethiek binnen de rijksoverheid
Aan de orde is het tweeminutendebat Inzet algoritmes en
data-ethiek binnen de rijksoverheid (CD d.d. 28/01).
De voorzitter:
Dan is nu aan de orde een tweeminutendebat Inzet algoritmes en
data-ethiek binnen de rijksoverheid. Ik heet de beide bewindslieden van
harte welkom, de staatssecretaris van Binnenlandse Zaken en
Koninkrijksrelaties en die van Justitie en Veiligheid, die ook
verantwoordelijk is voor rechtsbescherming. De staatssecretaris van
Binnenlandse Zaken en Koninkrijksrelaties is ook verantwoordelijk voor
digitalisering. Het is logisch dat hij erbij is als je het over
algoritmes hebt. Een aantal leden heeft zich ingeschreven, waarvan drie
ook hun eerste termijn willen uitspreken. Als eerste is het woord aan de
heer Six Dijkstra. Hij voert het woord namens de fractie van Nieuw
Sociaal Contract. Gaat uw gang.
De heer Six Dijkstra (NSC):
Goedemorgen, dank u wel, voorzitter. Ik heb één motie.
De Kamer,
gehoord de beraadslaging,
constaterende dat de Autoriteit Persoonsgegevens in haar brief aan het
kabinet aangeeft dat algoritmische risicoselectie conform artikel 22 AVG
slechts kan plaatsvinden mits het risico op discriminatoire verwerkingen
periodiek wordt onderzocht en ondervangen, er sprake is van
betekenisvolle menselijke tussenkomst, de selectie niet automatisch ook
andere aanmerkelijke gevolgen heeft en de risicoselectie voldoende
kenbaar is voor betrokkenen;
overwegende dat de staatssecretaris Digitalisering de ambitie heeft
uitgesproken om voor het einde van 2025 het Algoritmeregister gevuld te
hebben, maar dat het Algoritmeregister tot op heden maar zeer beperkt
gevuld is;
roept het voltallige kabinet op om voor de zomer van 2025 per
departement een brief te sturen aan de Kamer met daarin een plan voor de
registratie van impactvolle algoritmen (categorie B in de Handreiking
Algoritmeregister, waar risicoselectiealgoritmes onderdeel van zijn),
boven op de plannen voor het registreren van hoogrisico-AI (categorie
A);
verzoekt de staatssecretaris om eind 2025 een voortgangsbrief met de
Kamer te delen inzake de registratie per departement van zowel
hoogrisico-Al (categorie A) als impactvolle algoritmen (categorie B) en
daarbij expliciet in te gaan op de vraag of er voldaan wordt aan de
wettelijke eisen, inclusief de door de AP gegeven uitleg van artikel 22
AVG,
en gaat over tot de orde van de dag.
De voorzitter:
Deze motie is voorgesteld door het lid Six Dijkstra.
Zij krijgt nr. 1286 (26643).
De heer Six Dijkstra (NSC):
Dan is er nog een andere motie, die mevrouw Kathmann en ik een tijd
geleden ingediend hebben. Die gaan we nu in gewijzigde vorm nogmaals
indienen. Ik laat het aan haar om dat verder toe te lichten, want ik ben
bijna door mijn spreektijd heen. Ik dank dus alle aanwezigen.
De voorzitter:
Dank voor uw inbreng. Dan gaan we inderdaad luisteren naar mevrouw
Kathmann, die het woord voert namens de fractie GroenLinks-Partij van de
Arbeid.
Mevrouw Kathmann (GroenLinks-PvdA):
Dank, voorzitter. De overheid gebruikt nog steeds algoritmes om mensen
te selecteren voor fraudecontroles. We weten allemaal wat de gevolgen
daarvan kunnen zijn. Als er al algoritmes worden ingezet, dan is
transparantie hierbij essentieel. Maar een heel duidelijke weg naar de
toegang tot recht is ook heel belangrijk; vandaar deze motie.
De Kamer,
gehoord de beraadslaging,
constaterende dat overheden nog altijd algoritmes gebruiken om mensen te
selecteren voor fraudecontroles op basis van niet transparante
risico-indicatoren;
constaterende dat de Autoriteit Persoonsgegevens meermaals geadviseerd
heeft om transparant te zijn over algoritmes, dit een ambitie is in het
regeerprogramma, en dit reeds volgt uit de artikelen 3.45 en 6.23 van de
Algemene wet bestuursrecht;
van mening dat burgers altijd het recht behouden om in bezwaar te gaan
tegen een algoritmisch besluit of de gebruikte risico-indicatoren en de
overheid hier proactief op moet wijzen;
verzoekt de regering om:
het advies van de Autoriteit Persoonsgegevens op te volgen en burgers altijd te informeren wanneer er ten aanzien van hen (deels) geautomatiseerde risicoselectie heeft plaatsgevonden en dit tot een besluit heeft geleid;
hier duidelijk in de brieven en communicatie richting burgers melding van te maken, en te wijzen op alle mogelijkheden om bezwaar te maken of een klacht in te dienen;
deze mogelijkheid samen met de Autoriteit Persoonsgegevens vorm te geven en de Kamer binnen drie maanden te informeren over de uitkomst,
en gaat over tot de orde van de dag.
De voorzitter:
Deze motie is voorgesteld door de leden Kathmann en Six Dijkstra.
Zij krijgt nr. 1287 (26643).
Dank u wel. Dan gaan we luisteren naar de heer Ergin. Hij voert het woord namens de fractie van DENK.
De heer Ergin (DENK):
Voorzitter, dank u wel. Ik wil graag beginnen met een vraag aan de
staatssecretaris van Binnenlandse Zaken over een toezegging die hij
heeft gedaan tijdens het debat. In zijn toezegging gaf hij aan dat hij
binnen drie weken met een analyse zou komen over hoe het AP-advies over
geautomatiseerde selectie-instrumenten zich verhoudt tot het
SCHUFA-arrest. Ook zou hij daarin aangeven of de interpretatie van het
kabinet de juiste is, zeker nu er ook een gerechtelijke uitspraak is.
Die drie weken zijn verstreken, maar de toezegging is nog niet afgedaan.
Ik zou graag van de staatssecretaris willen weten hoe hij zijn
toezegging wil nakomen.
Ik heb ook twee moties, voorzitter. De eerste motie gaat over de lijst
waar de Kamer al een jaar geleden, of langer dan een jaar geleden, naar
heeft gevraagd.
De Kamer,
gehoord de beraadslaging,
constaterende dat de regering voornemens is om de lijst van mogelijk
illegale algoritmen niet te delen met de Kamer (Kamerstuk 32761, nr.
310), vanwege het nieuwe inzicht dat er geen specifieke wetgeving nodig
is voor het maken van geautomatiseerde risicoselecties (op basis van
profilering) wanneer eventuele gevolgen voor betrokkene(n) van selectie
pas intreden na betekenisvolle menselijke tussenkomst;
van mening dat dit nieuwe inzicht de regering niet ontslaat van de
verantwoordelijkheid om informatieverzoeken van de Kamer niet
onbeantwoord te laten;
verzoekt de regering om een lijst van alle algoritmen waarbij eventuele
gevolgen voor betrokkenen van selectie intreden zonder betekenisvolle
menselijke tussenkomst te delen met de Kamer,
en gaat over tot de orde van de dag.
De voorzitter:
Deze motie is voorgesteld door het lid Ergin.
Zij krijgt nr. 1288 (26643).
De heer Ergin (DENK):
En de tweede motie.
De Kamer,
gehoord de beraadslaging,
constaterende dat algoritmen en geautomatiseerde besluitvorming een
steeds grotere rol spelen in dienstverlening en besluitvorming door
zowel publieke als private partijen;
overwegende dat de Handreiking non-discriminatie by design is opgesteld
om te waarborgen dat algoritmen op een transparante en
non-discriminerende wijze worden ingezet;
overwegende dat het van belang is om te onderzoeken in hoeverre private
partijen deze handreiking daadwerkelijk toepassen bij de ontwikkeling en
inzet van algoritmen;
verzoekt de regering om te onderzoeken in welke mate private partijen de
stappen uit de Handreiking non-discriminatie by design toepassen bij het
gebruik van algoritmen en de Kamer hierover te informeren,
en gaat over tot de orde van de dag.
De voorzitter:
Deze motie is voorgesteld door het lid Ergin.
Zij krijgt nr. 1289 (26643).
Hartelijk dank voor uw inbreng. Daarmee zijn we aan het einde gekomen van de termijn van de Kamer. Ik kijk even naar de bewindslieden. Is vijf minuten genoeg? Tien? Hm, we hebben nog negen tweeminutendebatten en een stikstofdebat, dus ik hoop dat het wat sneller kan dan in tien minuten. Dan zijn we even geschorst.
De vergadering wordt van 10.22 uur tot 10.31 uur geschorst.
De voorzitter:
Ik heropen de vergadering. Aan de orde is de voortzetting van het
tweeminutendebat Inzet algoritmes en data-ethiek binnen de
rijksoverheid. We zijn toe aan de termijn van de zijde van het kabinet.
Ik geef het woord aan de staatssecretaris van Rechtsbescherming.
Staatssecretaris Struycken:
Voorzitter. Ik beantwoord graag de vraag van de heer Ergin inzake de
toegezegde brief. De brief is overgenomen door mijn departement. Het
voornemen is om die brief op de kortst mogelijke termijn te
beantwoorden. Dat zal ergens kort na het reces zijn, maar in ieder geval
ruim voorafgaand aan het debat over gegevensbescherming, het
commissiedebat dat nu staat voor 18 maart.
De voorzitter:
Dank u wel. Dan luisteren we nu naar de staatssecretaris van
Digitalisering, noem ik hem maar even. Hij gaat ook een appreciatie
geven van de vier ingediende moties. Gaat uw gang.
Staatssecretaris Szabó:
Dank u wel, voorzitter. Voor de motie op stuk nr. 1286, over de
registratie en een algoritmeregister, is de appreciatie oordeel
Kamer.
De motie-Kathmann/Six Dijkstra op stuk nr. 1287, over open zijn over
algoritmen, krijgt ook oordeel Kamer.
In de motie op stuk nr. 1288 heeft de heer Ergin het over een
informatieverzoek: verzoekt de regering om een lijst van algoritmen et
cetera. Met het vullen van het Algoritmeregister wordt reeds voldaan aan
het informatieverzoek. Dus dat is mijn antwoord daarop.
De voorzitter:
Wat betekent dat voor het oordeel over de motie?
Staatssecretaris Szabó:
O ja, ontraden.
De voorzitter:
Ontraden. De heer Ergin.
De heer Ergin (DENK):
De staatssecretaris zegt heel makkelijk: we geven uitvoering aan het
informatieverzoek via het Algoritmeregister. Maar we weten ook dat 4%
van de algoritmen is geregistreerd. We weten nog niet wanneer alle
algoritmen geregistreerd zijn, terwijl al die algoritmen wel toegepast
worden in de dagelijkse praktijk. In het Algoritmeregister zijn ook veel
meer inhoudelijke punten waarop beoordeeld moet worden. Wij zouden
alleen een lijst daarvan willen. Dit verzoek is niet nieuw. Dit verzoek
heeft het lid Idsinga een jaar geleden gedaan. Nu wordt het opeens niet
uitgevoerd, zegt de staatssecretaris in zijn brief, dus ik wil gewoon
iets meer uitleg over waarom de staatssecretaris dit niet wil.
Staatssecretaris Szabó:
Omdat we bezig zijn met het vullen van het Algoritmeregister. We zijn
intensief met medeoverheden aan het praten over de manier waarop dat zo
goed mogelijk kan worden gedaan. We hebben daar ook deadlines voor voor
de komende jaren, dus dat proces wil ik graag voortzetten.
De voorzitter:
De staatssecretaris gaat verder met zijn betoog.
Staatssecretaris Szabó:
Dank u wel. Dan laatste motie, op stuk nr. 1289. Die is ook van de heer
Ergin en gaat over onderzoek doen naar het gebruik van de handreiking
non-discriminatie by design door de private sector, als ik het goed heb
begrepen. De AI-verordening vraagt ook de private sector om bij
hoogrisico-AI-systemen waarborgen in acht te nemen om discriminatie en
bias te voorkomen. In 2026 treedt de AI-verordening voor
hoogrisicosystemen in werking. Deze ontraad ik dus, maar het proces
loopt, zeg ik om een antwoord te geven over de inhoud van de motie.
De voorzitter:
Dank. Dan zijn we aan het einde gekomen van dit tweeminutendebat.
De beraadslaging wordt gesloten.
De voorzitter:
We gaan 4 maart over deze moties stemmen. Dat is dus na het reces. We
gaan straks door met het tweeminutendebat Digitale inclusie. Ik dank de
staatssecretaris van JenV. De andere staatssecretaris blijft nog
aanwezig. Hij pakt even zijn spullen, dus ik wacht een ogenblik.
De vergadering wordt enkele ogenblikken geschorst.