[overzicht] [activiteiten] [ongeplande activiteiten] [besluiten] [commissies] [geschenken] [kamerleden] [kamerstukdossiers] [open vragen]
[toezeggingen] [stemmingen] [verslagen] [🔍 uitgebreid zoeken] [wat is dit?]

Antwoord op vragen van het lid Koekkoek over de aanpak van institutioneel racisme

Antwoord schriftelijke vragen

Nummer: 2024D37252, datum: 2024-10-08, bijgewerkt: 2024-10-11 12:07, versie: 3

Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (ah-tk-20242025-196).

Gerelateerde personen: Bijlagen:

Onderdeel van zaak 2024Z13076:

Preview document (🔗 origineel)


Tweede Kamer der Staten-Generaal 2
Vergaderjaar 2024-2025 Aanhangsel van de Handelingen
Vragen gesteld door de leden der Kamer, met de daarop door de regering gegeven antwoorden

196

Vragen van het lid Koekkoek (Volt) aan de Minister van Binnenlandse Zaken en Koninkrijksrelaties over de aanpak van institutioneel racisme (ingezonden 6 september 2024).

Antwoord van Minister Uitermark (Binnenlandse Zaken en Koninkrijksrelaties), mede namens de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties (ontvangen 8 oktober 2024).

Vraag 1

Welke definitie hanteert u voor institutioneel racisme?

Antwoord 1

Op dit moment gebruiken we de definitie van institutioneel racisme zoals opgesteld door het College voor de Rechten van de Mens. Het College heeft op verzoek van de toenmalige Minister van Binnenlandse Zaken en Koninkrijksrelaties (BZK) een advies uitgebracht over de (juridische) definitie van racisme, waaronder institutioneel racisme. De Tweede Kamer is geïnformeerd over het advies van het College per Kamerbrief op 7 juli 2022.1 In het advies wordt institutioneel racisme omschreven als een maatschappelijk verschijnsel waarbij processen, beleid of geschreven en ongeschreven regels van instituten leiden tot structurele discriminatie op grond van ras. Met «institutioneel» wordt hierbij bedoeld dat dit voorkomt en is ingebed in instituties. Het omvat ook allerlei vormen van niet-geformaliseerd, sociaal ingesleten gedrag. Het kent uiteenlopende verschijningsvormen en is door «inbedding» vaak niet direct herkenbaar.

De definitie van institutioneel racisme is niet onomstreden. Een aantal partijen uit het maatschappelijk middenveld is het niet eens met deze definitie. Er is daarom toegezegd aan (een deel van) deze partijen dat de bezwaren in kaart worden gebracht en dat er opnieuw zal worden gekeken naar de definitie bij het onderzoek naar de definitie van de grond ras in de Algemene wet gelijke behandeling (Awgb). Dat onderzoek vormt onderdeel van een groter onderzoek dat het Ministerie van BZK doet naar de reikwijdte van de Awgb, waarover hieronder (bij vraag 3) meer.

Vraag 2

Deelt u de opvatting van uw voorganger De Jonge dat de term institutioneel racisme een erkenning is dat in overheidsorganisaties beleidsvorming plaatsvindt en selectieprocessen tot stand komen die uiteindelijk discriminatoir kunnen uitpakken? Zo niet, waarom niet?

Antwoord 2

Ja, deze opvatting deel ik. Voormalig Minister De Jonge deelde deze opvatting in het commissiedebat over racisme en discriminatie van 16 april jl.2 in relatie tot de acties die er Rijksbreed worden genomen om discriminatie te bestrijden, waaronder op het gebied van risicoprofilering. Hij legde uit dat er bij institutioneel racisme niet altijd sprake hoeft te zijn van intentioneel racisme. Juist omdat we weten dat beleid in bepaalde gevallen onbedoeld discriminatoir uit kan pakken, moeten we hier alert op zijn. Ik wil graag benadrukken dat ik mij hier ook bewust van ben en het absoluut niet tolereer wanneer het handelen van de overheid discriminatoir uitpakt. Ik zal me onverminderd blijven inzetten om dit aan te pakken.

Vraag 3

Welke stappen gaat u als verantwoordelijk Minister voor discriminatiebestrijding zetten om institutioneel racisme – onder meer vastgesteld bij verschillende gemeenten, de politie en de Belastingdienst3 4 te bestrijden en welk tijdspad hoort daarbij?

Antwoord 3

De bestrijding van institutioneel racisme heeft op diverse manieren de aandacht van het kabinet. Ten eerste, hebben we de discriminatietoets in het Beleidskompas verstevigd en een prominentere plek gegeven. Hiermee wordt beoogd discriminerende effecten in nieuw beleid en wetgeving te voorkomen. Daarnaast heeft het College voor de Rechten van de Mens een structurele bijdrage toegekend gekregen, naar aanleiding van de toeslagenaffaire, om gemeenten en uitvoeringsinstanties te trainen in het herkennen en voorkomen van discriminatie op de werkvloer. Deze training, in de vorm van een e-learning, is inmiddels door verschillende uitvoeringsorganisaties in gebruik. Ook is het College bezig met het herzien van hun toetsingskader voor het voorkomen van etnisch profileren bij het gebruik van risicoprofielen. Ik verwacht het nieuwe kader nog dit kalenderjaar. Ik zal op basis van het kader de nodige acties nemen om etnisch profileren bij het gebruik van risicoprofielen te voorkomen.

Daarnaast heeft het kabinet een subsidie aan Movisie en Verweij-Jonker gegeven om workshops te organiseren en te monitoren voor verschillende uitvoeringsorganisaties binnen het Rijk. De workshops zijn gericht op het tegengaan van etnisch profileren door het gebruik van risicoprofielen. Ik verwacht dit najaar een evaluatierapport van Verweij-Jonker van deze workshops. Hierover zal uw Kamer worden geïnformeerd. Vervolgens zal er worden gekeken hoe er gevolg kan worden gegeven aan deze workshops.

In 2022 heeft het kabinet de Staatscommissie tegen Discriminatie en Racisme ingesteld. De Staatscommissie doet onderzoek naar discriminatie en racisme in Nederland, waaronder naar institutionele discriminatie. De Staatscommissie heeft ook als opdracht om een doorlichting uit te voeren van de werkwijze en organisatiecultuur van alle (semi) overheidsinstanties en uitvoeringsinstanties als het gaat om discriminatie en etnisch profileren. Daartoe heeft de Staatscommissie een instrument ontwikkeld dat overheidsorganisaties kunnen gebruiken om erachter te komen of er in hun organisatie sprake is van risicofactoren die tot institutionele discriminatie kunnen leiden. Het instrument is ontwikkeld voor overheidsdiensten met burgercontacten. Het instrument wordt momenteel in enkele pilots getest bij de Douane, DUO en de gemeente Arnhem, die daarmee een voortrekkersrol vervullen. Het voornemen is om het instrument ook geschikt te maken voor de beleidsdepartementen van de Rijksoverheid. Daar bestaat veel interesse voor het instrument. Daarnaast wordt in het onderzoek van de Staatscommissie aandacht besteed aan de vraag of het mogelijk en wenselijk is om te verbieden dat ras en nationaliteit in risicoprofielen worden toegepast. Ten slotte zal de Staatscommissie in haar onderzoek aandacht besteden aan een gelijke behandelingsplicht (Public Sector Equality Duty) voor de overheid, naar Brits en Iers voorbeeld. Op basis van het onderzoek zal de Staatscommissie de regering adviseren over verdere verbetering van beleid en regelgeving om discriminatie en racisme tegen te gaan. Het eindrapport van de Staatscommissie zal halverwege 2026 verschijnen. In het voorjaar van 2025 verwacht ik een tussenrapportage over het doorlichtingsinstrument en de Public Sector Equality Duty.

Naar aanleiding van eerdere adviezen van de parlementaire onderzoekscommissie effectiviteit antidiscriminatiewetgeving, het College voor de Rechten van de Mens, de Staatscommissie en de Nationaal Coördinator tegen Discriminatie en Racisme om eenzijdig overheidshandelen onder de werking van de gelijkebehandelingswetgeving te brengen, ben ik bezig met een onderzoek naar de Algemene wet gelijke behandeling (hierna Awgb). In het onderzoek wordt ingegaan op welke wijze de rechtsbescherming tegen mogelijk discriminerend handelen door de overheid al is geregeld, waar dit mogelijk tekortschiet en hoe uitbreiding van de bevoegdheid van het College voor de Rechten van de Mens daarin kan voorzien. Dit betekent dat er onder andere wordt gekeken of risicoprofilering door de overheid getoetst moet worden op grond van de Awgb. Ik verwacht uw Kamer eind 2024 of in het eerste kwartaal van 2025 te informeren over de uitkomst van dit onderzoek.

Ook tegen institutioneel racisme op de werkvloer neemt het kabinet actie. De komende jaren zal de nadruk komen te liggen op het Rijksbreed agenderen, aanjagen en monitoren van de aanpak van discriminatie en racisme op de werkvloer van de Rijksoverheid. Elke twee jaar zal binnen de Rijksoverheid kwantitatief (vervolg)onderzoek plaatsvinden naar discriminatie en racisme op de werkvloer. In het dertigledendebat van 12 september jl. heb ik uw Kamer toegezegd met departementen afspraken te maken over institutionele maatregelen tegen discriminatie Rijksbreed, zodat binnen iedere Rijksorganisatie dezelfde doelen tegen discriminatie worden gesteld. Ik zal mijn plan van aanpak verder toelichten in de kamerbrief over focusgroepenonderzoek naar racisme binnen de Rijksoverheid. Dit rapport wordt voor het herfstreces met uw Kamer gedeeld.

Ten slotte, hebben de andere departementen en uitvoeringsorganisaties, zoals de Politie, de Koninklijke Marechaussee, DUO en de Belastingdienst, stappen gezet met betrekking tot institutioneel racisme. Uw Kamer wordt op korte termijn uitgebreid geïnformeerd over deze acties middels de kabinetsreactie op het rapport «Etnisch profileren is een overheidsbreed probleem» van Amnesty International.

Vraag 4

Hoe manifesteert institutioneel racisme zich volgens u in de digitale sfeer?

Antwoord 4

Er kan sprake zijn van institutioneel racisme in de digitale sfeer wanneer algoritmes in gevallen structureel en/of collectief groepen mensen achterstellen op basis van hun (vermeende) etniciteit, bijvoorbeeld door hen vaker te selecteren voor controle. Het is natuurlijk bijzonder betreurenswaardig dat er algoritmische systemen bij de overheid discrimineerden, of discriminerende patronen lieten zien. Dit betroffen doorgaans systemen waarbij algoritmes gericht waren op selectiebeslissingen en/of risicoprofilering. In die gevallen moet er per definitie selectie plaatsvinden en dan zijn er risico’s dat er op directe of indirect wijze onderscheid wordt gemaakt en mensen worden achtergesteld.

In de digitale sfeer is de potentiële impact groot. Als algoritmes onrechtmatig worden ingezet, dan kunnen heel veel mensen hier tegelijk last van hebben. Bovendien kan het ook lang duren voordat de onrechtmatigheid wordt ontdekt binnen de overheidsorganisatie waar het algoritme wordt gebruikt. Met name bij indirecte discriminatie is dat lastig te ontdekken. De gevolgen openbaren zich in veel gevallen pas later. Ook (mogelijk) gedupeerden komen er pas laat achter, omdat ze niet weten dat een algoritme hier mede aan ten grondslag ligt.

Het is verder van belang om de digitale sfeer niet los te zien van fysieke werkprocessen en -instructies. Hier speelt «automation bias» een belangrijke rol. Ambtenaren die beoordelingen moeten maken, of huisbezoeken doen, laten zich dan sterk leiden door het oordeel van het algoritme. Dit oordeel kan ook de mogelijke vooroordelen die ambtenaren hebben ten aanzien van bepaalde groepen in de maatschappij verder versterken.

Tot slot dient opgemerkt te worden dat algoritmische systemen niet zijn opgezet om doelbewust te discrimineren. Vaker is de overheid zich ervan onbewust dat in de bouw van het model iets niet klopt, of heeft men te laat in de gaten wat de onbedoelde gevolgen zijn.

Vraag 5

Kunt u toelichten welke stappen u gaat zetten om institutioneel racisme in de digitale sfeer – zoals vastgesteld bij algoritmes en AI-systemen5 te bestrijden?

Antwoord 5

Dit kabinet maakt er werk van om algoritmes, en in gevallen ook toepassingen van AI (die zelfstandig, zelflerend zijn) die gebruikt worden door de overheid, tijdig te toetsen op mogelijke discriminatie. Als AI en algoritmes worden ingezet, ook als dat gebeurt bij risicoprofilering, dan dienen de voorwaarden en waarborgen vooraf duidelijk te zijn. Zodoende is er een algoritmekader voor de overheid opgesteld met daarin een overzicht van de belangrijkste wettelijke vereisten en geadviseerde maatregelen met hulpmiddelen om risico’s van bias en discriminatie vroegtijdig te identificeren en te mitigeren. Een eerste versie van dit kader is bijna gereed en al te bekijken6. Een van de voorgestelde maatregelen in dat algoritmekader zijn toetsen en assessments. Daarbij valt niet alleen te denken aan de data protection impact assessment (DPIA) wanneer persoonsgegevens worden verwerkt, maar ook aan het doen van een Impact Assessment Mensenrechten en Algoritmen (IAMA). Daarnaast worden specifieke toetsen opgenomen in het algoritmekader om bias te detecteren en te mitigeren. Ook is afgesproken om voor alle nieuwe hoog-risico algoritmes en voor hoog-risico AI-systemen in de zin van de AI-verordening die binnen de Rijksoverheid worden gebruikt, een mensenrechtentoets te laten doen.7 Deze moeten bovendien in het algoritmeregister voor de overheid worden opgenomen. Bij algoritmes en AI-toepassingen ter ondersteuning van selectiebeslissingen en risicoprofilering moet duidelijk te volgen zijn hoe besluiten, ook al zijn ze ondersteunend, tot stand komen.

Voor de navolgbaarheid van besluiten genomen door algoritmes (algoritmische besluitvorming) is het motiveringsbeginsel leidend. Het moet namelijk voor de belanghebbende inzichtelijk worden hoe besluiten tot stand zijn gekomen. Zodoende is dan ook in het regeerprogramma opgenomen dat burgers moeten kunnen weten hoe een (geautomatiseerd) besluit tot stand is gekomen en moet voor hen duidelijk zijn welke rechtsmiddelen er bestaan in zo’n geval.

Ook ontwikkelt het kabinet een discriminatieprotocol dat een werkwijze biedt voor hoe te handelen op het moment dat – alle voorzorgsmaatregelen ten spijt – onrechtmatigheid wordt geconstateerd bij het gebruik van AI-systemen en algoritmes.8 Dit protocol biedt een werkwijze ten aanzien van de manier waarop klachten en signalen kunnen worden verwerkt en gedupeerden geholpen kunnen worden. Naar verwachting zal dit protocol dit najaar op hoofdlijnen gereed zijn.

Tot slot is het vergroten van kennis en bewustzijn bij ambtenaren belangrijk om mogelijke bias/discriminatie bij de inzet van algoritmes en AI-systemen tijdig te herkennen. Op verzoek van uw Kamer werd er op basis van de handreiking non-discriminatie een e-learning module ontwikkeld, bedoeld voor data-analisten. Op 18 september jl. organiseerde het Ministerie van BZK een bias/discriminatie bijeenkomst waar talrijke experts van zowel binnen als buiten de overheid van gedachten wisselden over dit onderwerp9.

Vraag 6

Kunt u toelichten welke acties u gaat ondernemen vooruitlopend op de resultaten van de Staatscommissie tegen Discriminatie en Racisme? Waarom kiest u voor die acties?

Antwoord 6

De Staatscommissie is momenteel nog bezig met de pilots van hun doorlichtingsinstrument. Zodra de tussenrapportage hierover verschijnt, zal ik bezien hoe we het beste opvolging kunnen geven aan de aanbevelingen. Ondertussen lopen de acties die zijn opgesomd in de beantwoording op de vragen 3 en 5 door en zullen we kijken of we het doorlichtinstrument van de Staatscommissie kunnen aanpassen zodat het ook geschikt is voor de departementen.


  1. Tweede Kamer, vergaderjaar 2023–2024, 30 950, nr. 315.↩︎

  2. Tweede Kamer, vergaderjaar 2023–2024, 30 950, nr. 411.↩︎

  3. NOS, 30 oktober 2023, «Signalen van institutioneel racisme tegen ambtenaren in zes gemeenten», nos.nl/l/2496027↩︎

  4. Trouw, 29 juni 2022, «Politie en Belastingdienst erkennen institutioneel racisme. Hoe moet het nu verder?», www.trouw.nl/binnenland/politie-en-belastingdienst-erkennen-institutioneel-racisme-hoe-moet-het-nu-verder~bbf899e6/↩︎

  5. iBestuur, 3 september 2024, «Overheidsorganisaties weigeren openheid over werking algoritmen», ibestuur.nl/artikel/overheidsorganisaties-weigeren-openheid-over-werking-algoritmen/↩︎

  6. Algoritmekader - Algoritmekader [concept] (minbzk.github.io)↩︎

  7. Tweede Kamer, vergaderjaar 2023–2024, 26 643, nr. 1110 en Kamerstuk 36 360 VI, nr. 14.↩︎

  8. https://minbzk.github.io/discriminatieprotocol/↩︎

  9. https://www.digitaleoverheid.nl/evenementen/bias-fairness-en-non-discriminatie-bij-inzet-algoritmes-en-ai/↩︎