Antwoord op vragen van leden Westerveld en Kathmann over het emancipatiebeleid van Nederland en de rol van digitalisering
Antwoord schriftelijke vragen
Nummer: 2025D33044, datum: 2025-07-09, bijgewerkt: 2025-07-09 13:59, versie: 2 (versie 1)
Directe link naar document (.docx), link naar pagina op de Tweede Kamer site.
Gerelateerde personen:- Eerste ondertekenaar: E. van Marum, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties
- Mede namens: J.N.J. Nobel, staatssecretaris van Sociale Zaken en Werkgelegenheid
- Mede ondertekenaar: M.L.J. Paul, staatssecretaris van Onderwijs, Cultuur en Wetenschap (Ooit VVD kamerlid)
Onderdeel van zaak 2025Z08286:
- Gericht aan: F.Z. Szabó, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties
- Gericht aan: M.L.J. Paul, staatssecretaris van Onderwijs, Cultuur en Wetenschap
- Indiener: E.M. Westerveld, Tweede Kamerlid
- Medeindiener: B.C. Kathmann, Tweede Kamerlid
- Voortouwcommissie: TK
Preview document (🔗 origineel)
AH 2685
2025Z08286
Antwoord van staatssecretaris Van Marum (Binnenlandse Zaken en Koninkrijksrelaties), mede namens de staatssecretarissen van Onderwijs, Cultuur en Wetenschap en van Sociale Zaken en Werkgelegenheid (ontvangen 9 juli 2025)
Zie ook Aanhangsel Handelingen, vergaderjaar 2024-2025, nr. 2268
Welke concrete kansen en risico’s ziet u vanuit emancipatieperspectief met betrekking tot het ontwikkelen en gebruiken van AI en algoritmen in zowel individuele als publieke en private toepassingen?
Het kabinet keurt iedere vorm van discriminatie af. Om discriminatie tegen te gaan hanteert het kabinet een evenwichtige aanpak, waarbij benadrukt dient te worden dat alle groepen in de samenleving hierin voor de overheid gelijk zijn. Vanuit emancipatieperspectief ziet het kabinet zowel kansen als risico’s in de ontwikkeling en toepassing van AI. AI kan bijdragen aan gelijke kansen, bijvoorbeeld door biasbewuste algoritmen in werving of onderwijs. Maar AIsystemen en algoritmen kunnen ook (onbewuste) bias bevatten, bijvoorbeeld doordat ze ontwikkeld zijn op basis van data die voornamelijk mannelijke kenmerken weerspiegelt1, of waarin bepaalde groepen onvoldoende zijn vertegenwoordigd, waardoor deze systemen mogelijk ook minder goed werken voor deze groepen. Een voorbeeld hiervan is het potentiële effect van AI op lhbtqia+-ongelijkheid, dat uit een onderzoek van het ministerie van OCW naar voren kwam.2 Daarnaast bestaan er risico’s in specifieke toepassingen, zoals het gebruik van AI-gedreven ‘uitkleedapps’ onder leerlingen in het voortgezet onderwijs, wat schadelijk is voor de veiligheid van met name meisjes.
Een ander risico is gelegen in de geringe vertegenwoordiging van vrouwen in ICT-beroepen. In Europees verband heeft Nederland zich vastgelegd om toe te werken naar een groter aantal ICT-specialisten met een groter aandeel vrouwen. In het meeste recente rapport over het Digitaal Decennium gaf de Europese Commissie aan dat er in Nederland genderonevenwichtigheden op dit gebied bestaan, omdat minder dan 25 procent van de werkende ICT-specialisten vrouw is en gaf zij de aanbeveling om programma’s op te zetten om het aantal jongeren (met name meisjes) dat belangstelling heeft voor ICT-studies of -loopbanen te vergroten.1 Recent heeft de Europese Commissie bij de Unie van Vaardigheden ook een strategisch plan voor STEM-onderwijs voorgesteld met bijzondere aandacht voor meisjes. In de kabinetsreactie is de aandacht hiervoor verwelkomd en is ook ingegaan op het Nederlandse beleid op dit gebied.2 Zo is Nederland in 2025 bijvoorbeeld het Nationaal Groeifondsproject Techkwadraat van start gegaan, waarin aandacht voor het betrekken van ondervertegenwoordigde groepen, waaronder meisjes, een verplicht onderdeel is.3
Deelt u de verwachting dat AI-systemen in Nederland genderbias en discriminatie kunnen versterken?
Het is bekend dat bepaalde toepassingen van AI-systemen gevoelig kunnen zijn voor vooringenomenheid (bias) en een risico op discriminatie met zich meebrengen. Enkele voorbeelden hiervan zijn AI-systemen voor biometrische identificatie, voor het bepalen van toelating tot onderwijs of beroepsopleidingen, voor werving en selectie op de arbeidsmarkt en voor evaluatie van de kredietwaardigheid van personen. Dergelijke toepassingen kunnen vertekende effecten geven met betrekking tot geslacht en discriminerend zijn ten aanzien van vrouwen.
Hoewel AI-technologie dit risico in zich heeft, gebeurt er veel om dit te voorkomen. De bewustwording over risico’s rondom genderbias en discriminatie bij het gebruik van AI is bij gebruikers, experts en burgers in de afgelopen jaren toegenomen. De verwachting is dat de AI-verordening verder zal bijdragen aan het voorkomen en terugdringen van genderbias en discriminatie in AI-systemen. De AI-verordening deelt AI-systemen in aan de hand van risico-categorieën. Afhankelijk van het risico, stelt de AI-verordening eisen om deze risico’s te beperken. Voor (sommige) hoog-risico AI-systemen gelden eisen met betrekking tot gebruikte datasets, waaronder een beoordeling van mogelijke vooringenomenheid die kan leiden tot discriminatie.
Hoe ziet u er op toe dat het toenemende gebruik van AI-toepassingen en algoritmes bij publieke en private organisaties genderbias en discriminatie niet versterken en kunt u dwingend optreden als dit wel het geval is?
Het ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) heeft verschillende instrumenten ontwikkeld die publieke en private organisaties kunnen ondersteunen bij het toetsen van AI-systemen en algoritmen op mogelijke bias en discriminatie, zoals de handreiking non-discriminatie by design en het Impact Assessment Mensenrechten en Algoritmen (IAMA) (specifiek voor overheidsorganisaties). Het Algoritmekader voor de overheid biedt een handzaam overzicht van kaders, maatregelen en hulpmiddelen om overheidsorganisaties te ondersteunen bij verantwoorde ontwikkeling en inzet van AI-systemen en algoritmes.4 In het Algoritmekader is expliciet aandacht voor mogelijke bias en discriminerende effecten. Organisaties zijn in eerste instantie zelf verantwoordelijk om ervoor te zorgen dat ze handelen conform wetgeving en normen.
Bij signalen van of klachten over discriminatie door algoritmische en AI-toepassingen kunnen toezichthouders optreden. Dit heeft zich in de afgelopen jaren ook een aantal keer voorgedaan. De Autoriteit Persoonsgegevens (AP) en het College voor de Rechten van de Mens (CRM) zien erop toe dat het handelen van publieke en private organisaties niet in strijd is met de Algemene Verordening Gegevensbescherming en non-discriminatiewetgeving. De AP, het CRM en de procureur-generaal bij de Hoge Raad (PGHR), de voorzitter van de Afdeling Bestuursrechtspraak Raad van State (ABRvS), het gerechtsbestuur van de Centrale Raad van Beroep (CRvB) en het gerechtsbestuur van het College van Beroep voor het bedrijfsleven (CBb) zijn voor de AI-verordening vastgesteld als autoriteiten voor de bescherming van grondrechten.5
Welke lessen omtrent genderbias en discriminatie neemt u concreet mee uit eerdere toepassingen van AI-systemen?
In het eerder genoemde Algoritmekader voor de overheid zijn enkele voorbeelden genoemd van toepassingen die bias vertoonden en/of discriminerend waren.6 Het maken van indirect onderscheid is hierbij bijvoorbeeld een aandachtspunt. De afgelopen jaren is duidelijk geworden dat selectiecriteria die neutraal lijken, in combinatie met andere selectiecriteria, discriminerend kunnen uitpakken. Dit indirecte onderscheid valt in vergelijking met direct onderscheid minder op en vraagt daarom om extra zorgvuldige validatie. Hiertoe worden momenteel verschillende tools ontwikkeld en methodes verkend.
Hoe worden deze lessen betrokken bij de beleidsontwikkeling op het gebied van AI-gebruik binnen de overheid?
De afgelopen twee jaar is op verschillende manieren gewerkt aan het vraagstuk van validatie en biasdetectie bij het gebruik van algoritmen en AI-systemen binnen de overheid. Dit gebeurt onder andere vanuit werkgroepen en bijeenkomsten met experts uit het maatschappelijk middenveld, de wetenschap en de overheid. Ook wordt hieraan gewerkt via innovatietrajecten die gericht zijn op technische oplossingen. Daarnaast zijn instrumenten als het IAMA en de handreiking non-discriminatie by design ontwikkeld. De eisen die de AI-verordening op dit punt stelt, waaronder eisen op het vlak van AI-geletterdheid, zullen zorgen dat medewerkers binnen en buiten de overheid meer kennis opdoen van AI-systemen en waar op te letten bij de toepassing van AI-systemen om negatieve effecten – zoals discriminatie – te voorkomen.
Hoe zorgt u ervoor dat de kennis over de impliciete discriminatoire werking van AI-toepassingen en algoritmen binnen de overheid blijft groeien?
Eén van de taken van het ministerie van BZK is het bijdragen aan het verantwoord gebruik van AI binnen de overheid. Hieraan wordt invulling gegeven door het stellen van kaders, het ondersteunen van overheden bij de implementatie van bestaande regels en het delen van lessen en best practices, zoals hiervoor benoemd. Door op dit onderwerp als overheden samen op te trekken moeten lessen niet beperkt blijven tot de organisatie waar deze geleerd zijn, maar breed gedeeld worden zodat ongewenste effecten van AI-gebruik ook elders worden voorkomen.
In het Algoritmekader is kennis over het zorgvuldig ontwikkelen en gebruik maken van AI te vinden, waaronder het voorkomen van de mogelijke discriminatoire werking van AI. Het eerder genoemde IAMA en de handreiking non-discriminatie by design zijn opgenomen, maar ook hulpmiddelen die door andere organisaties zijn ontwikkeld als het ‘Toetsingskader risicoprofilering – Normen tegen discriminatie op grond van ras en nationaliteit’ van het CRM. Het een en ander is ook uiteengezet in eerdere brieven aan uw Kamer over dit onderwerp.7 Wanneer een overheidsorganisatie constateert dat een AI-systeem bevooroordeeld is of discrimineert, kan het gebruik maken van het discriminatieprotocol voor AI en algoritmes8 dat is ontwikkeld naar aanleiding van de motie-Van Baarle9.
Kennis wordt ook op andere manieren verspreid, zoals door middel van opleidingen. Het Leerplatform van de RijksAcademie voor Digitalisering en Informatisering Overheid (RADIO) biedt een e-learning ‘Non-discriminatie in algoritmes en data’.10 De online cursus ‘AI en ethiek’11 besteedt aandacht aan ‘onbewuste discriminatie’, deze cursus is ook mede met hulp van het ministerie van BZK ontwikkeld. Tot slot is het waardevol om uw Kamer te wijzen op de nieuwe ‘community of practice Digitale ethiek voor overheden’, waar overheidsorganisaties kennis en ervaringen delen over ethische vraagstukken, werkwijzen en instrumenten.12
Op welke wijze worden de adviezen van de expertgroep Kunstmatige Intelligentie (2019) meegenomen in de huidige en toekomstige werkwijze en beleidsontwikkeling van het kabinet? Kunt u dit per advies toelichten?
De ‘High-Level Expert Group on AI’ (AI HLEG) heeft adviezen uitgebracht13 over vereisten waaraan betrouwbare AI moet voldoen. Deze adviezen hebben een belangrijk fundament gelegd voor de AI-verordening en zijn (deels) vertaald naar normen die in de AI-verordening zijn opgenomen. Zo wordt in overweging 7 van de AI-verordening aangegeven dat bij het opstellen van de regels voor (hoogrisico-)AI-systemen, en de bescherming van grondrechten, gezondheid en veiligheid die deze regels moeten borgen, rekening is gehouden met de ethische richtsnoeren van de AI HLEG.
Welke concrete maatregelen kunt u nemen om de kwaliteit en representativiteit van trainingsdata voor AI te doen toenemen en bent u van plan dit te normeren en reguleren?
In artikel 10, derde lid, van de AI-verordening zijn ten aanzien van trainingsdata voor hoog-risico AI-systemen voorschriften opgenomen over de kwaliteit en representativiteit. De verantwoordelijkheid voor de kwaliteit van de trainingsdata ligt in eerste instantie bij aanbieders van AI-systemen. De nog aan te wijzen markttoezichthouder(s) zal straks toezien op naleving van de AI-verordening. Het CRM is, net als de overige in antwoord 3 genoemde instanties, aangewezen als grondrechtenautoriteit in de zin van de AI-verordening, gelet op zijn rol als nationaal instituut voor de rechten van de mens en als gelijkebehandelingsorgaan. Het CRM krijgt als grondrechtenautoriteit op grond van de AI-verordening aanvullende bevoegdheden om de bestaande taken effectief uit te kunnen voeren, zoals het opvragen en inzien van documentatie en de markttoezichtautoriteit vragen om het AI-systeem te mogen testen. Daarnaast worden de grondrechtenautoriteiten bij ernstige incidenten geïnformeerd.
Tot slot geeft het ministerie van BZK via het Algoritmekader overheidsorganisaties handvatten om algoritmes en AI zorgvuldig in te zetten, zo ook over het controleren van de kwaliteit van data.14 Ook in de recente ‘Overheidsbrede handreiking generatieve AI’ wordt aandacht gevraagd voor ethische aspecten rondom (trainings)data om zo discriminatoire effecten te voorkomen.15
Op welke manier gaat u zich inzetten om ongelijkheden bij het gebruik van AI-systemen te voorkomen en wat vraagt dit van de samenwerking van Nederland met de andere EU-lidstaten?
De eerder genoemde AI-verordening zorgt voor een gelijk speelveld voor de ontwikkeling en het gebruik van AI-systemen binnen de Europese Unie (EU). In EU-verband wordt rond dit onderwerp goed samengewerkt. Het kabinet neemt hierin ook een actieve rol, onder meer door de Nederlandse ervaringen met het eerder genoemde IAMA te delen en te participeren in de initiatieven om te komen tot standaarden voor het ontwikkelen en gebruiken van AI-systemen, bijvoorbeeld via deelname aan de Europese AI Board.
Wat is de rol van Nederland in het ontwikkelen van ethische en niet-discriminatoire AI-systemen en hoe gaat u hier richting aan geven bij de ontwikkelingen rondom de nationale AI-fabriek?
Binnen de Europese AI-fabrieken worden initiatieven gestimuleerd voor verantwoorde en transparante AI-ontwikkeling. Dit omvat het ontwikkelen en testen van AI-modellen, die voldoen aan bestaande wet- en regelgeving waaronder non-discriminatiewetgeving, aan nieuwe vereisten die de AI-verordening stelt en standaarden die uitlegbaar en begrijpelijk zijn voor gebruikers. Dit zal ook het geval zijn voor de in Nederland voorziene AI-fabriek. De kennis en ervaring die de Nederlandse overheid heeft opgedaan met bijvoorbeeld het toepasbaar maken van wet- en regelgeving in het Algoritmekader, zie het antwoord op vraag 6, of met audits worden in de AI-fabriek verder geoperationaliseerd.
Welke expertise betrekt u bij de ontwikkeling van de nationale AI-fabriek om te waarborgen dat Nederlandse AI-modellen voldoen aan wettelijke en ethische kaders en welke wettelijke en ethische kaders stelt u daaraan?
Onderdeel van de AI-fabriek is een kenniscentrum om aanvragers van rekencapaciteit te ondersteunen. In dat kenniscentrum zullen AI-experts werken, maar vanzelfsprekend ook experts op het snijvlak van techniek, wet- en regelgeving en ethiek die kunnen adviseren over verantwoorde inzet. Het kabinet investeert in de AI-fabriek, juist om deze technologie op onze voorwaarden in te kunnen zetten.
Stelt de overheid zelf proactief betrouwbare en representatieve data beschikbaar voor het ontwikkelen van ethische AI- toepassingen door Nederlandse en Europese leveranciers? Zo ja, kunt u toelichten om welke data het gaat?
Het actief beschikbaar stellen van betrouwbare, toegankelijke en representatieve data is een belangrijke voorwaarde voor het ontwikkelen van ethische AI-toepassingen. De overheid vervult hierin een faciliterende en kaderstellende rol, in samenwerking met publieke en private partners op nationaal en Europees niveau. Op data.overheid.nl zijn op dit moment meer dan 20.000 open datasets te vinden. Het uitgangspunt van het kabinet is dat alle open data die door Nederlandse overheden gepubliceerd wordt, geschikt is voor het ontwikkelen van ethische AI-toepassingen. Deze data wordt niet proactief beschikbaar gesteld specifiek voor het ontwikkelen van ethische AI-toepassingen door Nederlandse en Europese leveranciers. In beginsel is open data immers rechtenvrij en bevat het geen persoonsgegevens, waardoor het wel voor dit doel ingezet kan worden.
Nederland werkt actief mee aan de ontwikkeling van sectorale Europese dataspaces (zoals voor zorg, energie en landbouw), die onder meer betrouwbare en controleerbare data-infrastructuren bieden. Ook wordt gewerkt aan het Centre for Data Sharing & Cloud, het Nederlandse kennisnetwerk dat vrijwillige datadeling binnen en tussen sectoren bevordert, en het Nationaal Groeifonds. Het Nationaal Groeifonds is een katalysator geweest voor de ontwikkeling van data-ecosystemen in Nederland. In de eerste ronde financierde het Groeifonds Health-RI, een project dat het gebruik van gezondheidsdata stimuleert. In de tweede ronde financierde het Groeifonds Digitale Infrastructuur Logistiek (DIL), dat betrouwbare datadeling in de logistieke sector mogelijk maakt. Evenals Dutch Metropolitan Innovations (DMI), dat data-uitwisseling voor (stedelijke) mobiliteit, openbare ruimte en huisvesting faciliteert.
De Nederlandse overheid stelt, onder andere via PDOK, data.overheid.nl en Statline, hoogwaardige open data ter beschikking die allemaal via gecontroleerde metadatering machine-leesbaar en laagdrempelig beschikbaar zijn voor iedereen binnen en buiten Nederland (FAIR), en daarmee ook voor AI-toepassingen. Deze geanonimiseerde data is veilig te gebruiken ten aanzien van privacy. Zo stellen de ministeries van Economische Zaken (EZ), Klimaat en Groene Groei (KGG), en Landbouw, Visserij, Voedselzekerheid en Natuur (LVVN), en organisaties binnen het concern open data proactief beschikbaar en kan deze data worden gebruikt voor dit doel. Specifiek heeft het Centraal Bureau voor de Statistiek (CBS) tot taak het van overheidswege verrichten van statistisch onderzoek ten behoeve van praktijk, beleid en wetenschap en het openbaar maken van de op grond van zodanig onderzoek samengestelde statistieken. Daarmee is het CBS een belangrijke leverancier van hoogwaardige open data. Daarbij worden vele thema’s bestreken. Een van die thema’s is emancipatie. Aangezien de open data vrijelijk te downloaden en te gebruiken is, is het niet mogelijk bij te houden welke data waarvoor wordt gebruikt.
Bij het beschikbaar stellen van data wordt zorgvuldig aandacht besteed aan ethische randvoorwaarden, zoals het waarborgen van privacy en gegevensbescherming (volgens de AVG), het voorkomen van bias en het bevorderen van representativiteit van datasets, en transparantie over herkomst, kwaliteit en beperkingen van data.
Op welke manier bent u van plan om de Routekaart voor Vrouwenrechten toe te passen in het nationaal beleid?
In de kabinetsappreciatie over de nieuwe initiatieven van het Commissie Werkprogramma 2025 is medegedeeld dat het kabinet de roadmap voor vrouwenrechten verwelkomt.16 Het kabinet ziet graag verdere inspanningen die nodig zijn om de kabinetsbrede prioriteiten voor het Nederlands emancipatiebeleid te realiseren. Daarom worden de doelen uit de roadmap betrokken bij de uitwerking van de emancipatieprioriteiten ‘iedereen moet veilig kunnen zijn’ en ‘iedereen moet kunnen meedoen’, zie ook het antwoord op vraag 14.17
Hoe rijmen de voorgenomen bezuinigingen op het gebied van emancipatie met de groeiende uitdagingen met betrekking tot vrouwenrechten en rechten van lhbtqia+-personen?
In het regeerprogramma zijn er keuzes gemaakt om de overheidsfinanciën gezond te houden. Deze bezuiniging daalt ook neer op het emancipatiedomein. Dit betekent dat vanuit emancipatie wordt ingezet op onderwerpen waar de kans op succes het grootst is. Het kabinet stelt daarom twee prioriteiten: ‘iedereen moet veilig kunnen zijn’ en ‘iedereen moet volwaardig kunnen meedoen’.18
Het effect van de voorgenomen bezuinigingen op het beschikbare subsidiebudget voor emancipatie is klein en lopende subsidies worden niet beïnvloed door de voorgenomen bezuinigingen.
Op welke manier verwacht u dat de Routekaart voor Vrouwenrechten gaat bijdragen aan gendergelijkheid in de Europese lidstaten die achterlopen op het Europees gemiddelde?
De roadmap dient als startschot voor de consultatie voor de nieuwe Europese strategie voor gendergelijkheid, die naar verwachting begin 2026 wordt gepubliceerd. Dit Europese beleidskader en mogelijk daaruit voortvloeiende wetsvoorstellen zijn EU-breed toepasbaar en helpen daardoor ook andere landen vooruit. De vorige strategie heeft ook in Nederland geleid tot concrete wetgeving op bijvoorbeeld het terrein van loontransparantie.
Deelt u de zorgen dat gendergelijkheid in enkele EU-lidstaten, waaronder Hongarije en Polen, steeds verder achterop raakt?
Het kabinet maakt zich zorgen over de inperking van de rechten van vrouwen en lhbtqia+ personen, ook in Europa. Samen met de minister van Buitenlandse Zaken zet de staatssecretaris van OCW zich daarom structureel in om de fundamentele rechten en vrijheden in de EU te beschermen.19 Het kabinet vindt de recente anti-lhbtqia+-wetswijzigingen die zijn aangenomen in Hongarije zeer zorgelijk en heeft deze zorgen en afkeuring reeds op verschillende manieren overgebracht.20
Nederland heeft, namens achttien lidstaten, tijdens de informele EPSCO-gelijkheid van 16 april jl. een verklaring afgelegd waarin deze zorg scherp wordt geuit. Daarnaast heeft Nederland het initiatief genomen voor een tweede verklaring richting de Raad Algemene Zaken van 27 mei jl., die door twintig lidstaten is ondertekend.21 Hierin wordt Hongarije expliciet opgeroepen deze discriminerende wetgeving te herzien. Ook wordt de Europese Commissie verzocht volledig gebruik te maken van de rechtsstaatinstrumenten die zij ter beschikking heeft.
Bent u het ermee eens dat de situatie van Roma in de EU zorgwekkend is?
Ja. Dit blijkt ook uit recentelijk onderzoek van het FRA (European Union Agency for Fundamental Rights).22
Zou u nader kunnen toelichten in hoeverre de huidige beleidsmaatregelen ter bevordering van de gelijkheid, inclusie en participatie van de Roma en Sinti effectief is gebleken?
De maatschappelijke positie van Sinti en Roma in Nederland is nog altijd kwetsbaar. Zo zijn Sinti en Roma in het hoger onderwijs ondervertegenwoordigd, is de arbeidsmarktparticipatie relatief laag en ervaren zij op veel gebieden discriminatie. Dit blijkt uit de Monitor Sociale Inclusie 2023 naar de woon- en leefomstandigheden van Sinti en Roma in Nederland waarover uw Kamer op 5 juni 2024 is geïnformeerd.
Tegelijkertijd zijn de resultaten ook hoopvol op terreinen als onderwijs en de rol van jongeren en jonge Sinti en Roma ouders. Zo benoemen professionals in de Monitor een voorzichtige stijging in het onderwijsniveau van Sinti en Roma kinderen. Jonge ouders, die zelf volledig onderwijs hebben genoten, spelen daar een belangrijke rol in. Deze voorzichtige ontwikkeling in het onderwijsniveau kan volgens de onderzoekers voor de Sinti en Roma op termijn doorwerken in andere levensdomeinen.
Zou u tevens nader kunnen toelichten in hoeverre verdere inspanningen vereist zijn ter bevordering van de gelijkheid, inclusie en participatie van de Roma en Sinti?
Om de maatschappelijke positie van Sinti en Roma te verbeteren hanteert Nederland, in lijn met het strategisch EU-kader, een generieke beleidsaanpak, aangevuld met specifieke maatregelen daar waar nodig. Op 5 juni 2024 is er een overzicht van dit beleid als bijlage van de Monitor met uw Kamer gedeeld. Om de posities van Sinti en Roma te verbeteren is onverminderd en langdurige inzet van vele partijen cruciaal.
Zou u nader kunnen toelichten welke concrete maatregelen u neemt om de weerbaarheid van jonge mannen te vergroten met betrekking tot desinformatie en schadelijke wereldbeelden, zoals die gedeeld worden in de ‘manosphere’?
Het kabinet zet in op de aanpak van desinformatie binnen de Rijksbrede strategie effectieve aanpak desinformatie.23 Deze aanpak wordt gecoördineerd door het ministerie van BZK. Binnen de aanpak zijn maatregelen opgenomen voor zowel het aanpakken van de verspreiders en verspreiding van desinformatie, als maatregelen die bijdragen aan het versterken van de weerbaarheid van leerlingen en burgers tegen desinformatie. Als onderdeel van de strategie financiert het ministerie van OCW het Netwerk Mediawijsheid. Netwerk Mediawijsheid heeft vier maatschappelijke opgaven geïdentificeerd: (1) plezier, grip en profijt bij een leven in media, (2) digitale balans, (3) samen sociaal online en (4) weerbaarheid tegen desinformatie. Ook zet het kabinet in op digitale weerbaarheid door in het onderwijs aandacht te besteden aan digitale geletterdheid en burgerschap. De conceptkerndoelen die dit jaar voor beide leergebieden zijn gepubliceerd, schrijven scholen voor om aandacht te besteden aan de omgang met digitale media en de online identiteit van leerlingen.24 Daarnaast wil het kabinet discriminerende, racistische en haatdragende uitingen online tegengaan en voorkomen. Daarom komt de minister van BZK nog voor de zomer met het plan van aanpak tegen online discriminatie, racisme en hate speech. Tevens loopt er vanuit het ministerie van Sociale Zaken en Werkgelegenheid (SZW) een opdracht voor het opzetten van een samenwerkingsverband over de online sociale norm aan Netwerk Mediawijsheid en Diversion. In deze pilot werken jongeren op lokaal niveau verschillende interventies uit gericht op het tegengaan van online discriminatie, hate speech, radicalisering en polarisatie. Deze pilot zal naar verwachting aan het einde van het jaar worden afgerond. Ten slotte erkent het kabinet het belang van bewustwording en het aanpakken van ongelijkheid en schadelijke stereotypen. In het plan van aanpak ‘Stop femicide!’ is aangekondigd dat - in aanvulling op het bestaande emancipatiebeleid - een mannenalliantie opgericht zal worden door de staatssecretaris van OCW. Het streven is dat de alliantie begin 2026 is opgericht.
Welke bewezen effectieve methoden zijn er om online radicalisering te voorkomen?
Ontwikkelingspaden van (online) radicalisering zijn uiterst complex, waarbij zowel online als offline factoren (zoals de persoonlijke leefomgeving, psychologische en sociale omstandigheden en toegang tot gesloten chatgroepen met terroristische of extremistische content) een rol spelen en op elkaar inwerken. Deze complexiteit bemoeilijkt het aanwijzen van bewezen effectieve methoden om online radicalisering te voorkomen. Wel bestaan er strategieën, digitale weerbaarheidstrainingen en interventieprogramma’s die bijdragen aan het voorkomen van online radicalisering, waarbij de effectiviteit varieert afhankelijk van context, doelgroep en platform. Zo blijkt uit het WODC-onderzoek ‘Rechtsextremisme op sociale media platforms? Ontwikkelingspaden en handelingsperspectieven’ dat naast de versterkende werking van aanbevelingsalgoritmen ook het zoekgedrag van internetgebruikers een factor van belang kan zijn in een mogelijk radicaliseringsproces.25 Interventies die dit zoekproces remmen of onderbreken kunnen daarom effectief zijn om verdere radicalisering te voorkomen. Een voorbeeld hiervan is de ReDirect methode, waarbij ter onderbreking van een zoekproces naar extremistische of terroristische content een informatieveld met online hulpaanbod wordt aangeboden. Een algehele evaluatie van de effectiviteit daarvan vindt na afloop van de pilot plaats.
Daarnaast is een preventieve aanpak van belang, zoals genoemd in diverse onderzoeken naar online radicalisering.26 Het ministerie van SZW heeft recent een inventarisatie laten uitvoeren van lokale interventies ter preventie van radicalisering en polarisatie, en hun bewezen effectiviteit.27 Dit rapport besteedt ook aandacht aan bewezen effectieve interventies gericht op het versterken van digitale weerbaarheid en mediawijsheid. Een voorbeeld hiervan is het lesprogramma ‘Under Pressure’ voor jongeren. Deze methode richt zich op democratisch burgerschap en het weerbaar maken tegen desinformatie, en is in opdracht van het ministerie van SZW en de NCTV geëvalueerd.28 Daarnaast zijn er verschillende lokale interventies gericht op digitale weerbaarheid gefaciliteerd en geëvalueerd vanuit de Agenda Veerkrachtige en Weerbare Samenleving. De resultaten van deze evaluaties komen na afronding van de pilotfase van het programma eind 2025 online beschikbaar. De aankomende periode zal de staatsecretaris Participatie en Integratie via de Actieagenda Integratie en Open en Vrije Samenleving verder investeren in de ontwikkeling en evaluatie van interventies om radicalisering te voorkomen, met speciale aandacht voor de rol van online.
Met welke publieke en private partners werkt u samen om deze methoden toe te passen en jonge mannen handvatten te bieden in de online wereld?
De minister van Justitie en Veiligheid werkt samen met een online platform om de eerder genoemde ReDirect methode als pilot toe te passen. Deze methode is niet uitsluitend gericht op jonge mannen, maar op alle internetgebruikers van dit platform. In de Voortgangsbrief Versterkte Aanpak Online inzake extremistische en terroristische content wordt deze ReDirect pilot verder toegelicht, evenals de ambitie deze methode in samenwerking met meerdere online platforms te implementeren.29
Ten aanzien van het versterken van digitale weerbaarheid en
mediawijsheid is er een belangrijke rol weggelegd voor gemeenten. De
ministeries van Justitie en Veiligheid (JenV) en SZW ondersteunen vanuit
de Versterkingsgelden verschillende interventies op lokaal niveau
gericht op het vergroten van digitale weerbaarheid onder jongeren. Via
deze gelden kunnen gemeenten projecten financieren die jongeren leren
zorgwekkende online content en de mechanismen hieronder beter te
herkennen. Hierbij wordt ook samengewerkt met andere lokale partners,
zoals maatschappelijke organisaties en jongerenwerkers, die bijvoorbeeld
via online activiteiten in contact kunnen komen met lastig te bereiken
jongeren. Verder heeft het ministerie van SZW in 2022 en 2023
verschillende Decentrale Uitkeringen verstrekt aan gemeenten voor het
uitvoeren van interventies gericht op het versterken van digitale
weerbaarheid onder jongeren. Deze inzet zal middels de Actieagenda
Integratie en Open en Vrije Samenleving worden voortgezet.
Kunt u deze vragen afzonderlijk van elkaar beantwoorden?
Ja. De vragen zijn afzonderlijk beantwoord.
https://digital-strategy.ec.europa.eu/nl/factpages/netherlands-2024-digital-decade-country-report↩︎
Kamerstukken II 2024/25, 22112, nr. 4023.↩︎
https://www.nationaalgroeifonds.nl/overzicht-lopende-projecten/thema-onderwijs/techkwadraat↩︎
Kamerstukken II 2024/25, 22112, nr. 3979.↩︎
https://minbzk.github.io/Algoritmekader/voldoen-aan-wetten-en-regels/maatregelen/5-ver-03-biasanalyse/?h=bias#stap-1-analyseer-of-er-sprake-is-van-bias↩︎
Zie onder meer Kamerstukken II 2022/23, 26643, nr. 1056 en Kamerstukken II 2022/23, 26643, nr. 924.↩︎
Kamerstukken II 2022/23, 29279, nr. 759.↩︎
https://www.it-academieoverheid.nl/actueel/nieuws/2024/10/29/nieuwe-radio-e-learning-non-discriminatie↩︎
https://realisatieibds.nl/groups/view/f4f03425-8bd0-4781-890a-630609ff0c2b/digitale-ethiek-voor-overheden↩︎
https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai↩︎
https://minbzk.github.io/Algoritmekader/voldoen-aan-wetten-en-regels/maatregelen/3-dat-01-datakwaliteit/?h=datakwaliteit↩︎
Zie hoofdstuk 6 van de handreiking, bijlage bij Kamerstukken II 2024/25, 26643, nr. 1331.↩︎
Kamerstukken II 2024/2025, 36715, nr. 1.↩︎
Kamerstukken II 2024/2025, 30420, nr. 414.↩︎
Kamerstukken II 2024/2025, 30420, nr. 414.↩︎
Kamerstukken II 2024/2025, 30420, nr. 415.↩︎
Kamerstukken II 2024/2025, nr. 1950 en Kamerstukken II 2024/2025, nr. 1894.↩︎
Declaration of Austria, Belgium, Cyprus, Czechia, Denmark, Estonia, Finland, France, Germany, Greece, Ireland, Latvia, Lithuania, Luxembourg, Malta, the Netherlands, Portugal, Slovenia, Spain, Sweden | Diplomatic statement | Government.nl↩︎
FRA (2022) Roma in 10 European Countries - Main results, zie: https://fra.europa.eu/en/publication/2022/roma-survey-findings.↩︎
Kamerstukken II 2023/2024, 30821, nr. 230.↩︎
Kamerstukken II 2024/2025, 30420, nr. 415 en Kamerstukken II 2024/25, 28345, nr. 281.↩︎
https://www.nctv.nl/documenten/rapporten/2023/10/10/rapport-rechtsextremisme-op-sociale-media-platforms-en-de-invloed-van-het-algoritme↩︎
https://www.wodc.nl/actueel/nieuws/2024/09/04/radicale-reclame-hoe-werven-extremistische-groeperingen-nieuwe-leden; https://www.verwey-jonker.nl/publicatie/online-extreemrechtse-radicalisering/↩︎
https://www.socialestabiliteit.nl/publicaties/publicaties/2025/05/26/bouwstenenmodel-preventieve-aanpak-radicalisering-en-polarisatie↩︎
https://www.verwey-jonker.nl/publicatie/werken-aan-weerbaarheid-tegen-desinformatie-en-eenzijdige-meningsvorming/↩︎
Kamerstukken II 2024/2025, 29754, nr. 751.↩︎