Het artikel ‘Politie stapte in stilte af van algoritme dat kans op misdaad in buurten zou voorspellen’
Schriftelijke vragen
Nummer: 2026D08656, datum: 2026-02-26, bijgewerkt: 2026-02-26 13:04, versie: 1
Directe link naar document (.docx), link naar pagina op de Tweede Kamer site.
Gerelateerde personen:- Eerste ondertekenaar: I. el Abassi, Tweede Kamerlid (DENK)
Onderdeel van zaak 2026Z03786:
- Gericht aan: D.M. van Weel, minister van Justitie en Veiligheid
- Indiener: I. el Abassi, Tweede Kamerlid
- Voortouwcommissie: TK
Preview document (🔗 origineel)
(ingezonden 26 februari 2026)
Vragen van het lid El Abassi (DENK) aan de minister van Justitie en Veiligheid over het artikel ‘Politie stapte in stilte af van algoritme dat kans op misdaad in buurten zou voorspellen’
Bent u bekend met het NRC-artikel ‘Politie stapte in stilte af van algoritme dat kans op misdaad in buurten zou voorspellen’?[1]
Op basis van welke wettelijke grondslag werd dit predictive-policing-systeem toegepast en kunt u aangeven welke specifieke bevoegdheden hierdoor feitelijk werden uitgebreid?
In hoeveel gevallen zijn burgers gecontroleerd of benaderd zonder concrete verdenking maar uitsluitend vanwege een verhoogd risicogebied of risicoscore?
Klopt het dat bij het criminaliteitsanticipatiesysteem (CAS) geen eenduidige doelen, meetbare succescriteria en formele kwaliteitsstandaarden waren vastgesteld? Zo ja, waarom is het systeem, en daarmee predictive policing als methode, desondanks langdurig gebruikt om de aanpak van veelvoorkomende criminaliteit in bepaalde buurten te verbeteren?
Zijn er vanuit betrokken partijen, zoals bijvoorbeeld mensenrechtenorganisaties of burgers, bij de inzet van het CAS signalen gekomen dat dit systeem discriminatie in de hand werkt? Zo ja, welke signalen waren dat?
In hoeverre kunt u uitsluiten dat in bepaalde wijken waarbij een relatief hoog percentage bewoners met migratieachtergrond woont vaker onderwerp zijn geweest van toezicht door dit systeem?
Bent u ervan op de hoogte dat mensenrechtenorganisaties, waaronder Amnesty International, al geruime tijd ernstige zorgen uiten over de discriminatoire en mensenrechtelijke risico’s van predictive policing-systemen? Zo ja, waarom is er desondanks voor gekozen om dit systeem gedurende tien jaar in stand te houden?[2]
Deelt u de opvatting dat predictive-policing-systemen die racisme of discriminatie in de hand werken, uitgesloten moeten zijn binnen de Nederlandse politie?
Kunt u garanderen dat dergelijke algoritmische systemen die leiden tot etnisch profileren of indirecte discriminatie niet worden ingezet?
Bent u bereid maatregelen te nemen om het gebruik van dergelijke systemen te beperken of te verbieden? Zo nee, waarom niet?
[1] NRC, 24 februari 2026, Politie stapte in stilte af van algoritme dat kans op misdaad in buurten zou voorspellen (https://www.nrc.nl/nieuws/2026/02/24/politie-stapte-in-stilte-af-van-algoritme-dat-kans-op-misdaad-in-buurten-zou-voorspellen-a4921336).
[2] Amnesty International, 17 januari 2025, Automated Racism (https://www.amnesty.org.uk/knowledge-hub/all-resources/automated-racism/).