Het gebruik van discriminerende algoritmes en massasurveillance door de politie.
Schriftelijke vragen
Nummer: 2020D38292, datum: 2020-10-01, bijgewerkt: 2024-02-19 10:56, versie: 2
Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (kv-tk-2020Z17696).
Gerelateerde personen:- Eerste ondertekenaar: M.J.T.G. van Beukering-Huijbregts, Tweede Kamerlid (Ooit D66 kamerlid)
- Mede ondertekenaar: K. Verhoeven, Tweede Kamerlid (Ooit D66 kamerlid)
Onderdeel van zaak 2020Z17696:
- Gericht aan: F.B.J. Grapperhaus, minister van Justitie en Veiligheid
- Gericht aan: S. Dekker, minister voor Rechtsbescherming
- Indiener: M.J.T.G. van Beukering-Huijbregts, Tweede Kamerlid
- Medeindiener: K. Verhoeven, Tweede Kamerlid
- Voortouwcommissie: TK
Preview document (🔗 origineel)
Tweede Kamer der Staten-Generaal | 2 |
Vergaderjaar 2020-2021 | Vragen gesteld door de leden der Kamer |
2020Z17696
Vragen van de leden Van Beukering-Huijbregts en Verhoeven (beiden D66) aan de Ministers van Justitie en Veiligheid en voor Rechtsbescherming over het gebruik van discriminerende algoritmes en massasurveillance door de politie. (ingezonden 1 oktober 2020).
Vraag 1
Bent u bekend met het bericht «Nederland: maak een einde aan gevaarlijke politie-experimenten met massasurveillance»?1
Vraag 2
Hoeveel projecten zijn er op dit moment waarbij de politie gebruik maakt van «predictive policing»? Op welke locaties lopen deze projecten? Welke systemen worden in elk van deze projecten gebruikt?
Vraag 3
Hoe toetst de politie projecten waarbij surveillance data verzameld wordt aan eisen op het gebied van privacy?
Vraag 4
Hoe wordt voorkomen dat bestaande vooroordelen doorwerken in «predictive policing» systemen en op die manier leiden tot discriminatie?
Vraag 5
Hoe duidt u het oordeel van Amnesty International dat projecten als het Sensing-project in Roermond de rechten op privacy, databescherming en non-discriminatie schenden?
Vraag 6
Hoe duidt u de analyse van Amnesty International die uiteenzet hoe het Sensing-project door het ontwerp («discrimination by design») automatisch leidt tot etnisch profileren? Kunt u daarbij bijvoorbeeld in gaan op het gegeven dat de politie in de definitie van «mobiel banditisme» alleen bepaalde nationaliteiten meeneemt?
Vraag 7
Hoe verhoudt het staande houden van voertuigen op basis van een algoritmisch model zich tot het handelingskader proactief controleren, dat stelt dat proactieve controles plaats dienen te vinden op basis van een redelijk vermoeden van schuld?
Vraag 8
Heeft de politie een kader aan de hand waarvan de bewezen positieve effecten van nieuwe technologieën worden afgewogen tegen de mogelijke negatieve maatschappelijke effecten, bijvoorbeeld op het gebied van privacy en discriminatie? Zo ja, tot welke afweging heeft dit geleid bij de inzet van «predictive policing»? Zo nee, op basis waarvan wordt dan een afweging gemaakt om nieuwe technologieën te implementeren?
Vraag 9
Bent u bereid de aanbeveling van Amnesty International over te nemen om het Sensing-project stop te zetten en de verzamelde data te vernietigen? Zo nee, waarom niet?
Vraag 10
Welke andere projecten worden uitgevoerd door de overheid waarbij geëxperimenteerd wordt met kunstmatige intelligentie? Bij welk van die projecten wordt gehandeld op basis van voorspellingen die gedaan worden door een algoritme? Welke wettelijke kaders dienen daarbij als basis en wie ziet toe op de naleving daarvan?
Vraag 11
Hoe staat het met de uitwerking van de waarborgen tegen risico’s van data-analyses door de overheid, zoals aangekondigd in uw brief van 8 oktober 2019? Hoe bent u van plan toezicht te houden op lopende experimenten met voorspellende algoritmes totdat de richtlijnen voor de gehele rijksoverheid zijn geïmplementeerd die privacy en non-discriminatie waarborgen?2