Lijst van vragen over artificiële intelligentie bij de politie (Kamerstuk 26643/32761-652)
Informatie- en communicatietechnologie (ICT)
Lijst van vragen
Nummer: 2020D05320, datum: 2020-02-10, bijgewerkt: 2024-02-19 10:56, versie: 3
Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (nds-tk-2020D05320).
Gerelateerde personen:- Eerste ondertekenaar: P.H. van Meenen, voorzitter van de vaste commissie voor Justitie en Veiligheid (Ooit D66 kamerlid)
- Mede ondertekenaar: M.C. Burger, adjunct-griffier
Onderdeel van zaak 2019Z24000:
- Indiener: F.B.J. Grapperhaus, minister van Justitie en Veiligheid
- Voortouwcommissie: vaste commissie voor Justitie en Veiligheid
- 2019-12-10 15:45: Regeling van werkzaamheden (Regeling van werkzaamheden), TK
- 2019-12-18 14:30: Procedures en brieven (Procedurevergadering), vaste commissie voor Justitie en Veiligheid
- 2020-02-10 10:00: Artificiële intelligentie bij de politie (Inbreng feitelijke vragen), vaste commissie voor Justitie en Veiligheid
- 2020-02-20 14:00: Politie (Algemeen overleg), vaste commissie voor Justitie en Veiligheid
- 2020-03-11 14:30: Procedures en brieven (Procedurevergadering), vaste commissie voor Justitie en Veiligheid
- 2020-03-12 14:30: Regeling van werkzaamheden (Regeling van werkzaamheden), TK
Preview document (🔗 origineel)
2020D05320 LIJST VAN VRAGEN
De vaste commissie voor Justitie en Veiligheid heeft een aantal vragen voorgelegd aan de Minister van Justitie en Veiligheid over de brief van 3 december 2019 inzake Artificiële intelligentie bij de politie (Kamerstuk 26 643, nr. 652).
De voorzitter van de commissie,
Van Meenen
De adjunct-griffier van de commissie,
Burger
Nr. | Vraag |
1 | Wordt aan de Tweede Kamer inzicht verschaft over de toepassing van artificiële intelligentie (AI) door de politie en zo ja, hoe en wanneer? |
2 | Hoe staat het met de digitale geletterdheid van de politieagenten in Nederland? |
3 | Wanneer vindt de evaluatie van de wet Computercriminaliteit III plaats? |
4 | Hoe wordt AI toegepast op het gebied van de financiële misdaad? |
5 | Op welke wijze wordt de naleving van het legaliteitsbeginsel bij de inzet van AI door de politie gegarandeerd? |
6 | Worden private bedrijven betrokken bij het ontwerp van AI systemen bij de politie en zo ja, welke? Hoever strekt die samenwerking? |
7 | Wordt overwogen te gaan werken of experimenteren met realtime gezichtsherkenning? |
8 | Wordt overwogen of al geëxperimenteerd met het gebruiken van het Criminaliteits Anticipatie Systeem (CAS) voor misdrijven die buiten de categorie van High Impact Crimes vallen? |
9 | Hoe wordt de noodzaak om bias te voorkomen geadresseerd bij het gebruik van kunstmatige intelligentie binnen de politie? |
10 | Kan predictive policing een opsporingsmethode genoemd worden? |
11 | Past het gebruik van realtime gezichtsherkenning door voormalig EU-collega Engeland binnen het Coordinated Plan on Artificial Intelligence van de EU? |
12 | Hoe verhoudt predictive policing zich tot het beginsel dat er sprake moet zijn van een redelijk vermoeden van een strafbaar feit, een verdenking, voordat overgegaan kan worden tot opsporing? |
13 | Wordt overwogen iets te doen aan predictive identification, een vorm van predictive policing waarin personen of groepen aangewezen kunnen worden als potentiële misdadigers of slachtoffers van bepaalde strafbare feiten? |
14 | Wie is er verantwoordelijk voor (eventuele) fouten van AI? |
15 | Kan worden aangegeven waar Nederland staat in vergelijking tot andere Europese landen als het gaat om de ontwikkeling en toepassing van AI? |
16 | Wat voor invloed heeft de SyRi-uitspraak op de manier waarop de politie AI toepast? |
17 | Kunt u, zo nodig vertrouwelijk, een overzicht geven welke AI toepassingen op dit moment in bedrijf of in ontwikkeling zijn bij de politie? |
18 | Als in de brief gesproken wordt over (big) data, wordt dan enkel gedoeld op databestanden die de politie zelf aanhoudt en grotendeels vallen onder de werking van de Wet politiegegevens, of wordt dan ook gedoeld op publieke databestanden, hetzij van andere overheden hetzij publieke data die via internet benaderbaar zijn? Klopt het beeld dat de politie nu al gebruik maakt van data-mining? Kunt u, zo nodig vertrouwelijk, een overzicht geven van de toepassing van data-mining binnen en door de politie? |
19 | Hoe gaat de politie, specifiek als het gaat om AI toepassingen, om met de «Richtlijnen inzake publieksvoorlichting over data-analyses» (bijlage 1.2 bij Kamerstuk 26 643, nr. 641, d.d. 8 oktober 2019)? Klopt het dat deze richtlijn als uitgangspunt heeft een actieve informatieverstrekking vanuit de betrokken overheidsorganisatie aan het publiek, inclusief expliciete vermelding in een privacystatement op de eigen website van in dit geval de politie? Deelt u de observatie dat dergelijke informatie op dit moment niet te vinden is op de website van de politie? Gaat hier op korte termijn verandering in komen? |
20 | Kent u de bijlage «Toelichting op typen data-analyses waarvoor wettelijke waarborgen zullen gaan gelden» (bijlage 2 bij Kamerstuk 26 643, nr. 641, d.d. 8 oktober 2019)? Wat betekent het in deze bijlage geformuleerde voornemen om tot wettelijke waarborgen voor twee typen data-analyse te komen, profilering en gebiedsgebonden analyse, voor de ontwikkeling van AI binnen de politie? Behoren niet juist deze twee typen data-analyse tot de kern van het politiewerk en dreigt hiermee niet een rem te ontstaan op innovaties? |
21 | Is er, gezien het feit dat uit de brief duidelijk wordt dat ethiek in de ontwikkeling van AI toepassingen binnen de politie een belangrijke rol speelt, sprake van een politie-specifiek ethisch document of een ethische guideline aan de hand waarvan AI toepassingen worden ontwikkeld en getoetst? Welk houvast hebben ontwikkelaars, leidinggevenden, interne en externe toezichthouders bij het beoordelen en toetsen van de voortgang van projecten? Wordt hier de hulp ingeroepen van externe deskundigen? |
22 | Welke kennis rond AI en big data is aanwezig bij het lijnmanagement, bij de korpscontroller en bij de afdeling Concernaudit? Kunt u deze vraag specifiek beantwoorden, inclusief verwijzing naar relevante werkervaring en opleidingen? |
23 | Welke rol speelt de functionaris gegevensbescherming op korpsniveau in het toezicht op de ontwikkeling van AI toepassingen? |
24 | In hoeverre zijn beslisbomen daadwerkelijk altijd neutraal? Kunnen beslisbomen impliciete aannames bevatten, die helemaal niet neutraal zijn? |
25 | Klopt het dat beslisbomen niet altijd neutraal zijn, maar vaak impliciete aannames bevatten en in een bepaalde richting kunnen tenderen? Herinnert u zich de beslisboom van het Ministerie van Economische Zaken (EZ) van maart 2000, over marktwerking en privatisering? Klopt het dat het invullen van deze beslisboom in bijna alle gevallen leidde tot het advies om over te gaan tot privatisering en/of marktwerking? Klopt het dat dit een weerspiegeling was van het toenmalige marktdenken op het Ministerie van EZ? Klopt het dat beslisbomen helemaal niet neutraal zijn? Waarom is het dan «helder dat hier geen bijzonder beleid voor nodig is»? |
26 | Als de privatiseringsbeslisboom van het Ministerie van EZ van 2000 niet neutraal was, kunt u dan uitsluiten dat de algoritmes, beslisbomen en risicotaxaties van de politie evenmin neutraal zijn? Op welke manier kan een dergelijke vooringenomenheid of bias uitgesloten worden? |
27 | Wie of welke instantie beoordeelt de neutraliteit van algoritmes? Welke rol kunnen de Autoriteit Persoonsgegevens (AP), de Koninklijke Nederlandse Akademie van Wetenschappen (KNAW), de Nederlandse Organisatie voor Wetenschappelijk Onderzoek (NWO) en de Algemene Rekenkamer daarbij spelen? |
28 | Waar ligt de grens tussen intelligent gedrag van systemen en systemen die eerder invoerde aannames uitvoeren? Klopt het dat deze grens niet scherp te trekken is, en er een groot grijs gebied is tussen intelligent gedrag en ingevoerd of geïnduceerd gedrag? Hoe beoordeelt u in dit kader de uitspraak «Het is gevaarlijk als alleen witte mannen algoritmes maken» van dhr. Frans Muller (Forum, «Frans Muller: bedrijven moeten ethisch omgaan met data»)? |
29 | Zijn algoritmes en AI niet te vergelijken met een zichzelf bevestigende grabbelton, onder het motto «wat je er in stopt, haal je er ook weer uit»? Lopen AI toepassingen daarmee niet het risico een echoput te worden van vooroordelen en/of vooringenomenheid, waaronder ook racisme en discriminatie? Hoe kunt u dit uitsluiten? Wie of welke instantie toetst hierop? Is er een toetsing denkbaar die analoog is aan de toetsing uit de Sleepwet van 2018, met een commissie die noodzaak en proportionaliteit beoordeelt? Zo nee, op welke manier is dan een toetsing mogelijk? |
30 | In hoeverre wordt AI nu al toegepast door de politie als het gaat om het beoordelen van meldingen van oplichting? Is hetgeen te zien is in het tv-programma TROS Radar maatgevend voor hoe AI functioneert? Klopt het dat meer dan de helft van de opgelichte mensen van de politie het advies krijgt om een advocaat in de arm te nemen, en dat de politie de aangifte niet wil opnemen, omdat het civiele zaken zou betreffen en geen strafrechtelijke zaken? In hoeverre kan AI werken, als de menselijke beoordeling van oplichtingszaken nu al niet werkt? Wordt de toepassing van AI dan niet een foutenfestival in het kwadraat? |
31 | Wordt ook overwogen om het Juridisch Loket te vervangen door AI? Zal zo'n Juridische Robot een positief of een negatief effect hebben op de kwaliteit van de advisering? |
32 | Zijn politieagenten op straat ook te vervangen door AI? Aan welke concrete verschijningsvorm kan daarbij gedacht worden? Moet daarbij gedacht worden aan een variant op Robocop (een figuur uit een Amerikaanse sciencefiction-actiefilm uit 1987 en 2014)? |
33 | Wat waren de positieve en negatieve kanten aan het functioneren van Robocop, in uw ogen? Kunt u hierbij ook ingaan op de kwaliteiten van Judge Dredd (een Amerikaanse actiefilm uit 1995)? Valt de Terminator (1984 e.v.) volgens u ook onder de gewenste AI? |
34 | In hoeverre maken criminelen ook gebruik van AI? Gebruiken cybercriminelen ook algoritmes en AI om slachtoffers te kiezen voor hackaanvallen? Op welke manier kan dit tegengegaan worden? |
35 | Hoe kan de overheid en dus ook de politie de criminelen voor blijven in de technologische wedloop? Kunt u daarbij betrekken wat daarover is gezegd in Nieuwsuur van 5 februari 2020? Deelt u de daarin geuite mening dat het helemaal niet vaststaat dat de overheid deze wedloop gaat winnen van de criminelen? |
36 | Hoe gaat de overheid en dus de politie waarborgen dat men niet te afhankelijk wordt van private partijen die dit soort technologieën leveren? |
37 | Voor welke werkprocessen bouwt de politie op dit moment aan AI-toepassingen binnen de politieorganisatie? |
38 | Hoe wordt bepaald of de toepassing van AI-technologie daadwerkelijk leidt tot een reductie van administratieve lasten? |
39 | Kan worden aangegeven in hoeverre nu wordt ingezet op kennisuitwisseling met andere Europese landen als het aankomt op AI? |
40 | Welke partijen nemen naast de overheid nog meer deel aan de Nederlandse AI Coalitie? |
41 | Welke criteria worden gebruikt om partijen te selecteren voor de AI Coalitie? |
42 | Bij welke van haar taken wordt er reeds AI toegepast door de politie? |
43 | Zijn er terreinen binnen het politiewezen waar nu nog geen gebruik wordt gemaakt van AI, maar die wel kansen bieden voor het gebruik van AI? |
44 | Kan meer duidelijkheid worden gegeven over hoe wordt bepaald welke taken zullen worden uitgevoerd door de politie met hulp van AI? |
45 | In hoeverre is de theorie en toepassing van AI verankerd in de politieopleiding? |
46 | Bij welke politietaken wordt AI reeds gebruikt in het kader van de aanpak van ondermijning? Is er ruimte binnen dit domein om meer AI te gebruiken? Hoe wordt dit getoetst? |
47 | Op welke wijze zet de overheid zich in om actief discriminatie te voorkomen in de AI systemen van politie? |
48 | Op welke wijze toetst de politie de afwezigheid van discriminatie in AI systemen? |
49 | Welke externe partijen zoals (universiteiten, bedrijven en individuen werken op dit moment samen met de politie bij het ontwikkelen van AI toepassingen? Kunt u beschrijven op welke wijze deze externe partijen met de politie samenwerken, indachtig de opmerking in de brief dat de politie «niet te afhankelijk» moet worden van andere partijen? |
50 | Hoe ziet de foutmarge van AI eruit? Welke gevolgen kunnen foute beslissingen hebben, die genomen worden op basis van AI? |
51 | Kan AI ertoe leiden dat onschuldige verdachten worden aangewezen, zoals bij de Arnhemse moordzaak in 1998? Klopt het dat bij de Arnhemse moorzaak in 1998 sprake was van een discriminerende vooringenomenheid, die heeft geleid tot negen personen die onschuldig zijn veroordeeld tot jarenlange gevangenisstraffen, wat bij één persoon heeft geleid tot zelfmoord? Hoe kan het dat de Arnhemse politie op basis van een snipper foutief bewijs in een onvoorstelbare tunnelvisie terecht is gekomen? Kunt u uitsluiten dat juist AI de politie aan foutieve snippers bewijs gaat helpen, dat leidt tot nieuwe tunnelvisies? |
52 | Op welke manier gaat het wetenschappelijke karakter van het Nationale Politielab AI bewaakt worden? Welke waarborgen heeft u daarvoor ingebouwd? Welke rol gaat het Transparantielab hierbij spelen? |
53 | Wordt er een juridisch en ethisch kader opgesteld voor de toepassing van AI? |
54 | Op welke wijze legt de politie verantwoording af over de wijze hoe AI wordt toegepast? |
55 | Hoe zijn op dit moment de rechten van inwoners beschermd die deel uitmaken van een experiment, proeftuin of pilot? |
56 | Worden inwoners adequaat geïnformeerd over de gevolgen voor hun privacy-rechten? Zo ja, hoe worden zij geïnformeerd? Zo nee, waarom niet? |
57 | Wordt bij elke nieuwe toepassing van een AI techniek ook een nieuwe juridische en ethische toetsing gedaan? |
58 | Hoe worden beslissers bij de politie juridisch en ethisch getraind en opgeleid om verantwoorde besluiten te kunnen nemen op basis van door AI ondersteunde processen? Welke rol moet de Politieacademie vervullen om aan deze vaardigheidseisen te voldoen? |
59 | Welke ethische standaarden zijn er uit het onderzoek van het Nationaal Politielab AI gekomen en welke daarvan worden ook echt toegepast? |
60 | In hoeverre bestaat er oefenruimte voor de politie om te kunnen experimenteren met AI? |
61 | Hoeveel is reeds begroot voor het opzetten van het Nationaal Politielab AI? |
62 | In hoeverre werkt het Nationaal Politielab AI samen met het Openbaar Ministerie (OM)? |
63 | In hoeverre zet u het verlagen van de werkdruk in als strategie om de negatieve effecten van AI binnen de opsporing te voorkomen (zie het rapport Beginselen Digitaal (Rapport van een verkennend Onderzoek in opdracht van het WODC, Kamerstuk 29 279, nr. 388, waaruit blijkt dat bij een hoge werkdruk uitkomsten van de computer vaker klakkeloos worden overgenomen)? |
64 | Op welke manier zijn de informatie-extractie, de juridische toetsing en de optimalisatie van de vraagvolgorde uit elkaar te houden? Deze hangen toch allemaal met elkaar samen? |
65 | Wat voor soort publicaties over AI wil de politie in wetenschappelijke tijdschriften gaan plaatsen? Hoe voorkomt de politie daarbij dat de criminelen meelezen? Of wordt er gemakshalve vanuit gegaan dat criminelen dit niet gaan doen? |
66 | Met welke private partijen werkt de politie samen in het kader van AI? Indien geen private partijen worden betrokken bij de ontwikkeling en toepassing van kunstmatige intelligentie in de politiepraktijk, waarom niet? |
67 | Met welke nationale of internationale kennispartners werkt de politie samen? Hoe wordt geborgd dat zij geen veiligheidsrisico kunnen vormen? |
68 | Hoe wordt de betrouwbaarheid van kennispartners van de politie getoetst en wordt deze toetsing regulier uitgevoerd? |
69 | In hoeverre wordt de Tweede Kamer geïnformeerd over de uitkomsten van onderzoek op het gebied van AI bij de politie? |
70 | Kunt u het interne kwaliteitskader big data dat de politie samen met het OM in het kader van het programma Toekomstbestendig Opsporen en Vervolgen heeft opgesteld zo nodig vertrouwelijk delen met de Tweede Kamer? Hoe verhoudt dit interne kader zich tot de ministerieel vastgelegde «richtlijnen voor het toepassen van algoritmes door overheden» (bijlage 1 bij Kamerstuk, 26 643, nr. 641, dd. 8 oktober 2019)? |
71 | Op welke wijze wordt discriminatie als onbedoeld gevolg van de toepassing van AI voorkomen? |
72 | Waarom stelt u in de brief dat «de politie zijn eigen strengste criticaster is»? Hoe relateert u deze uitspraak aan het functioneren van de politie in de Arnhemse moordzaak, niet alleen in 1998–1999, maar ook nu? Is er in de afgelopen 22 jaar enige vorm van zelfreflectie geweest? Klopt het dat de politie helemaal niet «zijn eigen strengste criticaster» is maar juist het tegenovergestelde? Namelijk dat door een interne angst- en suppressiecultuur geen enkele zelfreflectie mogelijk is, afgezien van een enkeling die inmiddels met pensioen is? |
73 | Op welke manier houdt de Inspectie voor Justitie en Veiligheid toezicht op het gebruik van AI door de politie? Hoeveel fte heeft de Inspectie daarvoor beschikbaar? Heeft de Inspectie daarvoor de benodigde expertise en welke vorm neemt deze expertise aan? |
74 | Klopt het dat het boek «1984» (met daarin Big Brother) uit 1948, en de daarin beschreven surveillancestaat, in China inmiddels een realiteit geworden is? Kunt u uitsluiten dat elementen van zo’n politiestaat in Nederland ingang zullen vinden? |
75 | Wie controleert de effecten van een Data Protection impact assessment? Welke rol spelen de AP en de Auditdienst Rijk hierin? |
76 | Welke externe toezichthouders hebben of krijgen inzicht in het interne kwaliteitskader dat door politie en OM wordt gehanteerd? |
77 | Kunnen burgers inzien welke data van hen gebruikt worden door AI bij de politie? |
78 | Worden er enkel data gebruikt van burgers die in contact zijn geweest met justitie, of gaan de data ook over «reguliere» burgers? |
79 | Welke strafbare feiten met behulp van algoritmes en AI worden er gepleegd, en hoe vaak kwamen deze strafbare feiten in 2019 voor? |
80 | Bij wie ligt de verantwoordelijkheid voor monitoring van de toepassing van AI bij politietaken? Zit daar een bepaalde evaluatietermijn aan vast? |
81 | Welke mechanismen worden in werking gesteld op het moment dat discriminatie wordt opgemerkt in het ontwerp, gebruik of de uitkomst van AI systemen? |
82 | Welke stappen zijn er ondernomen om te voorkomen dat de AI systemen van de politie voornamelijk worden gericht op gemarginaliseerde groepen in de samenleving? Hoe vindt de evaluatie van dit soort waarborgen plaats? |