[overzicht] [activiteiten] [ongeplande activiteiten] [besluiten] [commissies] [geschenken] [kamerleden] [kamerstukdossiers] [open vragen]
[toezeggingen] [stemmingen] [verslagen] [🔍 uitgebreid zoeken] [wat is dit?]

Inbreng verslag van een schriftelijk overleg over de initiatiefnota van het lid Middendorp: Menselijke grip op algoritmen (Kamerstuk 35212-2)

Initiatiefnota van het lid Middendorp: Menselijke grip op algoritmen

Inbreng verslag schriftelijk overleg

Nummer: 2019D36296, datum: 2019-09-18, bijgewerkt: 2024-02-19 10:56, versie: 3

Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (nds-tk-2019D36296).

Gerelateerde personen:

Onderdeel van zaak 2019Z10701:

Onderdeel van activiteiten:

Preview document (🔗 origineel)


2019D36296 INBRENG VERSLAG VAN EEN SCHRIFTELIJK OVERLEG

De vaste commissie voor Justitie en Veiligheid heeft een aantal vragen en opmerkingen voorgelegd aan de initiatiefnemer over menselijke grip op algoritmen (Kamerstuk 35 212).

De voorzitter van de commissie,
Van Meenen

Adjunct-griffier van de commissie,
Burger

I Vragen en opmerkingen vanuit de fracties

1. Inleiding

2. Menselijke grip op Algoritmen

2.1. Aanleiding

2.2. Doel en strekking

3. Concrete stappen naar menselijke grip op algoritmen

3.1. Voorstellen voor menselijke grip op algoritmen

3.1.1. Samenwerking op algoritmebeleid binnen en buiten Nederland

3.1.2. Betekenisvolle transparantie en bewustwording

3.1.3. Mensen instrumenten geven om online weerbaar te zijn

3.1.4. Inzicht door toezicht

4. De huidige stand van zaken en uitvoering

4.1. Stand van zaken en wettelijk kader

5. Financiële consequenties

6. Beslispunten

7. Overig

I. Vragen en opmerkingen vanuit de fracties

1. Inleiding

De leden van de VVD-fractie hebben verheugd kennisgenomen van de initiatiefnota van het lid Middendorp: Menselijke grip op algoritmen (hierna: de initiatiefnota). Zij onderschrijven het belang om een helder kader te creëren waarbinnen de kansen die algoritmen bieden op een veilige manier gewaarborgd zijn. Wel hebben voornoemde leden nog enkele vragen aan de initiatiefnemer.

De leden van de CDA-fractie hebben met belangstelling kennisgenomen van de initiatiefnota. Zij danken de initiatiefnemer voor het werk dat is gestopt in de totstandkoming van de nota. Deze snijdt een zeer actueel en relevant punt aan, namelijk welke rol algoritmen in onze samenleving spelen en hoe de overheid daarmee om dient te gaan. De aan het woord zijnde leden moedigen elke mogelijkheid om dit onderwerp te bespreken aan. Zij hebben echter wel vragen bij de opzet van de initiatiefnota en de voorgestelde plannen.

De leden van de D66-fractie hebben met interesse kennisgenomen van de initiatiefnota. Zij waarderen het harde werk van de initiatiefnemer op dit belangrijke onderwerp. Deze leden hebben nog enkele vragen en opmerkingen.

De leden van de GroenLinks-fractie zijn de initiatiefnemer en zijn ondersteuning zeer erkentelijk voor het schrijven van deze initiatiefnota. Het is een zeer nuttige stap in de ontwikkeling, die in de Tweede Kamer als zeer gewenst en zelfs noodzakelijk wordt ervaren, om meer grip te krijgen op digitale ontwikkelingen. Voornoemde leden hebben nog wel een aantal vragen.

De leden van de SP-fractie danken de initiatiefnemer en zijn medewerkers voor het schrijven van deze nota. Deze leden zijn het met de initiatiefnemer eens dat het belangrijk is om meer inzicht te krijgen in algoritmen, zeker wanneer die ingrijpende gevolgen kunnen hebben voor mensen of zelfs potentieel schade kunnen toebrengen, omdat ze een steeds belangrijkere rol lijken te gaan spelen in onze samenleving. De initiatiefnota biedt de mogelijkheid om stil te staan bij de invloed die digitale ontwikkelingen, en algoritmen in het bijzonder, hebben op het leven van individuen, maar zeker ook op de samenleving als geheel. De leden van de SP-fractie maken graag van deze gelegenheid gebruik.

2. Menselijke grip op Algoritmen

2.1. Aanleiding

De leden van de VVD-fractie lezen dat de initiatiefnemer stelt dat we in Nederland de grote mogelijkheden die algoritmen bieden moeten benutten. Voornoemde leden zijn van mening dat we niet ontkomen aan het gebruik van algoritmen. Kan de initiatiefnemer aangeven welke risico’s ons land loopt en welke kansen ons land misloopt wanneer we algoritmen niet zouden reguleren?

De leden van de CDA-fractie zetten vraagtekens bij de gehanteerde definitie door de initiatiefnemer. In de initiatiefnota lijkt het erop dat «algoritme» op meerdere manieren wordt gebruikt, wat tot onduidelijkheid leidt bij de bespreking van de inzet en plannen van de initiatiefnemer, zo vrezen de aan het woord zijnde leden. Zij lezen in de inleiding terug dat een algoritme niet veel meer is dan een set instructies die tot een bepaald doel leiden. Daarmee zijn algoritmen in zeer simpele vorm in bijna elk digitaal systeem terug te vinden. Echter menen de leden van de CDA-fractie dat deze breedte van het begrip tot onduidelijkheid leidt in de plannen die gepresenteerd worden in de initiatiefnota. Daarom vragen voornoemde leden of de initiatiefnemer zijn definitie van een algoritme wil geven en dan in het bijzonder als hij spreekt over meer controle op algoritmen. Specifiek willen de aan het woord zijnde leden weten welke algoritmen de initiatiefnemer precies bedoelt.

De leden van de D66-fractie lezen dat de initiatiefnemer een aantal schadelijke gevolgen van algoritmen schetst, namelijk het overmatig tonen van anti-vaccinatie boeken, automatische selectiemechanismen die vrouwen zouden benadelen en de rol van algoritmen bij digitale inmenging. Deze leden zijn het eens met de initiatiefnemer dat dit onwenselijke ontwikkelingen zijn waar de samenleving grip op moet hebben. Op welke manier wil de initiatiefnemer grip krijgen op deze ontwikkelingen?

De leden van de SP-fractie constateren dat inmiddels niet alleen maar grote bedrijven als Facebook en Google big data verwerken met algoritmen, maar dat ook kleinere bedrijven en ook de overheid grote hoeveelheden (meta)data verzamelen en analyseren. De inlichtingen- en veiligheidsdiensten, maar ook de belastingdienst gebruiken data en algoritmen voor hun werk, en ook de politie experimenteert met voorspellende data en de inzet van SyRI (Systeem Risico Indicatie). Alleen al omdat het gebruik zo wijd verspreid is, maar niet altijd duidelijk zichtbaar is, zou het goed zijn om hierover helder en duidelijk te communiceren naar burgers. Te allen tijde. Deelt de initiatiefnemer deze mening? Zo nee, waarom niet?

Wat betreft big data leven bij de leden van de SP-fractie een aantal vragen waar de overheid zich over zou moeten buigen om vervolgens te komen tot regelgeving die een zorgvuldige verzameling van data en het zorgvuldige gebruik van algoritmen moeten gaan waarborgen: worden data verzameld, door wie en waar en welke invloed hebben dergelijke keuzes op de mogelijke vooringenomenheid (bias) in een dataset ten aanzien van wijken en groepen in de samenleving? Welke standaarden gelden er voor algoritmen, het analyseren van datasets en de gevonden statistische correlaties in termen van kwaliteit, zorgvuldigheid en herhaalbaarheid? En welke garanties zijn er dat de data-gedreven processen transparant en controleerbaar zijn en dat de data-inzet aan voldoende toezicht is onderworpen? Heeft de initiatiefnemer het idee dat deze vragen op dit moment centraal staan in het denken van de overheid? Zo nee, is het een idee om deze vragen als leidraad te laten gelden bij het opstellen van nieuwe landelijke en/of sectorale regelgeving vanuit de overheid? Is de initiatiefnemer van mening dat de mogelijkheden voor procespartijen om de collectieve en algemene belangen die met big data processen gemoeid zijn nu voldoende kunnen worden verdedigd, zowel binnen het bestuursrecht als het civielrecht en het strafrecht? Zo ja, op welke manier?

2.2. Doel en strekking

De leden van de VVD-fractie delen het belang van de initiatiefnemer dat het belangrijk is dat de bewustwording van mensen over algoritmen toeneemt. Wel vragen zij hoe de initiatiefnemer denkt dit te kunnen realiseren.

De leden van de CDA-fractie zien dat initiatiefnemer onderkent dat de staat vanwege het geweldsmonopolie en de taak om de inwoners te beschermen van oudsher ruimer toegang heeft tot het persoonlijk leven van mensen. Daarnaast stelt de initiatiefnemer dat grote technologiebedrijven wellicht nog meer toegang hebben tot persoonsgegevens en met algoritmen onze levens steeds meer sturen. Maakt de initiatiefnemer hier nog onderscheid in? Acht de initiatiefnemer het wenselijk dat particuliere bedrijven op hetzelfde niveau worden gezet als de staat qua mate van toezicht en bevoegdheden? Of ziet de initiatiefnemer meer ruimte voor de staat in het licht van de taak om de burger te beschermen?

3. Concrete stappen naar menselijke grip op algoritmen

3.1. Voorstellen voor menselijke grip op algoritmen

De leden van de CDA-fractie zien dat de initiatiefnemer bepleit dat er menselijke grip wordt gehouden op algoritmen. Zij vragen daarbij aan de initiatiefnemer of dit ook betekent dat burgers altijd recht moeten houden op menselijke tussenkomst indien zij dat verlangen. Oftewel, dat een mens niet tegen de digitale muur op loopt en te horen krijgt dat de computer een bepaald besluit heeft genomen dat definitief is. Indien de initiatiefnemer het hiermee eens is, vragen de leden van de CDA-fractie waarom dit geen onderdeel is van de initiatiefnota.

De leden van de D66-fractie constateren dat de initiatiefnemer wil dat instellingen zelf meer inzicht creëren in kansen, risico’s en de gevolgen van de algoritmen die zij gebruiken. Geldt dit wat de initiatiefnemer betreft ook voor bedrijven? Kan de initiatiefnemer aangeven hoe hij dit wil afdwingen als instellingen of bedrijven dit niet doen? Welke consequentie is er?

3.1.1. Samenwerking op algoritmebeleid binnen en buiten Nederland

De leden van de CDA-fractie lezen dat de initiatiefnemer voorstelt om een nationaal algoritme-samenwerkingsverband in het leven te roepen. Hij stelt daarbij dat «zonder helder kader het voor bestuurders verleidelijk is om te willen beslissen over bijvoorbeeld «ideologische» keuzes (bijvoorbeeld die tussen vrijheid en gelijkheid) die mogelijkerwijs in algoritmen worden gemaakt». Voornoemde leden vragen hoe dat heldere kader waarover gesproken wordt eruit moet komen zien. Ook vragen zij hoe dat kader tot stand zal worden gebracht en wie daarbij betrokken zullen zijn. Ziet de initiatiefnemer een scenario voor zich waarbij dergelijke keuzes voor het kader van het voorgestelde algoritme-samenwerkingsverband niet zullen worden ingegeven door ideologische keuzes?

De leden van de D66-fractie lezen dat de initiatiefnemer het heeft over het ontwikkelen van standaarden. Kan de initiatiefnemer nader uitwerken wat voor standaarden hier worden bedoeld en welk doel die standaarden moeten dienen? Kan de initiatiefnemer nader ingaan op het nationaal algoritme-samenwerkingsverband dat hij wil inrichten? Wie moet daarbij aangesloten zijn? Wat is het doel van dit samenwerkingsverband? Zorgt dit niet voor veel bureaucratie? Wat wil hij er mee bereiken?

De leden van de GroenLinks-fractie lezen dat het volgens de initiatiefnemer nuttig is om een helder kader te scheppen voor bestuurders om te voorkomen dat zij verschillende «ideologische» keuzes maken bij de ontwikkeling van algoritmen. Vaak hoort men dat het ontwerp van algoritmen niet waardenvrij is. Hoe ziet de initiatiefnemer dat? En wat voor een verschillende keuzes kunnen worden gemaakt tussen vrijheid en gelijkheid (de voorbeelden die door de initiatiefnemer zelf zijn aangedragen) die niet in meer of mindere mate leiden tot (indirecte) discriminatie?

De aan het woord zijnde leden vragen wat de initiatiefnemer bedoelt met de opmerking: «Nederland moet zelf waarborgen dat het menselijke boven computers gesteld wordt en het midden- en kleinbedrijf (MKB) wordt ontzien.»? Worden er andere eisen gesteld aan de algoritmen van het MKB, als het aan de initiatiefnemer ligt? En gaan die verschillen zo ver dat het MKB niet verplicht wordt om het menselijke boven computers te stellen?

3.1.2. Betekenisvolle transparantie en bewustwording

De leden van de CDA-fractie constateren dat in de initiatiefnota afwijzend wordt gereageerd op het volledig transparant maken van de werking van algoritmen. Deze leden zien meerwaarde in open-source initiatieven van zowel de overheid als (grote) technologiebedrijven, zeker wanneer het gaat om zelflerende algoritmen. Deelt de initiatiefnemer deze mening? In plaats van volledige transparantie pleit de initiatiefnemer voor betekenisvolle transparantie, zo lezen de leden van de CDA-fractie. Voornoemde leden vragen de initiatiefnemer op welke wijze bepaald zal worden welke algoritmen betekenisvol transparant gemaakt moeten worden en ook in welke mate het begrip «betekenisvol» dient te worden ingevuld.

De leden van de GroenLinks-fractie constateren dat de initiatiefnemer zich laat kennen als een voorstander van betekenisvolle transparantie in plaats van volledige transparantie. Wat betekent dit voor de mogelijkheid om een algoritme door experts te laten onderzoeken op bijvoorbeeld discriminerende mechanismes? De vertaling van het algoritme (naar voornoemde leden aannemen door het bedrijf zelf) van de volledige naar de betekenisvolle variant kan ertoe leiden dat cruciale informatie niet inzichtelijk wordt gemaakt.

Voorts lezen de leden van de GroenLinks-fractie dat de initiatiefnemer aangeeft dat volledige transparantie over algoritmen en de gegevens die zij gebruiken vaker niet kan dan wel, onder meer omdat bedrijven niet gedwongen moeten worden concurrentiegevoelige informatie te delen. Hoe verhoudt het recht op eigendom zich volgens de initiatiefnemer tot het recht op gelijke behandeling, en het recht om deze gelijke behandeling af te dwingen?

De leden van de SP-fractie lezen dat de initiatiefnemer schrijft dat bedrijven niet gedwongen moeten worden om transparantie te geven over hun algoritmen als dit zou inhouden dat zij daardoor concurrentiegevoelige informatie zouden moeten delen. Kan de initiatiefnemer dit verduidelijken? Betekent dit dat bedrijven dan in principe nooit transparantie zouden hoeven geven over hun algoritmen? Wie moet aantonen dat het daadwerkelijk gaat om concurrentiegevoelige informatie? Waarom vindt de initiatiefnemer het een goed idee dat bedrijven op basis van algoritmen, die niet-transparant zijn, de concurrentie met elkaar aangaan? Is het tegengaan van ongelijkheid en het bevorderen van transparantie in de samenleving niet belangrijker dan het concurrentiebelang van een bedrijf?

3.1.3. Mensen instrumenten geven om online weerbaar te zijn

De leden van de D66-fractie vragen op welke manier de initiatiefnemer wil dat de overheid de private sector en brancheorganisaties stimuleert en ondersteunt in de ontwikkeling van algoritmecheckers, ratingsystemen en keurmerken. Kan de initiatiefnemer zijn voorstel voor een rood, groen of geel online paspoort nader uitwerken? Moet dit een publiek online paspoort zijn? Hoe wordt dit in de praktijk vormgegeven? Moeten websites aangeven wat voor soorten paspoorten ze wel of niet accepteren? Hoe verhoudt dit voorstel zich tot de Algemene verordening gegevensbescherming (AVG)? Stelt de initiatiefnemer met dit voorstel dat mensen moeten kunnen kiezen of ze blootgesteld willen worden aan algoritmen? Mogen bedrijven mensen met een bepaald type paspoort weigeren?

De leden van de GroenLinks-fractie lezen dat de initiatiefnemer een voorstel doet voor een stoplichtsysteem. Als je aangeeft dat je niet blootgesteld wilt worden aan algoritmen die gebruikmaken van persoonsgegevens, en dus kiest voor een rood paspoort zou het logische gevolg zijn dat je veel innovatieve diensten niet kunt gebruiken. Is er dan nog sprake van een vrije keus? Wil de initiatiefnemer de keuze geheel aan het bedrijf laten wat het in ruil voor diensten mag vragen?

De leden van de SP-fractie lezen in de initiatiefnota over groene, gele en rode paspoorten waarbij iemand kan aangeven in welke mate hij of zij bloot gesteld wil worden aan algoritmen die persoonsgegevens gebruiken. In dat kader vragen deze leden of de initiatiefnemer de mening deelt dat ook als je besluit niet blootgesteld te willen worden aan algoritmen die persoonsgegevens gebruiken, je niet uitgesloten zou mogen worden van diensten, sites, etc.

3.1.4. Inzicht door toezicht

De leden van de CDA-fractie lezen dat de initiatiefnemer pleit voor een nieuwe toezichthouder die zich begeeft op het snijvlak van de verschillende gebieden die geraakt worden door algoritmegebruik. Zij vragen de initiatiefnemer of dit niet al ondervangen wordt met de AVG die, zoals de initiatiefnemer zelf ook stelt in zijn nota, al verschillende voorschriften geeft over het gebruik van algoritmen. Is het daarmee niet een taak van de Autoriteit Persoonsgegevens (AP) om daarop toe te zien? Op welke vlakken ziet de initiatiefnemer hiaten of elementen die dubbel voorkomen? En op welke wijze wil de initiatiefnemer deze oplossen of wegnemen?

De leden van de D66-fractie constateren dat de initiatiefnemer zich uitsluitend richt op algoritmen, terwijl juist de data die gebruikt worden van belang zijn Als de gebruikte data waarmee een algoritme getraind wordt «biased» zijn dan kan dat leiden tot discriminatie of andere onwenselijke uitkomsten. Ook verouderde of eenzijdig samengestelde datasets vergroten de kans op oneigenlijke uitsluiting of ongelijke behandeling. Het algoritme zelf is daarbij niet de bron van de ongewenste gevolgen, maar dat zijn de gebruikte data. Toch heeft de initiatiefnemer geen aandacht voor data in zijn initiatiefnota. Dit is een grote omissie. Kan de initiatiefnemer hier nader op ingaan?

De aan het woord zijnde leden constateren dat de initiatiefnemer een toezichtkader wil toepassen bestaande uit drie niveaus: 1) rapportage door algoritme gebruikende instellingen, 2) externe partijen, zoals accountants, die meekijken en 3) een publieke toezichthouder. Kan de initiatiefnemer aangeven wie precies bedoeld worden met algoritme gebruikende instellingen? Zijn dat alleen overheden of ook bedrijven? Moeten deze instellingen alleen rapporteren over algoritmen met een hoog risicoprofiel of ook over andere algoritmen? Aan wie moet deze rapportage gericht zijn? Kan de initiatiefnemer nader ingaan op de manier waarop dit toezichtkader in de praktijk zou moeten werken? Wat is precies de rol van de externe partijen in dit toezichtkader? Op basis waarvan kan de publieke toezichthouder controle uitoefenen? Hoe ziet de initiatiefnemer het samenspel tussen de externe partijen en de publieke toezichthouder voor zich? Leidt dit uitgebreide, drievoudige toezichtkader niet tot een hoop overlap, onduidelijkheid en bureaucratie? Kan de initiatiefnemer hier een onderbouwing van geven? Waarom kiest de initiatiefnemer niet voor een enkelvoudige vorm van toezicht, in de vorm van een onafhankelijke autoriteit?

De leden van de GroenLinks-fractie lezen dat de initiatiefnemer geen regels wil die verbieden, maar die gericht zijn op meer informatieverstrekking. Maar het klopt toch dat hij juist ook veel beperkingen aanbrengt in de verplichting om informatie te openbaren? Zie paragraaf 2.2.2. van de initiatiefnota. Hoe verhoudt zich dit tot elkaar? De initiatiefnemer is op zoek naar een algoritmetoezichthouder. In hoeverre voldoet de AP hier nu al aan? Wat doet de AP nog niet, dat deze algoritmetoezichthouder wel zou moeten doen? De initiatiefnemer pleit voor het veilig inzetten van algoritmen waarbij innovatie niet belemmerd wordt. In hoeverre kunnen deze twee doelstellingen op gespannen voet staan met elkaar?

De leden van de SP-fractie zijn van mening dat de AP een belangrijke rol moet spelen in het toezien op het gebruik van algoritmen. Om goed toezicht te kunnen houden en om ook te kunnen handhaven heeft de AP wel voldoende middelen nodig. Denkt de initiatiefnemer dat de AP op dit moment en voor de toekomst voldoende middelen heeft om haar werk inderdaad goed te doen? Zo ja, kan hij dit onderbouwen?

In het kader van consumentenrechten hebben de leden van de SP-fractie nog enkele vragen aan de initiatiefnemer. Hoe kunnen mensen aan de bel trekken over algoritmen als zij niet weten dat een beslissing is genomen op basis van een algoritme? Met andere woorden: hoe weten mensen wanneer ze aan de bel kunnen dan wel moeten trekken? En in het verlengde daarvan: hoe weet je als consument of een algoritme alleen naar jou discrimineert of in het algemeen discrimineert en maakt dat gegeven nog iets uit voor de vorm van een klacht bij de AP dan wel bij de rechter?

4. De huidige stand van zaken en uitvoering

4.1. Stand van zaken en wettelijk kader

De leden van de GroenLinks-fractie lezen dat de initiatiefnemer op zoek is naar een kader. Kent de initiatiefnemer de «Ethics guidelines for trustworthy AI» van the High-Level Expert Group on Artificial Intelligence van april 2019, waarin een Europees kader wordt voorgesteld? In hoeverre voldoet dit aan de wensen van de initiatiefnemer en in hoeverre niet? Welke kaders ten aanzien van algoritmen dienen, volgens de initiatiefnemer, op Europees niveau te worden vastgesteld, en welke op nationaal niveau?

Volgens de leden van de SP-fractie is slechts een deel van het dataverzamelingsproces in de AVG geregeld, namelijk dat deel dat ziet op data die te kwalificeren zijn als persoonsgegevens. Het rapport van Van der Sloot en Van Schendel beschrijft dit probleem helder.1 Deelt de initiatiefnemer de mening dat het ook goed zou zijn om een aantal minimumregels neer te leggen voor het verzamelen van data niet zijnde persoonsgegevens? Juist omdat die gegevens grote groepen mensen beslaan en daaruit voortvloeiend ook individuele burgers geraakt kunnen worden.

De leden van de SP-fractie stellen vast dat de AVG nauwelijks regels stelt omtrent het analyseren van data. Dat betekent dat er nauwelijks wettelijke normen zijn voor of wettelijk toezicht is op hoe bijvoorbeeld profielen worden vervaardigd, op conclusies over de patronen en correlaties die worden gevonden en hoe data worden geanalyseerd. Dat is volgens de aan het woord zijnde leden zeer problematisch en kan tot allerlei ongewenste situaties leiden, omdat als er een fout of een vooringenomenheid zit in een dataset, een algoritme of een profiel, dit betekent dat het private of overheidsoptreden dat gebaseerd is op dat profiel óók fout of vooringenomen kan zijn. Ziet de initiatiefnemer dit probleem? Hoe denkt de initiatiefnemer dat de analysefases goed gecontroleerd kunnen worden? Is het niet noodzaak, als we dit goed willen controleren, dat altijd volledige transparantie gegeven wordt over gebruikte algoritmen?

5. Financiële consequenties

De leden van de CDA-fractie lezen dat door de initiatiefnemer wordt gesteld dat alle plannen die worden voorgesteld in de initiatiefnota geen financiële consequenties zullen hebben. Dat komt de aan het woord zijnde leden wat onwaarschijnlijk over. Deelt de initiatiefnemer de mening dat de gevraagde onderzoeken, de overheid op hetzelfde kennisniveau brengen als technologiebedrijven, het uitrollen van bewustwordings- en informatiecampagnes om burgers weerbaar te maken en het in het leven roepen van een nieuwe toezichthouder (publiek) geld zullen kosten? Kan de initiatiefnemer hiervan een schatting maken?

Over de financiële consequenties van de plannen van de initiatiefnemer hebben de leden van de SP-fractie nog de volgende vraag: kan de initiatiefnemer verduidelijken waarom hij denkt dat het voorgestelde toezichtkader een kleine organisatie kan worden met een beperkt aantal fte’s? Hoe kan een kleine organisatie adequaat toezicht houden op een oneindige hoeveelheid aan algoritmen? Betekent dit dat deze organisatie zelf ook gebruik zal moeten gaan maken van algoritmen om toezicht te houden op algoritmen?

6. Beslispunten

De leden van de GroenLinks-fractie lezen dat de initiatiefnemer voorstelt om mensen «waar mogelijk» duidelijk te maken wanneer er algoritmen gebruikt zijn bij beslissingen. Kan de initiatiefnemer voorbeelden geven van gevallen waarbij dat niet mogelijk zijn?

De leden van de SP-fractie lezen dat de initiatiefnemer in één van de beslispunten schrijft dat «waar mogelijk mensen duidelijk gemaakt moet worden wanneer er algoritmen gebruikt zijn bij beslissingen…». Kan de initiatiefnemer dit voor deze leden verduidelijken? In welke gevallen is dit volgens de initiatiefnemer niet mogelijk?

7. Overig

De leden van de SP-fractie zijn ervan doordrongen dat de overheid in het algemeen belang, of uit het oogpunt van nationale veiligheid een legitiem beroep kan doen op geheimhouding van door de overheid gebruikte algoritmen. Toch zou ook in gevallen waarin burgers denken onevenredig benadeeld te worden door beslissingen vanuit de overheid openheid van zaken gegeven moeten worden. Ziet de initiatiefnemer in dat kader iets in de oplossing, zoals voorgesteld door Van der Sloot en Van Schendel, om een «special advocate» te introduceren die namens de burger de algoritmen, data en onderliggende stukken kan inzien en de verdediging daaromtrent kan voeren, maar tegelijkertijd gehouden is aan geheimhouding en deze informatie niet met de burger deelt? Zo nee, waarom niet?

Tot slot willen de leden van de SP-fractie de initiatiefnemer vragen naar de toepassing van algoritmen in het strafrecht. Is de initiatiefnemer voorstander van bijvoorbeeld computerprogramma’s die rechters helpen bij het maken van inschattingen over verdachten en veroordeelden? Zo ja, waarom? Vindt de initiatiefnemer dan in ieder geval dat te allen tijde transparantie gegeven moet worden over de gebruikte algoritmen? Zo nee, waarom niet?


  1. Van der Sloot & Van Schendel, De modernisering van het Nederlands procesrecht in het licht van Big Data -Procedurele waarborgen en een goede toegang tot het recht als randvoorwaarden voor een data-gedreven samenleving, Universiteit van Tilburg – Tilburg Instute for Law, Technology and Society, 2019.↩︎