[overzicht] [activiteiten] [ongeplande activiteiten] [besluiten] [commissies] [geschenken] [kamerleden] [kamerstukdossiers] [open vragen]
[toezeggingen] [stemmingen] [verslagen] [🔍 uitgebreid zoeken] [wat is dit?]

Lijst van vragen en antwoorden over de kabinetsreactie op drietal onderzoeken naar algoritmen

Informatie- en communicatietechnologie (ICT)

Lijst van vragen en antwoorden

Nummer: 2020D52270, datum: 2020-12-14, bijgewerkt: 2024-02-19 10:56, versie: 3

Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (kst-26643-727).

Gerelateerde personen:

Onderdeel van kamerstukdossier 26643 -727 Informatie- en communicatietechnologie (ICT).

Onderdeel van zaak 2020Z24901:

Onderdeel van activiteiten:

Preview document (🔗 origineel)


Tweede Kamer der Staten-Generaal 2
Vergaderjaar 2020-2021

26 643 Informatie- en communicatietechnologie (ICT)

Nr. 727 LIJST VAN VRAGEN EN ANTWOORDEN

Vastgesteld 16 december 2020

De vaste commissie voor Binnenlandse Zaken heeft een aantal vragen voorgelegd aan de Minister voor Rechtsbescherming over de brief van 20 november 2020 inzake de Kabinetsreactie op drietal onderzoeken naar algoritmen (Kamerstuk 26 643, nr. 726).

De Minister heeft deze vragen beantwoord bij brief van 14 december 2020. Vragen en antwoorden zijn hierna afgedrukt.

De voorzitter van de commissie,
Ziengs

De adjunct-griffier van de commissie,
Hendrickx

Vraag 1

Wat is de definitie van algoritme?

Antwoord op vraag 1

In het onderzoeksrapport van de Universiteit Utrecht over de juridische aspecten van algoritmen die besluiten nemen, beschrijven de auteurs algoritmen als volgt: «Een algoritme is in de kern een geschreven computerinstructie die met een bepaalde waarde of een reeks waarden als invoer, een bepaalde waarde of reeks waarden als uitvoer produceert.

Een subset van algoritmen staat de laatste jaren in de belangstelling onder de noemer kunstmatige intelligentie. Het gaat dan om algoritmen met een (zelf)lerend karakter. De definitie die het kabinet hiervan hanteert is gegeven in het Strategisch Actieplan Artificiële Intelligentie1: «AI verwijst naar systemen die intelligent gedrag vertonen door hun omgeving te analyseren en – met een zekere mate van zelfstandigheid – actie ondernemen om specifieke doelen te bereiken.»

Vraag 2

Kan een voorbeeld worden gegeven van de manier waarop een onvolledig of verkeerd begrip van de probleemruimte leidt tot ongewenste gevolgen?

Antwoord op vraag 2

De probleemruimte is de omgeving waarbinnen een algoritme ingezet wordt en waarbinnen het bepaalde doelstellingen moet bereiken. Het expliciet omschrijven van alle aspecten van de werkelijkheid en de regels voor het handelen daarbinnen door een algoritme, is makkelijker met betrekking tot een afgebakend probleem (bijvoorbeeld het spelen van het schaakspel), maar moeilijker in een complexe of dynamische omgeving. «Wanneer de probleemruimte een complex systeem is of beschrijft, dan kan een gebrekkig begrip van deze probleemruimte leiden tot algoritmische besluiten die «verkeerd» zijn en daarmee waarschijnlijk tot onvoorziene effecten leiden.», aldus het onderzoek naar onvoorziene effecten van algoritmen. In dat onderzoek worden bij wijze van voorbeeld de probleemruimten voor een robotstofzuiger en een zelfrijdende auto vergeleken. Voor de stofzuiger is die overzichtelijk, met voornamelijk statische objecten. Bovendien is een botsing, bijvoorbeeld met een tafelpoot, niet direct een probleem. Dat ligt anders voor een «zelfrijdende» auto op de openbare weg, met steeds wisselende routes, hoge snelheden en veel bewegende objecten, waarbij bovendien een botsing ten koste van bijna alles vermeden moet worden. Voor de algoritmen die een zelfrijdende auto «besturen» is de probleemruimte buitengewoon complex. Een onvolledig of verkeerd begrip van die probleemruimte kan zeer ernstige gevolgen hebben, bijvoorbeeld voor andere weggebruikers.

Vraag 3

Is het beperken van zelflerende algoritmen een goede manier om onvoorziene en ongewenste gevolgen te voorkomen of te verminderen?

Antwoord vraag 3

Zelflerende algoritmen kunnen bijzonder waardevol zijn. Denk alleen al aan de enorme stappen die worden gemaakt met behulp van zelflerende algoritmen in de medische sector. Uit het onderzoek blijkt dat onvoorziene effecten sterk afhankelijk zijn van de context waarbinnen algoritmen worden toegepast. Het ligt dan ook in de rede om het vizier te richten op het verbeteren van het begrip over de probleemruimte en ingezette algoritmen (bijvoorbeeld door het uitvoeren van een impact assessment, zoals in bepaalde gevallen al verplicht is als er een risicovolle verwerking van persoonsgegevens wordt uitgevoerd), in plaats van op het beperken van de inzet van een bepaalde methodiek. Wel wijs ik erop dat ook zelflerende algoritmen in bepaalde gevallen uitlegbaar moeten zijn, bijvoorbeeld wegens bestaande verplichtingen uit de Algemene Verordening Gegevensbescherming (AVG) en de Algemene wet bestuursrecht (Awb). Voorts worden in het eerste kwartaal van 2021 de voorstellen van de Europese Commissie voor de regulering van AI verwacht. Vermoedelijk zullen ook voorstellen worden gedaan voor de (nadere) regulering van zelflerende algoritmen. Het kabinet heeft eerder in reactie op de initiatiefnota Middendorp «menselijke grip op algoritmen» aangegeven zich in te spannen de kabinetspositie over AI, zoals onder meer vervat in de drie AI-beleidsbrieven van 8 oktober 2019, ook in Europees verband uit te dragen en zal dat ook ten aanzien van de verwachte voorstellen doen. Het kabinet heeft voorts haar appreciatie van het witboek Kunstmatige Intelligentie van de Europese Commissie met uw Kamer gedeeld.

Vraag 4

Is consumentenbescherming het belangrijkste spoor om eventuele negatieve effecten van algoritmen tegen te gaan en welke andere belangrijke sporen zijn er om dit te doen?

Antwoord op vraag 4

Het onderzoek naar onvoorziene effecten van zelflerende algoritmen verstaat onder bescherming van consumenten enerzijds het stellen van regels met betrekking tot de ontwikkeling en toepassing van (zelf)lerende algoritmen en anderzijds het versterken van de rechten van subjecten.

Zoals ook in de kamerbrief «Kabinetsreactie op drietal onderzoeken naar algoritmen» wordt opgemerkt, is een mix van beleid en regelgeving nodig om eventuele negatieve effecten van algoritmen tegen te gaan of daarop passend te reageren. Het onderzoek naar de juridische aspecten van algoritmen indiceert dat de algemene kaders op het gebied van gegevensbescherming en non-discriminatie op hoofdlijnen toekomstbestendig zijn. Niettemin zijn er een aantal aandachtspunten die ook in onderhavige kabinetsreactie worden benoemd, te weten: het verbod op geautomatiseerde besluitvorming, het testen met behulp van bijzondere persoonsgegevens, de vervaging van het begrip «persoonsgegeven» en de rechtsbescherming bij productaansprakelijkheid.

Hierbij komt dat de kabinetsbrief ook expliciet benoemt dat sectorspecifieke interventies nodig kunnen zijn: de risico´s van algoritmen hangen immers af van de specifieke context waarin zij worden ingezet. Tenslotte is reeds aangegeven dat in het eerste kwartaal van 2021 voorstellen van de Europese Commissie worden verwacht op het gebied van de regulering van artificiële intelligentie, waaronder voorstellen met betrekking tot zogenaamde «hoog risico toepassingen».

Het kabinet staat een coherente aanpak voor ten aanzien van het reguleren van algoritmen waarbij negatieve effecten van algoritmen gericht worden geadresseerd, waarbij meerdere sporen worden gevolgd. Het consumentenrecht is één van die sporen. Zo besteedt de Europese Commissie, naast voornoemde voorstellen die in het eerste kwartaal van 2021 worden verwacht, in haar nieuwe consumentenagenda nadrukkelijk aandacht aan consumentenbescherming in relatie tot AI2.

Vraag 5

In hoeverre zou verplichte transparantie over de inzet en constructie van algoritmische modellen, inclusief de gebruikte trainingsdata, een manier kunnen zijn om ongewenste effecten tegen te gaan?

Vraag 6

Wil het kabinet de ongewenste effecten van algoritmen die worden gebruikt door bedrijven vooral tegengaan op basis van vrijwillige gedragscodes of ook met wet- en regelgeving om transparantie af te dwingen?

Antwoord op vraag 5 en 6

Bestaande wetgeving bevat al verscheidene transparantieverplichtingen bij en over het gebruik van algoritmen. Transparantieverplichtingen kunnen eraan bijdragen dat burgers de mogelijke negatieve gevolgen van de verwerking van hun gegevens in beeld krijgen en daar waar nodig actie tegen kunnen ondernemen. Daarbij komt dat transparantieverplichtingen ook de controle door toezichthouders versterken.

Waar persoonsgegevens worden verwerkt gelden de transparantieverplichtingen uit de AVG. Deze verplichtingen gaan verder wanneer er persoonsgegevens worden verwerkt en het besluit rechtsgevolgen heeft of een anderszins aanmerkelijke impact3. Uitspraken van de Autoriteit Persoonsgegevens in specifieke casusposities en richtsnoeren vanuit de European Data Protection Board (EDPB) kunnen verder inzichtelijk maken hoe in de praktijk moet worden omgegaan met deze transparantieverplichtingen en hoe ver deze strekken.

Voorts kent het consumentenrecht ook verscheidene meer specifieke transparantieverplichtingen, binnenkort geldt bijvoorbeeld dat bedrijven transparant moeten zijn wanneer zij prijzen personaliseren.

Het kabinet ziet dus dat er al veel wetgeving is om transparantie af te dwingen, maar blijft kritisch monitoren of dit in de praktijk voldoende handvatten biedt aan burgers en toezichthouders. Zelf zet het kabinet stappen met de richtlijnen voor data-analyse door de overheid, waar onder meer ook eisen worden gesteld aan de wijze waarop overheden transparantie betrachten over de data-analyse die zij verrichten. Deze transparantie geldt niet alleen jegens de burger wier gegevens worden verwerkt, maar waar mogelijk ook meer algemeen naar het publiek4. Verder zijn er de eerdergenoemde voorstellen van de Europese Commissie die komend jaar worden verwacht. Deze kunnen nog verder bijdragen aan het bevorderen van transparantie. Ook laat het kabinet «transparantie» terugkomen op de «beleids- en onderzoeksagenda normering en toezicht algoritmen» die binnenkort aan uw Kamer wordt verstuurd5.

Vraag 7

Wat zijn nu concreet de algemene juridische kaders op het gebied van de waarden non-discriminatie, gegevensbescherming en rechtsbescherming?

Antwoord op vraag 7

Algemene kaders op het gebied van genoemde waarden met relevantie voor de inzet van algoritmen zijn onder meer de mensenrechtenverdragen (zoals het Europees Verdrag van de Rechten van de Mens), het Handvest van Grondrechten van de Europese Unie, de Algemene Verordening Gegevensbescherming, de Grondwet, de Algemene Wet Gelijke Behandeling, het Burgerlijk Wetboek en het wetboek van Burgerlijke Rechtsvordering. Wat betreft de relatie tussen de burger en de overheid kan nog worden gewezen op de Algemene wet bestuursrecht.

Vraag 8

Wat wordt bedoeld met «het inzetten op nadere normering van algoritmen via de richtlijnen voor data-analyse door overheden»? Waar wordt aan gedacht bij die nadere normering? Is dit een actie in EU-verband? Wat zijn de gevolgen voor de Nederlandse wet- en regelgeving?

Antwoord op vraag 8

Het gaat hier om de richtlijnen voor data-analyse door de overheid. De eerste versie van deze richtlijnen is in oktober 2019 met uw Kamer gedeeld.6 Momenteel worden de richtlijnen in samenwerking met een aantal overheidsorganisaties geëvalueerd. De richtlijnen zien onder meer toe op uitlegbaarheid, verantwoording en toetsbaarheid van algoritmen.

In het eerste kwartaal van 2021 zal, mede aan de hand van de ervaringen met de richtlijnen, worden bezien in hoeverre het nodig en wenselijk is dat onderdelen van deze richtlijnen worden omgezet in aanvullende wettelijke waarborgen. Dit betreft geen actie in EU-verband. Het kabinet zal zich inspannen de synergie te borgen met de voorstellen van de Europese Commissie met betrekking tot AI-toepassingen, die zoals in antwoord op vraag 4 toegelicht, in het eerste kwartaal van 2021 worden verwacht.

Vraag 9

Zijn er voorbeelden van technische ontwerpprincipes om risico’s op discriminatie door AI-systemen al in de ontwikkelfase te mitigeren?

Antwoord op vraag 9

Momenteel ontwikkelt het kabinet ontwerpprincipes om risico’s op discriminatie door AI-systemen al in de ontwikkelingsfase zoveel mogelijk te voorkomen. Abstracte juridisch kaders worden vertaald naar concrete AI-ontwerpprincipes die al in de ontwikkelfase kunnen worden toegepast. Een voorbeeld van een ontwerpprincipe is dat data altijd getoetst moet worden op representativiteit en bias. Een ander voorbeeld is dat altijd pre-processing technieken voor bias-mitigatie moeten worden toegepast. Door de principes in de ontwikkelfase van een AI-systeem toe te passen, wordt de kans op discriminatie door het systeem aanzienlijk minder. De ontwerpprincipes non-discriminatie komen naar verwachting in januari voor overheden en bedrijven beschikbaar in de vorm van een handreiking. De handreiking geeft een beknopte uiteenzetting van de belangrijkste wetgeving op het gebied van non-discriminatie, legt uit welke vragen en ontwerpprincipes leidend zijn om discriminatie te voorkomen en geeft illustratieve voorbeelden waar discriminatie kan optreden.

Vraag 10

Kan nader worden ingegaan op het begrip adequaat in de context van menselijke tussenkomst bij geautomatiseerde besluitvorming? Wanneer is die tussenkomst adequaat?

Antwoord op vraag 10

Artikel 22 AVG verbiedt in beginsel het nemen van een uitsluitend op geautomatiseerde verwerking gebaseerd besluit waaraan voor betrokkene rechtsgevolgen zijn verbonden of betrokkene anderszins in aanmerkelijke mate treft. Dit betekent dat een professional een besluit of advies dat geautomatiseerd tot stand is gekomen niet klakkeloos mag overnemen maar zijn of haar eigen afweging moet maken.

Wanneer het wel toegestaan is om een besluit uitsluitend op basis van een geautomatiseerde verwerking te nemen, bepaalt lid 3 van datzelfde artikel dat de betrokkene het recht heeft om menselijke tussenkomst te eisen.

Het belangrijkste idee achter deze menselijke tussenkomst is dat de professional zelf kan bepalen of hij het advies van de beslissingsondersteunende systemen volgt, dan wel dat de professional de geautomatiseerde beslissing kan aanpassen. Het artikel vereist daarmee dat de mensen het systeem moeten kunnen negeren en dat het systeem nimmer het laatste woord heeft. Wanneer dat laatste gegarandeerd is, is de menselijke tussenkomst adequaat.

Vraag 11

Wat wordt precies verstaan door de zinsnede «waaraan voor hem rechtsgevolgen zijn verbonden of dat hem anderszins in aanmerkelijke mate treft»? Valt bijvoorbeeld online contentverwijdering hier ook onder?

Antwoord op vraag 11

Deze zinsnede komt uit bovengenoemd artikel 22 van de AVG betreffende geautomatiseerde gegevensverwerkingen. De richtsnoeren over profilering en geautomatiseerde besluitvorming van de WP-29 (de voorloper van de European Data Protection Board) geven een nadere uitleg over het aangehaalde criterium en een goede indruk van wat hier in algemene zin onder kan worden verstaan.7

In het onderzoek «juridische aspecten van algoritmen die besluiten nemen» geven de onderzoekers aan dat het bij verwijderen van content echter onduidelijk is of een modereerbesluit rechtsgevolgen heeft of de gebruiker anderzijds «in aanmerkelijke treft». Zoals aangegeven in de kabinetsreactie op drie algoritme onderzoeken zou nadere en meer specifieke duiding van de (Europese) toezichthouder op dit punt gewenst zijn.

Vraag 12

Is het waar dat de AVG zelf ook al uitzonderingen bevat op het verwerken van bijzondere persoonsgegevens? Waarom zijn deze volgens het kabinet niet voldoende?

Antwoord op vraag 12

Het tweede lid van artikel 9 AVG bepaalt onder welke voorwaarden het verbod op de verwerking van bijzondere categorieën persoonsgegevens niet van toepassing is. Daabrij wordt ruimte gelaten aan de lidstaten om bij wet onder voorwaarden nadere uitzonderingen mogelijk te maken.

Binnen de huidige systematiek is het vaak onmogelijk om bijzondere persoonsgegevens te verwerken, terwijl dit juist nodig kan zijn om discriminatoire effecten uit algoritmen te halen. Het kabinet heeft daarom in de brief over waarborgen tegen de risico´s van data-analyse door de overheid aangegeven dat het voornemens is om in afwijking van genoemd verbod, en in bepaalde specifieke gevallen, toe te staan dat bij de ontwikkeling van algoritmische modellen bijzondere persoonsgegevens worden verwerkt, voor zover dat nodig is om voornoemde discriminatoire effecten tegen te gaan.

Vraag 13

In hoeverre geldt het anonimiseren van persoonsgegevens zelf als een verwerking van persoonsgegevens?

Antwoord op vraag 13

Artikel 4 lid 2 AVG definieert de «verwerking». Kort gezegd betreft dit een bewerking van persoonsgegevens, zoals bijvoorbeeld vastleggen, ordenen, bijwerken of wijzigen, wissen of vernietigen. Indien een organisatie een persoonsgegeven wil anonimiseren zal het dus een verwerking in de zin van de AVG uit moeten voeren om tot anonimisering te komen.

Vraag 14

In hoeverre leidt de anonimisering van persoonsgegevens, die worden gebruikt voor het ontwerp van een algoritme, tot een lagere kans op onvoorziene of ongewenste effecten? Kan een algoritme gebaseerd op geanonimiseerde persoonsgegevens niet net zo goed onvoorziene of ongewenste effecten hebben?

Antwoord op vraag 14

Het anonimiseren van persoonsgegevens is een maatregel van privacy-by-design die voortvloeit uit het beginsel van dataminimalisatie, die toegepast moet worden waar mogelijk.

Bij het trainen van een model is het zaak om daarvoor de juiste gegevens te gebruiken, anders ontstaat er geen goed model. Of dit al dan niet persoonsgegevens zijn lijkt niet van invloed op de vraag of er meer of minder kans is op het ontstaan van onvoorziene of ongewenste effecten van het algoritme. Een algoritme getraind met geanonimiseerde persoonsgegevens kan net zo goed onvoorziene of ongewenste effecten hebben.

Wél is het zo dat als er persoonsgegevens worden verwerkt, dat gedaan moet worden conform de AVG. Dit betekent dat de organisatie die een algoritme traint of inzet bepaalde maatregelen moet nemen, zoals in sommige gevallen het uitvoeren van een gegevensbeschermingseffectenbeoordeling of het bijhouden van een verwerkingsregister. Door die maatregelen worden organisaties gedwongen van tevoren goed na te denken over de inzet van een algoritme, waarmee te verwachten valt dat de kans op onvoorziene en ongewenste effecten ook kleiner wordt.

Vraag 15

Hoe is het mogelijk dat etniciteit toch als factor mag worden gebruikt in algoritmen nu volgens art. 9 AVG het verwerken van bijzondere persoonsgegevens (zoals bijvoorbeeld betreffende iemands etnische afkomst, politieke opvattingen of religieuze overtuiging) in beginsel verboden is?

Antwoord op vraag 15

Het verwerken van bijzondere categorieën persoonsgegevens, zoals etnische afkomst, is inderdaad in beginsel verboden. Het tweede lid van artikel 9 AVG bepaalt onder welke voorwaarden het verbod op de verwerking van bijzondere categorieën persoonsgegevens niet van toepassing is. In het geval dat aan een dergelijke voorwaarde voldaan wordt, kunnen de bedoelde persoonsgegevens in beginsel worden verwerkt. Het kan, in afwijking van genoemd verbod, nodig zijn om in specifieke gevallen waar er een zwaarwegend algemeen belang bestaat, gegevens over etnische afkomst te verwerken. Hierbij kan bijvoorbeeld gedacht worden aan een situatie waarin een rechter moet beoordelen of er discriminatie op grond van etniciteit plaatsvindt. In dat geval moeten er ook gegevens over etniciteit worden verwerkt. Verwerking kan op velerlei manieren plaatsvinden. De verwerking ten behoeve van algoritmen is er één van; de AVG verzet zich daar in principe niet tegen.

Vraag 16

Om welke «bepaalde normen van zorgvuldigheid en transparantie» gaat het hier?

Antwoord op vraag 16

In de AVG worden normen gesteld die bepalen wanneer rechtmatig persoonsgegevens mogen worden verwerkt, zoals de rechtsgrondslagen in artikel 6 AVG. De AVG stelt echter ook normen die in acht moeten worden genomen als die verwerking plaatsvindt. Een rechtsgrond is immers geen vrijgeleide om persoonsgegevens ongecontroleerd te verwerken. Hierbij kan bijvoorbeeld gedacht worden aan de beginselen inzake verwerking van persoonsgegevens uit artikel 5 AVG. Zo stelt lid 1 sub a van voornoemd artikel dat een verwerking rechtmatig, behoorlijk en transparant moet zijn. Andere voorbeelden zijn artikel 12, dat de verwerkingsverantwoordelijke verplicht passende maatregelen te nemen om transparant te zijn over verwerkingen, of de gegevensbeschermingseffectbeoordeling uit artikel 35 AVG die uitgevoerd moet worden als een verwerking van persoonsgegevens een hoog risico inhoudt voor de rechten en vrijheden van personen. Deze normen strekken ertoe dat de verwerkingsverantwoordelijke op rechtmatige, zorgvuldige en transparante wijze met gegevens omgaat.

Vraag 17

Wat wordt bedoeld met de zin waarin wordt gesteld dat het evident is dat het verbod op geautomatiseerde besluitvorming prevaleert, in die gevallen waarin menselijke tussenkomst niet adequaat is? Wanneer wordt die menselijke tussenkomst niet adequaat geacht?

Antwoord op vraag 17

Het verbod in artikel 22 geldt alleen in gevallen waarin er een geautomatiseerd» besluit wordt genomen. Daarvan is dus geen sprake als er menselijke tussenkomst is. Het feit dat een mens «een handeling» verricht in het proces is echter onvoldoende om aan het verbod op geautomatiseerde besluitvorming te ontkomen. Wanneer het uitgangspunt dat de mens altijd het systeem moet kunnen negeren en het systeem nimmer het laatste woord heeft niet is gegarandeerd, is de menselijke tussenkomst niet adequaat. Als bijvoorbeeld een professional niet gemotiveerd af kan wijken van de uitkomst van het beslissingsondersteunde systeem, omdat de werking van dat systeem bijvoorbeeld voor de professional een blackbox is, is er geen sprake van een adequate menselijke tussenkomst.

Vraag 18

Wat zijn in hoofdlijnen de voornemens van de regering als het gaat om de juridische kaders rondom algoritmen? Aan het opstellen van welke wet- en regelgeving wordt gedacht? Welk tijdpad hoort daarbij?

Antwoord op vraag 18

Zoals ook het onderzoek naar de «Juridische aspecten van algoritmen die besluiten nemen» laat zien, hoeven wet- en regelgeving niet expliciet te gaan over algoritmen, om wel normen te bevatten waarmee de inzet van algoritmen wordt gereguleerd. Zo stelt de Algemene wet bestuursrecht (Awb) normen aan de kwaliteit van overheidsbesluiten en de motivering daarvan; het maakt (voor de geldigheid van die normen) niet uit of bij de besluitvorming algoritmen worden ingezet. Ook de AVG spreekt nergens expliciet over algoritmen, maar deze verordening is uiteraard zeer relevant, omdat voor veel algoritmen die effect op burgers sorteren persoonsgegevens worden verwerkt.

Door wetten als de Awb en de AVG vallen algoritmen niet in een juridisch vacuüm. In de praktijk bestaat wel behoefte aan nadere uitleg van bestaande normen in de context van algoritmen

Het kabinet neemt daarbij het heft in handen met de richtlijnen voor data-analyse door de overheid, daarmee worden de verplichtingen uit de AVG en Awb geconcretiseerd ten aanzien van algoritmen en data-analyse. Zoals in antwoord op vraag 8 nader toegelicht beziet het kabinet in het eerste kwartaal van 2021 of deze richtlijnen (deels) worden omgezet in aanvullende wettelijke waarborgen.

Voorts heeft het kabinet in haar reactie op de drie algoritme onderzoeken benadrukt dat de onderzoeken er ook op wijzen dat eventuele gerichte sectorspecifieke aanpassingen aan het wettelijk kader nodig kunnen zijn. Tevens presenteert de Europese Commissie, zoals uitgebreider toegelicht in antwoord op vraag 4, in het eerste kwartaal van komend jaar naar verwachting voorstellen met betrekking tot «Artificial Intelligence». Niet uitgesloten kan worden dat dit ook wetgevende instrumenten omvat met gevolgen voor het regelgevend kader omtrent algoritmen.


  1. Kamerstuk 26 643, nr. 640.↩︎

  2. https://eur-lex.europa.eu/legal/NL/TXT/PDF/?uri=CELEX:32015L2302&from=IT.↩︎

  3. Te weten in artikel 22 van de AVG, waarop uitgebreider wordt ingegaan in de beantwoording van vraag 10.↩︎

  4. Kamerstuk 26 643, nr. 641, bijlage 1.2; zie tevens uitgebreider ovdre de richtlijnen in antwoord op vraag 8.↩︎

  5. Kamerstuk 35 212, nr. 5.↩︎

  6. Kamerstuk 26 643, nr. 641.↩︎

  7. Richtsnoeren inzake geautomatiseerde individuele besluitvorming en profilering voor de toepassing van Verordening (EU) 2016/679 – Groep gegevensbescherming artikel 29 – p. 25.↩︎