Inbreng verslag van een schriftelijk overleg over Overheidsbrede visie op generatieve artificiële intelligentie (AI) (Kamerstuk 26643-1125)
Informatie- en communicatietechnologie (ICT)
Inbreng verslag schriftelijk overleg
Nummer: 2024D06102, datum: 2024-02-16, bijgewerkt: 2024-02-21 13:53, versie: 3
Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (nds-tk-2024D06102).
Gerelateerde personen:- Eerste ondertekenaar: B.C. Kathmann, voorzitter van de vaste commissie voor Digitale Zaken (GroenLinks-PvdA)
- Mede ondertekenaar: S.R. Muller, adjunct-griffier
Onderdeel van zaak 2024Z00480:
- Indiener: A.C. van Huffelen, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties
- Medeindiener: M.A.M. Adriaansens, minister van Economische Zaken en Klimaat
- Medeindiener: R.H. Dijkgraaf, minister van Onderwijs, Cultuur en Wetenschap
- Volgcommissie: vaste commissie voor Onderwijs, Cultuur en Wetenschap
- Volgcommissie: vaste commissie voor Binnenlandse Zaken
- Volgcommissie: vaste commissie voor Sociale Zaken en Werkgelegenheid
- Volgcommissie: vaste commissie voor Economische Zaken
- Voortouwcommissie: vaste commissie voor Digitale Zaken
- 2024-01-24 11:00: Procedurevergadering (Procedurevergadering), vaste commissie voor Digitale Zaken
- 2024-02-06 15:45: Regeling van werkzaamheden (Regeling van werkzaamheden), TK
- 2024-02-15 14:00: Overheidsbrede visie op generatieve artificiële intelligentie (AI) (Inbreng schriftelijk overleg), vaste commissie voor Digitale Zaken
Preview document (🔗 origineel)
2024D06102 INBRENG VERSLAG VAN EEN SCHRIFTELIJK OVERLEG
Binnen de vaste commissie voor Digitale Zaken hebben enkele fracties de behoefte om enkele vragen en opmerkingen voor te leggen aan de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over de brief d.d. 18 januari 2024 inzake «Overheidsbrede visie op generatieve artificiële intelligentie (AI)» (Kamerstuk 26 643, nr. 1125).
De fungerend voorzitter van de commissie,
Kathmann
De adjunct-griffier van de commissie,
Muller
Inhoudsopgave
I Vragen en opmerkingen vanuit de fracties
Vragen en opmerkingen van de leden van de GroenLinks-PvdA-fractie
Vragen en opmerkingen van de leden van de VVD-fractie
Vragen en opmerkingen van de leden van de NSC-fractie
Vragen en opmerkingen van de leden van de D66-fractie
Vragen en opmerkingen van de leden van de BBB-fractie
Vragen en opmerkingen van de leden van de CDA-fractie
Vragen en opmerkingen van de leden van de SP-fractie
Vragen en opmerkingen van de leden van de Volt-fractie
II Antwoord / Reactie van de bewindspersoon
I Vragen en opmerkingen vanuit de fracties
Vragen en opmerkingen van de leden van de GroenLinks-PvdA-fractie
De leden van de GroenLinks-PvdA-fractie hebben met interesse kennisgenomen van de Overheidsbrede visie generatieve AI. Deze leden erkennen dat generatieve AI, mits goed ingezet, een belangrijke maatschappelijke rol kan vervullen. Echter zijn de mogelijke risico’s dusdanig groot dat de leden kritisch blijven op het uitrollen en omarmen van deze te weinig gereguleerde technologie. Daarover hebben zij opmerkingen en vragen.
De leden van de GroenLinks-PvdA-fractie zullen hun opmerkingen en vragen per hoofdstuk benoemen, te beginnen met hoofdstuk 1. Hierin wordt verwezen naar het wettelijk kader dat de AI-verordening schept. Deze leden vragen op welk gebied er aanvullend nationaal beleid nodig is om volledig te handelen naar de waarden die Nederland nastreeft in haar digitalisering.
De leden van de GroenLinks-PvdA-fractie hebben opmerkingen en vragen over hoofdstuk 2. Zij vinden het risico van «hallucineren», waarbij een AI-model een verkeerd antwoord geeft, groot. Is het mogelijk om, bij AI-gegenereerde antwoorden die onzeker of niet geverifieerd zijn, een indicatie van twijfel toe te voegen? Welke waarborgen zijn er of worden ingebouwd zodat AI-modellen niet naar onbetrouwbare websites verwijzen en deze informatie uit de gebruikte trainingsdata wordt geweerd? Ook lezen de leden over het oprichten van een AI-adviesraad. Zij vinden het wenselijk dat deze als kenniscentrum dient. Echter zijn de leden van deze fractie van mening dat de discussie rondom waarden en ethiek bij het toepassen van AI in de Tweede Kamer thuishoort. Welke bevoegdheden heeft de adviesraad en over welke thema’s zullen zij adviezen uitbrengen? De leden vinden de visie op het gebied van «artificial general intelligence» nog weinig concreet. Kunt u nader toelichten wat Nederland doet op dit gebied? Ontwikkelt u hiervoor ook een strategie? Bovendien zien de leden twee sporen voor zich waarop Nederland een factor van belang kan zijn: het stimuleren en bijdragen aan Nederlandse of Europese techbedrijven die concurreren met de grote techgiganten om de machtsconcentratie op te breken, of het specialiseren in een gerichte toepassing van AI waar Nederland een niche mee invult en toonaangevend in wordt. Bent u het eens met deze analyse? Welke inzet levert u op deze mogelijke twee sporen? Welk uniek specialisme heeft Nederland te bieden in het ontwikkelen van waardengedreven AI en de onderliggende infrastructuur? Hoe versterkt u deze expertise? Welke samenwerkingen met andere EU-lidstaten liggen hierin voor de hand?
De leden van de GroenLinks-PvdA-fractie hebben opmerkingen en vragen over hoofdstuk 3. De leden lezen daarin een uitgebreide uiteenzetting van de kansen en risico’s van generatieve AI, maar missen op meerdere vlakken een duidelijke keuze tussen die belangen. De Staatssecretaris benoemt in haar brief dat de wenselijkheid van generatieve AI afhangt van de ontwikkeling, technologie en de intenties van de gebruiker. De leden vinden dat deze visie juist moet dienen om de bescherming tegen onwenselijk gebruik vast te leggen. Hoe zorgt u ervoor dat de risico’s gemitigeerd worden en de kansen op een verantwoordelijke wijze worden benut? Zij sporen het kabinet ook aan om duidelijker te maken hoe zij de kansen en risico’s tegen elkaar afweegt. Over de rol van generatieve AI als productietool willen de leden van de GroenLinks-PvdA-fractie weten hoe duidelijk wordt gemaakt wie de eigenaar van gegenereerde content is. Is dit de eigenaar van het AI-model, de personen wiens werk in de trainingsdata is gebruikt, of de eindgebruiker? Welke vorm van eigenaarschap vindt u wenselijk en hoe zorgt u ervoor dat dit is geborgd? Deze leden zijn van mening dat de risico’s dusdanig groot en maatschappelijk ontwrichtend zijn dat enige terughoudendheid op zijn plaats is. Zij pleiten eerst voor een verstrekkende regulering op de ongebreidelde marktwerking achter AI-modellen en stevige waarborgen dat deze het publieke belang dienen, voordat de kansen volop worden benut. De leden lezen over pilots met generatieve AI binnen de overheid op het gebied van dienstverlening. Kunt u toelichten welke generatieve AI-toepassingen nu worden gebruikt, getest of ontwikkeld bij de verschillende ministeries? Op welke wijze wordt de Kamer geïnformeerd over de reikwijdte en bevindingen van deze toepassingen? De leden benadrukken dat menselijke tussenkomst een randvoorwaarde is bij AI-geassisteerde besluitvorming die betrekking heeft op mensen. Hoe is dit geborgd?
De risico’s zijn volgens de leden van de GroenLinks-PvdA-fractie verstrekkend en zwaarwegend. Zo is het mogelijk grootschalig schenden van mensenrechten door ondoordachte AI-modellen een grote zorg. De leden lezen dat er «mogelijke» schendingen zijn van rechten op privacy, gegevensbescherming en auteursrechten. Echter is dit toch al een bewezen probleem van generatieve AI-modellen getraind op data via «scraping»? Bent u het met de leden eens dat het essentieel is om auteursrechten van onder andere journalisten, kunstenaars en wetenschappers beter te beschermen en het ongebreideld scrapen van data dit nu onmogelijk maakt? Zijn zij nog de eigenaar van de AI-producties die hun werk gebruiken? Ook is het van groot belang dat AI-modellen zonder bias opereren, maar dit is moeilijk te controleren wegens het «black box»-effect van generatieve AI. Hoe dwingt u AI-ontwikkelaars tot transparantie? Welke rol speelt het Rijks AI-validatieteam daarin? Hoe ver strekt haar bevoegdheid? De marktmacht van enkele monopolistische megabedrijven zien de leden van deze fractie als een van de meest fundamentele mankementen van het digitale domein, met verstrekkende en vaak onwenselijke invloed op de manier waarop AI-producten werken en gebruikt worden. Deze leden vragen u hoe u dit weegt in deze visie: is het vergroten van de afhankelijkheid van buitenlandse techgiganten niet rechtstreeks in strijd met de breed gedragen wens voor digitale strategische autonomie binnen Nederland en Europa? De leden zijn tevens bezorgd over de invloed van AI op arbeid. Waarop baseert u de claim dat economen geen afname van werkgelegenheid verwachten? Is de huidige arbeidsmarkt voldoende voorbereid op de mogelijke verschuivingen van werk? In welke sectoren en welke soorten functies worden (op korte termijn) de grootste verschuivingen verwacht en hoe bereidt u werknemers daarop voor? Kunt u garanderen dat de extra winst die voortkomt uit toepassingen van generatieve AI daadwerkelijk ten goede zal komen aan werknemers? Hoe wordt deze winst ten goede gebracht van de brede welvaart? Welke waarborgen zijn er nodig om een rechtvaardige verdeling van de winsten gemaakt door AI-toepassingen te garanderen? Op pagina 25 stelt u de volgende vragen: «Wie is er bijvoorbeeld verantwoordelijk voor schadelijke dan wel illegale inzet of output van bepaalde generatieve-AI-model? De modelontwikkelaar, de ontwikkelaar van de toepassing, de organisatie die de tool implementeert of de gebruiker?» Dit vinden de leden terechte vragen, maar zij verwachten dat het kabinet hier ook een uitgesproken mening over heeft. Kunt u de voor- en nadelen noemen van ieder van deze actoren? Welke rolverdeling vindt u wenselijk en hoe stuurt u hier op aan?
De leden van de GroenLinks-PvdA-fractie hebben nog enkele opmerkingen over hoofdstuk 4. Dit hoofdstuk geeft een duidelijk overzicht van huidige wet- en regelgeving. Deze leden zijn echter benieuwd hoe de controle op deze wetgeving is geregeld. Zij zien dat de grote stroom aan nieuwe regelgeving zorgt voor tegenstrijdigheden en onduidelijkheid bij sommige besluiten. Welke toezichthouder is verantwoordelijk voor het beslechten van dergelijke interpretatieverschillen en het scheppen van precedent? Is er een toezichthouder die de samenhang van wetten bewaakt en een duidelijker handelingsperspectief ontwikkelt als houvast voor uitvoerders en bedrijven? De leden steunen de richting van «open source, tenzij». Het is hen alleen nog niet duidelijk wanneer de «tenzij» van pas komt. Wanneer acht u het onmogelijk om open-source software in te zetten? Welke kaders geeft u organisaties die deze afweging moeten maken?
De leden bedanken u en de betrokken ambtenaren voor het beantwoorden van de vragen.
Vragen en opmerkingen van de leden van de VVD-fractie
De leden van de VVD-fractie hebben kennisgenomen van de Overheidsbrede visie op generatieve artificiële intelligentie (AI). Deze leden hebben nog enkele vragen en opmerkingen.
De leden van de VVD-fractie lezen dat generatieve AI kan bijdragen aan de duurzaamheidstransitie. Hoe zullen op korte termijn de zorgen over het energiegebruik opgevangen worden? Ook met oog op de krapte op het stroomnet?
De bovengenoemde leden vinden het goed dat de opgave om mensen te ondersteunen om zich te blijven ontwikkelen om vaardigheden te vergaren die aansluiten op de arbeidsmarkt mocht hun baan verdwijnen door technologie wordt aangepakt. Is hier ook een dialoog met het Ministerie van SZW over?
De leden van de VVD-fractie delen de zorgen over de afhankelijkheid van taalmodellen uit niet-Europese landen. Kunnen deze modellen naast het stroken met onze normen en waarden ook bijdragen aan discriminatie? Hoe wordt dit voorkomen? Wordt er ook ingezet op de ontwikkeling van taalmodellen die in Europa ontwikkeld worden?
Deze leden lezen dat de Autoriteit Persoonsgegevens toezicht moet houden op de naleving van de Algemene Verordening Gegevensbescherming (AVG). Is er genoeg ruimte en capaciteit binnen deze organisatie om dit goed uit te voeren?
De leden van de VVD-fractie vragen op welke manier een AI-adviesorgaan (of «Rapid Response Team») meegenomen kan worden in de besluiten die het kabinet neemt over belangrijke ontwikkelingen op het gebied van (generatieve) AI.
Tot slot willen de leden van de VVD-fractie graag de aangenomen motie Rajkowski en Dekker-Abdulaziz (Kamerstuk 30 821, nr. 193) in herinnering brengen. Eerder heeft het kabinet in een brief aangegeven het verbieden van ontwrichtende aanbevelingsalgoritmes niet uit te gaan voeren. Tegelijkertijd lezen deze leden dat het kabinet momenteel de inrichting van een AI-adviesorgaan aan het verkennen is. Wanneer dit AI-adviesorgaan operationeel is, zouden de leden van de VVD-fractie graag de aangenomen motie Rajkowski en Dekker-Abdulaziz (Kamerstuk 30 821, nr. 193) voor nader advies willen voorleggen aan het te vormen AI-adviesorgaan. Is het kabinet, gelet op de brede meerderheid voor de motie, voornemens de motie voor te leggen aan het in te richten AI-adviesorgaan? Zo nee, waarom niet?
Vragen en opmerkingen van de leden van de NSC-fractie
De leden van de NSC-fractie hebben met interesse kennisgenomen van de overheidsbrede visie op generatieve AI.
De leden van de NSC-fractie hechten eraan het volgende te benadrukken. Het is met het oog op de ontwikkelingen van de afgelopen jaren niet onwaarschijnlijk dat AI als systeemtechnologie wereldwijd voor nog onvoorzienbare veranderingen gaat zorgen op mondiaal niveau. Dit is afhankelijk van de wijze en het tempo waarin generatieve en overige vormen van AI ontwikkelen, evenals de toepassingsgebieden waarvoor de technologie inzetbaar blijkt en de systemen waarop AI opereert. Een cruciale kwestie is of (en op welke termijn) uiteindelijk een vorm van «general intelligence» met een hoog adaptief en evoluerend vermogen zal kunnen ontstaan. Dit zou in negatieve scenario’s tot gevolg kunnen hebben dat de mens de grip op de technologie verliest, met gevolgen in het spectrum van maatschappelijk verstorend tot existentieel bedreigend. Hierbij is onder meer te denken aan – al dan niet intentioneel – sabotage van (vitale) infrastructuur, digitale massasurveillance en een betrouwbaarheidscrisis in het domein van informatievoorziening. Er bestaat geen consensus over de waarschijnlijkheid van deze scenario’s, maar een significant aantal toonaangevende AI-experts heeft reeds aangegeven de potentiële dreiging serieus te nemen en heeft in dat kader opgeroepen tot actie en internationale coördinatie. Dit was onder andere de aanleiding voor de eerste AI Safety Summit van afgelopen november. De overheidsbrede visie benoemt ook het belang van een actieve rol voor Nederland op het internationale toneel, met onder andere het bepleiten van «pre-deployment audits» en het beschikbaar stellen van de «model weights» van de grote, geavanceerde modellen. De leden van deze fractie zouden graag zien dat die visie op waardengedreven en specifiek veilige AI in een internationale context verder uitgediept wordt.
Met de overweging dat enerzijds de doorontwikkeling van hoogwaardige AI mogelijk risico’s van een ongekende aard en omvang met zich meebrengt, en dat anderzijds de belangrijkste ontwikkelingen op AI zich hoofdzakelijk buiten de landsgrenzen afspelen, is het is de opvatting van de leden van de NSC-fractie dat Nederland moet komen tot een risicogebaseerde internationale AI-strategie, vergelijkbaar met de Internationale Cyberstrategie (ICS). Met het besef dat AI-incidenten niet categorisch voorkomen zullen kunnen worden, achten de leden het daarnaast van belang dat adaptieve maatregelen voor de Nederlandse fysieke en digitale leefomgeving in kaart gebracht worden met als doel potentiële schade door toekomstige geavanceerde AI te mitigeren of voorkomen.
Het kabinet stelt, in de ogen van de leden van de NSC-fractie, terecht dat de keten van de ontwikkeling van state-of-the-art AI-modellen een grote afhankelijkheid kent van Amerikaanse marktpartijen, maar dat Nederland vanwege zijn sterke halfgeleiderecosysteem tegelijkertijd een unieke positie in deze keten heeft. Dit maakt dat de leden benieuwd zijn wat de inzet van het kabinet gaat zijn binnen de Europese samenwerking om een goede concurrentiepositie op AI voor niet alleen de Europese Unie, maar ook specifiek voor Nederland te realiseren. Zij verzoeken het kabinet dit nader toe te lichten.
De leden van de NSC-fractie vragen, nu het kabinet benoemt dat significante investeringen in AI-infrastructuur benodigd zijn, of het kabinet kan inschatten of de huidige Nederlandse datacenter- en netcapaciteit volstaat om een volwassen AI-ecosysteem te creëren en te onderhouden, en zo niet, welke keuzes en afwegingen hierin gemaakt moeten worden.
Het kabinet stelt dat de hogere arbeidsproductiviteit ten gevolge van generatieve AI met het oog op historische trends zou kunnen leiden tot een toename in materiële welvaart, betere gezondheid en meer vrije tijd. De leden van de NSC-fractie willen hier wat kritische kanttekeningen bijplaatsen, omdat dit in hun ogen neigt naar een papieren werkelijkheid. Deze leden stellen ten eerste dat productiviteitsgroei niet de facto ook leidt tot een brede en eerlijke verdeling van de welvaart. Ten tweede willen zij benoemen dat het historisch gezien zeker niet evident is dat verhoogde productiviteit maakt dat mensen, specifiek diegenen die werken in dienstverband, meer vrije tijd krijgen. De leden verzoeken daarom het kabinet deze voorspelling nader te onderbouwen. Omdat het visiedocument hier niet nader op ingaat, vragen de leden welke maatregelen het kabinet wil treffen om te stimuleren dat productiviteitsgroei door AI leidt tot brede welvaart en een betere kwaliteit van leven.
De leden van de NSC-fractie vragen of er inmiddels iets meer bekend is over de contouren van het eventuele Rapid Response Team AI. Deze leden vragen het kabinet wat het maakt dat dit initiatief nog steeds in de verkenningsfase zit en welke afwegingen hierin nog spelen.
Vragen en opmerkingen van de leden van de D66-fractie
De leden van de D66-fractie hebben met interesse kennisgenomen van de overheidsbrede visie op generatieve AI. Deze leden hebben nog enkele vragen naar aanleiding van het visiestuk en de begeleidende brief.
Allereerst moedigen de leden van de D66-fractie van harte aan dat er ook goed wordt gekeken naar de kansen en mogelijkheden die generatieve AI biedt aan de samenleving. Gelukkig wordt dat ook veelvuldig benoemt in zowel de brief als het visiestuk. Zo wordt AI bijvoorbeeld gezien als «probleemoplosser» voor problemen binnen de gezondheidszorg. Deze leden zien graag een specificering op deze terreinen. Op welke manier kan AI als probleemoplosser functioneren voor maatschappelijke thematiek (zoals de gezondheidszorg) en wat er is er voor nodig om dat te bewerkstelligen? Het derde uitgangspunt, «het dienen en borgen van menselijke autonomie», moedigt enerzijds de inzet van AI in de zorg aan, en geeft aan dat het tegelijkertijd onwenselijk kan zijn. Vervolgens is de conclusie dat er maatschappelijk debat nodig is. Deze leden zouden graag een duidelijker standpunt zien ten opzichte van het zorgveld, waarbij de inzet – mits volgens alle voorzorgmaatregelen – wordt aangemoedigd en aangejaagd, zeker gezien de opgave binnen de zorg.
De leden van de D66-fractie constateren dat er al veel initiatieven zijn gestart om de vertaalslag van generatieve AI te maken naar constructieve bijdragen aan de samenleving. Zo bestaan er Ethical Legal and Societal Apects (ELSA)-labs waarin onderzoek wordt gedaan naar ethische en juridische aspecten van AI en worden er innovatielabs georganiseerd in samenwerking met AiNed. Kan het kabinet een aantal concrete resultaten of winstpunten benoemen die deze initiatieven hebben opgeleverd, behalve de samenwerkingsverbanden zelf?
De leden van de D66-fractie juichen toe dat de overheid investeert om verschillende sectoren voor te bereiden op het gebruik van generatieve AI. Uit de brief blijkt dat er voor een periode van tien jaar wordt gefinancierd met middelen vanuit het Nationaal Groeifonds. Echter, in hoeverre liggen deze middelen al vast? Kan deze financiering door een volgend kabinet weer worden stopgezet, of zijn deze verplichtingen juridisch verplicht?
Uit de brief blijkt ook dat het overheidsbreed de inzet is om nieuwe generaties generatieve AI met Nederlandse en Europese partners te ontwikkelen. In hoeverre zijn daar financiële middelen aan gekoppeld en zijn daar al voorbeelden van, zo vragen de leden van de D66-fractie?
De leden van de D66-fractie lezen dat er duidelijk wordt gemaakt waar AI-toepassingen volgens deze visie aan moet voldoen en waar ontwikkelaars zich aan dienen te houden. Tegelijkertijd weten we dat generatieve AI veel van wat online staat kan «scrapen» en daar trainingsmodellen mee kan vullen, ook als dit bijvoorbeeld persoonsgegevens bevat. In hoeverre zijn toezichthouders in staat om te deduceren met welke data taalmodellen zijn getraind, ook gezien de constatering in de overheidsvisie zelf dat generatieve AI modellen een significant «black-box karakter hebben» en «een gebrek aan interpreteerbaarheid hebben»? Welke methodes hebben toezichthouders om bij generatieve AI-modellen die niet open-source werken in te zien of de taalmodellen met de juiste data zijn getraind?
De leden van de D66-fractie maken zich zorgen om het auteursrecht dat gepaard gaat met generatieve AI-modellen. In de overheidsbrede visie wordt daar op ingegaan. Het is nu nog niet duidelijk of generatieve AI-modellen een beroep kunnen doen op de tekst- en datamining-exceptie. Dit betekent dat er mogelijk al lange tijd auteursrechten worden geschonden. Deze leden willen graag weten of er geen stappen mogelijk zijn om daar meer zekerheid in te krijgen, zoals het inwinnen van advies van de landsadvocaat of de Raad van State? De leden begrijpen dat online beschikbare werken nu alleen zijn beschermd als er een correct voorbehoud is gemaakt. In hoeverre is dit bekend, zo vragen de leden van deze fractie, en zou dit niet breder gecommuniceerd moeten worden? Ook wordt er gesteld dat output door AI alleen auteursrechtelijk wordt beschermd als er een samenwerking tussen een mens en AI is, maar vervolgens wordt gesteld «waarschijnlijk is de menselijke invloed op het uiteindelijke resultaat nog niet voldoende om van een werk in een de auteursrechtelijke betekenis van het woord te kunnen spreken». Deze leden zouden dit graag verhelderd zien worden: betekent dit dat door AI gegenereerd werk sowieso nooit een «werk in de auteursrechtelijke betekenis van het woord» kan zijn, ondanks de hoeveelheid creatieve keuzes? Wie maakt daarin de afweging? En in hoeverre is dit onderdeel van de AI Act?
Tot slot merken de leden van de D66-fractie op dat in de zes actielijnen van de kabinetsbrede visie weinig staat over het aantrekkelijk maken en stimuleren van het ondernemingsklimaat voor start-up/scale-ups op het gebied van generatieve AI. In hoeverre ligt daar een duidelijke visie aan ten grondslag en zijn daar financiële middelen aan gekoppeld? In hoeverre is er een duidelijk Europees initiatief, waarbij wordt geïnvesteerd in veelbelovende innovaties (zoals bij het Groeifonds)?
Vragen en opmerkingen van de leden van de BBB-fractie
De leden van de BBB-fractie hebben de stukken ter kennis aangenomen en hebben hierover de volgende vragen;
De leden van de BBB-fractie wijzen op de volgende passage uit de brief (Kamerstuk 26 643, nr. 1125): «Het kabinet richt de aandacht in het bijzonder op de impact van deze nieuwe digitale technologie op de samenleving.» (blz. 1). Hierover vragen deze leden wat de vastgestelde grenzen zijn aan het gebruik van AI met betrekking tot de bevoegdheden van overheden die ingrijpen in de rechtspositie van mensen.
De leden van de BBB-fractie lezen het volgende: «Ook bestaan er zorgen over mogelijke schendingen van rechten op het gebied van privacy, gegevensbescherming en auteursrechten.» Kan de Staatssecretaris aangeven in hoeverre de mogelijkheid tot bijvoorbeeld «scrapen» een bedreiging vormt voor de onafhankelijke en kwalitatieve nieuwsvoorziening in Nederland?
Deze leden lezen tevens: «Wat werk betreft, zijn er zorgen over de impact van generatieve AI op werkgelegenheid, de kwaliteit van werk en inkomensverdeling. Zowel op de korte als lange termijn kan generatieve AI leiden tot werkloosheid.» (blz. 5). Kan de Staatssecretaris verduidelijken welk deel van de arbeidspopulatie mogelijk geraakt gaat worden door de invloed van AI, hoeveel procent dit is, welke sectoren het meest positief en negatief beïnvloed gaan worden door de opkomst van AI? Hoeveel mensen zouden er cijfermatig omgeschoold moeten worden omdat een baan geautomatiseerd wordt, en hoeveel is dit procentueel van de totale arbeidspopulatie? Kan de Staatssecretaris aangeven waar de kansen liggen voor de Nederlandse economie in brede zin?
De leden van de BBB-fractie citeren de passage: «Maar er is ook een risico dat het taken doet verschralen, de autonomie van werkenden inperkt en de menselijkheid van werkrelaties onder druk zet.» (blz. 5). Kan de Staatssecretaris aangeven hoe de autonomie van werkenden ingeperkt worden, en welk beleid er wordt gemaakt om dit te voorkomen? Kan de Staatssecretaris verduidelijken hoe de menselijkheid van werkrelaties onder druk worden gezet en hoe dit voorkomen kan worden, en of hier actief beleid op wordt gemaakt?
Deze leden lezen: «Hier ligt onder andere een opgave van digitale inclusie.» (blz. 5). Kan de Staatssecretaris dit verder uitwerken, wat wordt er bedoeld met «digitale inclusie», en hoe omschrijft de Staatssecretaris dit?
De leden van de BBB-fractie zien de volgende passage: «Als alle mensen handvaten geboden wordt om nieuwe technologie te begrijpen en gebruiken, kunnen zij ook beter inspelen op de veranderingen die dat met zich meebrengt» (blz. 5). Hoe kunnen burgers die niet zo digitaal vaardig zijn meekomen in de omgang met deze technologie? Wordt er behalve aan kinderen ook aan ouderen gedacht wat betreft het laten begrijpen en gebruiken van deze nieuwe technologie?
Deze leden lezen: «Een andere uitdaging betreft machtsconcentratie. De opkomst van generatieve AI-technologie versterkt de al bestaande dynamiek in digitale markten, waarmee het risico op misbruik van marktmacht toeneemt.» (blz. 5). Kan de Staatssecretaris weergeven of en hoe mkb-bedrijven kunnen meekomen met het gebruik van deze technologie, en waar deze bedrijven nu tegenaan lopen bij het gebruik van deze nieuwe technologie?
De leden van de BBB-fractie lezen: «Kan dit leiden tot verhoogde toetredingsdrempels, hetgeen potentieel belemmerend is voor een productieve marktwerking.» (blz. 5). In hoeverre ontwerpt de Staatssecretaris beleid om deze potentiële belemmering te voorkomen?
De leden van de BBB-fractie wijzen op de volgende passage: «De uitdaging is dan ook om een markt te creëren waarin generatieve AI-toepassingen worden aangeboden die aan alle Nederlandse en Europese waarden en wetten voldoen.» (blz. 5). Hoe en door wie worden die «Nederlandse en Europese waarden en wetten» vastgesteld? Is de Staatssecretaris het ermee eens dat die waarden en wetten een continu veranderend proces zijn en dat het continu monitoren van de waarden en wetten nodig is om de wetten en regels omtrent generatieve AI up-to-date te houden? In hoeverre worden die waarden en wetten bepaald door de Nederlandse burger, en hoe is dit verwerkt in het beleid om de markt van generatieve AI toepassingen te reguleren?
De leden van de BBB-fractie lezen: «Dit betekent het actief betrekken van inwoners, uitvoerders, werknemers, werkgevers, ondernemers, bedrijven en professionals.» Kan de Staatssecretaris aangeven in hoeverre brancheorganisaties van nieuwsmedia betrokken zijn bij het vormen van een breed gedragen visie op generatieve AI?
Deze lezen citeren: «Verkennen we daarom onder meer manieren waarop generatieve AI kan ondersteunen om de communicatie met burgers te verhelderen en inclusiever te maken.» (blz. 13). Kan de Staatssecretaris specificeren wat er bedoeld wordt met inclusiever maken? Hoe wordt de communicatie inclusiever? Waarom moet communicatie inclusiever worden?
De leden van de BBB-fractie citeren: «Ook beproeven we via pilots de meerwaarde van het toepassen van generatieve AI bij het verbeteren van overheidsdienstverlening.» (blz. 13). Kan de Staatssecretaris uitwerken welke pilots er lopen, deze opsommen en kort samenvatten? Hoe zijn die pilots ontworpen, welke ontwerpkeuzes liggen daaraan ten grondslag? Zijn er al resultaten van lopende pilots aanwezig?
De leden van de BBB-fractie vragen of de Staatssecretaris kan aangeven welke concrete gedocumenteerde richtlijnen er zijn op het gebied van het gebruik van AI door ambtenaren. In welke ministeries zijn die richtlijnen aanwezig en zou de Staatssecretaris die verschillende richtlijnen kunnen verzamelen en naar de Kamer kunnen sturen (dus niet de richtlijn vanuit de overheidsbrede visie, maar de richtlijnen op het gebied van het gebruik van AI zoals ambtenaren deze in de praktijk gebruiken)?
De leden van de BBB-fractie citeren: «Dit doen we vanuit een waardengedreven benadering.» (blz. 13). Kan de Staatssecretaris beschrijven wat deze waarden precies zijn, en wie die heeft vastgesteld en waar hierover meer informatie te vinden is?
De leden van de BBB-fractie lezen: «Dit vraagt om verdere inzet op het vergroten van mediawijsheid van verschillende doelgroepen.» (blz. 13). Kan de Staatssecretaris aangeven of AI gelijke kansen biedt aan theoretische en praktisch geschoolde mensen, of dat daar een wezenlijk verschil tussen is, en als hier een wezenlijk verschil in zit, hoe dit voorkomen kan worden?
Deze leden citeren: «Een proactieve benadering is hierbij essentieel, waarbij de overheid vanaf het begin kaders biedt om de ontwikkeling van generatieve AI in goede banen te leiden en ongewenste (generatieve) AI te weren.» Kan de Staatssecretaris aangeven in hoeverre experts het mogelijk vinden om ongewenste (generatieve) AI te weren? Wat is het percentage waarin dit mogelijk is? Recentelijk vond er een wedstrijd op het internet plaats om een bepaalde vorm van generatieve AI ondanks veiligheidseisen toch een output te geven die zou omschreven kunnen worden als onwenselijk. Het is dus mogelijk om met zeer specifieke input te komen tot een onwenselijke output. In hoeverre is de Staatssecretaris ervan op de hoogte dat ondanks hoge veiligheidseisen en waarden het mogelijk is om hiertoe te komen? Wat is volgens de Staatssecretaris het acceptabele punt waarop het voorkomen van ongewenste uitkomsten door AI bestreden is?
Vragen en opmerkingen van de leden van de CDA-fractie
De leden van de CDA-fractie hebben met interesse kennisgenomen van de visie en hebben hierover nog enkele vragen.
De leden van de CDA-fractie vragen of de Staatssecretaris een update wil geven over de laatste stand van zaken ten aanzien van de AI-verordening. Deze leden vragen ook wanneer de Staatssecretaris de Nederlandse uitvoeringswet verwacht naar de Kamer te sturen.
De leden van de CDA-fractie vragen of de Staatssecretaris de mening deelt dat de opkomst van generatieve AI het belang van digitale inclusie en digitale geletterdheid alleen maar groter maakt. En zo ja, dan vragen deze leden vragen hoe dit tot uiting komt in extra stappen op dit gebied aanvullend op de acties uit de Werkagenda. Deze leden vragen welke plaats de ontwikkeling van generatieve AI heeft binnen de aanpak van digitale inclusie en digitale geletterdheid.
De leden van de CDA-fractie delen de mening dat sterk toezicht nodig is op de risico’s van generatieve AI. Deze leden lezen dat het kabinet het van belang acht «om te blijven evalueren of toezichthouders beschikken over de kennis en kunde, capaciteit en middelen om hun taken nu en in de toekomst effectief te kunnen uitvoeren.» Deze leden vragen hoe de Staatssecretaris dit concreet aanpakt.
De leden van de CDA-fractie vragen naar de samenhang van deze overheidsbrede visie met de Nationale Technologie Strategie, waarin AI is aangewezen als één van de tien sleuteltechnologieën die het Nederlandse verdienvermogen moet stutten. Deze leden vragen wat de rol van generatieve AI hierin is.
Vragen en opmerkingen van de leden van de SP-fractie
De leden van de SP-fractie hebben kennisgenomen van de overheidsbrede visie generatieve AI, en hebben hierover een aantal vragen aan de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties.
De leden van de SP-fractie hebben een aantal vragen over het gebruik van generatieve AI in de kunst- en cultuursector. Allereerst vragen deze leden of de Staatssecretaris voldoende in beeld heeft hoe generatieve AI-modellen worden getraind op de kunst en werk van kunstenaars, auteurs, acteurs, makers van grafische media, musici, en vele andere beroepen. Kent de Staatssecretaris het NRC interview met de Britse AI-hoogleraar Steward Russell op 6 nov. jl., waarin deze onder meer zegt: «Als we AI inzetten om werk te doen dat nu door mensen wordt gedaan, zal de opkomst van AI leiden tot enorme werkloosheid.»1 Voor de professionals in de culturele en creatieve sector is het nog schrijnender. Het werk van de mensen in die sector wordt gescrapet en ingezet om generatieve AI-modellen te trainen, waardoor AI werk kan doen en maken waarmee het werk van echte en levende kunstenaars en creatieve makers overbodig en in verhouding veel duurder wordt. Hierdoor verdienen grote techbedrijven zoals Google en OpenAI veel geld aan het harde werk van kunstenaars en makers en worden diezelfde kunstenaars, naast dat hun eerdere werk grootschalig wordt gescrapet door diezelfde en veel goedkoper genererende AI-modellen, ook nog eens van hun toekomstige werk en dus inkomen beroofd. De leden van deze fractiezijn van mening dat deze praktijken onrechtmatig, onrechtvaardig en vooral ook onwenselijk zijn. Is de Staatssecretaris het hiermee eens? Als een bedrijf AI-gegenereerd werk wat bedoeld is om de kunst of stijl van bepaalde personen na te bootsen gebruikt in hun advertenties en/of producten, is er dan sprake van plagiaat? Welke stappen kunnen kunstenaars en makers nu nemen om hun werk uit de trainingsdata van generatieve AI te halen, zoals een opt-out? Is de Staatssecretaris van mening dat kunstenaars en creatieve makers voldoende worden beschermd? Deelt de Staatssecretaris de mening dat er bij alle AI-gegenereerde werken duidelijk moet worden weergeven dat het door AI is gegenereerd? Veel kunstenaars en makers zijn boos en bang over het gebruik van hun werk in de training van generatieve AI-modellen. Zo heeft de Kunstenbond hierover een position paper geschreven. Is de Staatssecretaris bekend met deze position paper? Zou zij hierop een uitgebreide reactie kunnen geven? Is zij bereid de toegelichte punten in deze paper over te nemen?2
Ook hebben de leden van de SP-fractie vragen over het gebruik van generatieve AI bij de overheid. In de overheidsbrede visie generatieve AI lezen deze leden dat de Staatssecretaris mogelijkheden ziet om met gebruik van generatieve AI processen te verbeteren, het algemeen functioneren van de overheid te verbeteren, en de dienstverlening aan burgers te optimaliseren. Zou de Staatssecretaris dit kunnen toelichten, en specifiek kunnen ingaan op hoe generatieve AI kan worden gebruikt bij fraudeopsporing en dienstverlening? De leden van de SP-fractie zijn van mening dat inzet van AI om fraude op te sporen niet moet worden toegestaan als mensenrechten niet gewaarborgd kunnen worden. Deelt de Staatssecretaris deze mening? Is de Staatssecretaris van plan om op grote schaal chatbots in te zetten bij de rijksoverheid? De leden van de SP-fractie zien daarin een risico dat chatbots ter vervanging komen van menselijk contact. Is de Staatssecretaris het met deze leden eens dat het altijd makkelijk moet zijn voor inwoners om menselijk contact te hebben met de overheid?
Ten slotte hebben de leden van de SP-fractie vragen over het gebruik van generatieve AI in het onderwijs. De Staatssecretaris geeft namelijk aan dat deze technologie leerlingen kan ondersteunen bij het maken van samenvattingen, het uitleggen van leerstof en het creëren van oefenvragen. Deze leden vragen of dit een verbetering van het onderwijs is. Met dit soort gebruik van generatieve AI worden praktijken die juist goed zijn om te oefenen overgelaten aan software. Welke impact denkt de Staatssecretaris dat het gebruik van generatieve AI op deze manier heeft op de leesvaardigheid van leerlingen? Ook lezen de leden van deze fractie dat docenten generatieve AI kunnen gebruiken om op basis van studentendata uit het verleden, een voorspelling te maken over het toekomstig presteren van studenten. Deze leden zien de meerwaarde die deze praktijk kan hebben. Deze data kan gebruikt worden om te zien welke studenten meer ondersteuning nodig hebben. Tegelijkertijd zijn deze leden van mening dat docenten dit sowieso moeten doen, en zij vragen of het gebruik van generatieve AI hiervoor alleen nodig is vanwege het tekort aan leerkrachten. Is deze werkwijze niets meer dan een pleister plakken op een diepe wond?
Vragen en opmerkingen van de leden van de Volt-fractie
De leden van de Volt-fractie hebben kennisgenomen van de Overheidsbrede visie op generatieve AI (hierna: «visie») van het kabinet. De Volt-fractie wil het kabinet en in het bijzonder de Staatssecretaris voor digitalisering complimenteren met de uitgebreide visie. In de visie en de bijbehorende stukken blijkt dat het kabinet de ontwikkelingen op het gebied van AI nauwgezet volgt en blijkt een grote ambitie.
Over de visie hebben de leden van de Volt-fractie nog enkele vragen die zien op de existentiële risico’s van AI, de internationale samenwerking en eerdere moties die de Volt-fractie heeft ingediend.
De leden van de Volt-fractie zijn groot voorstander van internationale en Europese samenwerking op het gebied van AI-regulering en beleid. In dat licht vragen de leden in hoeverre het kabinet heeft gekeken naar beleid van andere (gelijkgestemde) landen op het gebied van generatieve AI en welke elementen uit dat beleid zij hebben overgenomen en of er elementen zijn waar zij expliciet is afgeweken van standaarden uit die landen? De leden vragen ook op welke punten samenwerking met gelijkgestemde landen nog niet voldoende functioneert en wat het kabinet daar aan doet.
Kinderen en jongeren hebben breed toegang tot generatieve AI. Soms zelf zonder dat zij zich daarvan bewust zijn. Die toegang heeft grote impact op hen en zij kunnen zich daar minder makkelijk tegen weren dan de rest van de samenleving. In dat licht hebben de leden van de Volt-fractie een aantal vragen: hoe wordt geborgd dat de stem van kinderen en jongeren mee wordt genomen bij het ontwikkelen van beleid en wetgeving aangaande (generatieve) AI? Kan het kabinet toelichten waarom in het hoofdstuk over de wettelijke kaders, het Internationaal Verdrag inzake de Rechten van het Kind niet is opgenomen? In het geval het kabinet dit wenselijk vindt, is zij bereid om dit wettelijk kader toe te voegen aan de visie?
De leden van de Volt-fractie hebben meerdere moties op het gebied van AI ingediend in de afgelopen jaren. Nu de AI-verordening een definitieve tekst heeft, vragen deze leden of het kabinet al werk maakt van het opnemen van een wettelijke verplichting voor overheden om algoritmes te registeren in een register.3 Met betrekking tot de motie Dassen om een impactanalyse per ministerie uit te voeren vragen deze leden het kabinet of zij van mening is dat de motie hierbij volledig is uitgevoerd. Zo ja, waarom? Zo niet, hoe wordt verder invulling gegeven aan de motie?4
Een risico dat de leden van de Volt-fractie nog onderbelicht vinden in de visie is het mogelijke existentiële risico dat AI met zich meebrengt.5 Hoewel de leden inzien dat AI grote kansen meebrengt en er aandacht moet zijn voor de fundamentele problemen in het hier en nu, zijn zij van mening dat de overheid een verantwoordelijkheid heeft om alle risico’s af te wegen. In dat licht vragen deze leden het kabinet om op de existentiële risico’s te reflecteren en om dit in de visie te verwerken.
Uit de Scan Generatieve AI van het Rathenau Instituut blijkt dat het huidige beleid de risico’s op het gebied van non-discriminatie, mededinging, arbeidsomstandigheden, veiligheid en desinformatie onvoldoende adresseert. Daarnaast concludeert het Rathenau Instituut dat generatieve AI-systemen invloed hebben op de sociale, cognitieve en culturele ontwikkeling van mensen. De leden van de Volt-fractie vragen het kabinet in hoeverre zij zich in deze conclusies herkent en of het kabinet zich verantwoordelijk en geschikt acht om deze risico’s te verminderen en welke maatregelen zij voorstelt om deze risico’s te verminderen.
Omdat de ontwikkelingen op het gebied van generatieve AI ontzettend snel gaan, is het van belang dat er ook snel ingegrepen kan worden op het moment dat er ontwikkelingen zijn die te grote risico’s meebrengen. In die zin begrijpen de leden van de Volt-fractie de wens om na te denken over een «Rapid Response Team», maar willen zij het kabinet wel vragen om nader toe te lichten wat «ingrijpen» precies inhoudt en hoe dit zich verhoudt tot het huidige stelsel van toezicht en handhaving. Wordt een dergelijk team bijvoorbeeld wettelijk verankerd?
II Antwoord / Reactie van de bewindspersoon
AI-expert: «Als de overheid niet snel ingrijpt, gaan we in de komende twaalf maanden de consequenties voelen». NRC, 6 november 2023. https://www.nrc.nl/nieuws/2023/11/06/hoogleraar-ai-als-de-overheid-niet-snel-ingrijpt-gaan-we-in-de-komende-twaalf-maanden-de-consequenties-voelen-a4179949?t=1707986947.↩︎
Position paper: generatieve kunstmatige intelligentie. Kunstenbond, 8 februari 2024. https://kunstenbond.nl/nieuws/lees-hier-onze-position-paper-over-ai/.↩︎
Kamerstukken II 2021/22, 35925-VII-26 (motie van het lid Dassen c.s. over het gebruik van het algoritmeregister voor overheden verplicht stellen), via: Vaststelling van de begrotingsstaten van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (VII) voor het jaar 2022 | Tweede Kamer der Staten-Generaal.↩︎
Kamerstukken II 2023/24, 36 410, nr. 53.↩︎
NRC 19 juli 2023, Opinie | Existentieel risico of niet, we moeten AI beheersen – NRC.↩︎