Antwoord op vragen van het lid Leijten over de zorgen van honderden techprominenten over de ontwikkelingen op het gebied van kunstmatige intelligentie (AI)
Antwoord schriftelijke vragen
Nummer: 2023D28603, datum: 2023-06-27, bijgewerkt: 2024-02-19 10:56, versie: 3
Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (ah-tk-20222023-3046).
Gerelateerde personen:- Eerste ondertekenaar: A.C. van Huffelen, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties
- Mede namens: M.A.M. Adriaansens, minister van Economische Zaken en Klimaat
Onderdeel van zaak 2023Z05597:
- Gericht aan: A.C. van Huffelen, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties
- Indiener: R.M. Leijten, Tweede Kamerlid
- Voortouwcommissie: TK
Preview document (🔗 origineel)
Tweede Kamer der Staten-Generaal | 2 |
Vergaderjaar 2022-2023 | Aanhangsel van de Handelingen |
Vragen gesteld door de leden der Kamer, met de daarop door de regering gegeven antwoorden |
3046
Vragen van het lid Leijten (SP) aan de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over de zorgen van honderden techprominenten over de ontwikkelingen op het gebied van kunstmatige intelligentie (ingezonden 30 maart 2023).
Antwoord van Staatssecretaris Van Huffelen (Binnenlandse Zaken en Koninkrijksrelaties) mede namens de Minister van Economische Zaken en Klimaat (ontvangen 27 juni 2023).
Vraag 1
Herkent en erkent u de kritiek van honderden techprominenten dat er onvoldoende oog is voor de mogelijke maatschappelijke ontwrichtende effecten die kunstmatige intelligentie toepassingen met zich mee brengen? Kunt u uw antwoord uitgebreid toelichten?1
Antwoord 1
Het is uiteraard belangrijk dat er aandacht is voor de impact die de inzet van (krachtige) AI-systemen op onze samenleving kan hebben. Het afgelopen half jaar heeft de aandacht voor met name generatieve AI-systemen daarbij een enorme vlucht genomen.
Enerzijds maakt het karakter van deze technologie het mogelijk om als zeer geavanceerd hulpmiddel taken uit handen te nemen of te vergemakkelijken en bij te dragen aan maatschappelijke opgaven, anderzijds heeft het de potentie om bij te dragen aan desinformatie of manipulatie. Deze ongewenste, en in sommige gevallen potentieel ontwrichtende, effecten zijn zorgwekkend. Het tempo waarin deze technologie zich ontwikkelt brengt daarnaast onzekerheden met zich mee en daarbij bestaan er nog vraagtekens.
De Wetenschappelijke Raad voor het Regeringsbeleid (WRR) schrijft in haar rapport «opgave AI» dat effecten van (nieuwe) AI op publieke waarden niet vooraf te voorspellen zijn.2 Het is daarom belangrijk dat er in de maatschappij een continu debat gevoerd wordt en dat de overheid structureel signalen uit de samenleving ophaalt en uitgaat van een lerende aanpak. Momenteel wordt er daarom gewerkt aan het ontwikkelen van een visie op generatieve AI, naar aanleiding van een motie van de leden Dekker-Abdulaziz en Rajkowski.3 Ik informeer uw Kamer nog voor de zomer over de vorderingen. Deze visie zal open tot stand komen en zullen burgers, bedrijven en overheden actief worden gevraagd om bij te dragen aan dit traject.
Tegelijkertijd zet het kabinet zich in om de reeds bekende risico’s van AI te adresseren, in de eerste plaats via regulering. Naast al bestaande voor AI relevante wet- en regelgeving (zoals de AVG en de Grondwet) richt de Europese AI-verordening – die op dit moment nog in onderhandeling is – zich specifiek op een aanscherping van het reguleren van AI-systemen in de Europese Unie. De AI-verordening is productwetgeving, opdat AI systemen pas op de markt komen als aan de eisen van de verordening is voldaan. In de concept AI-verordening4 zijn AI-systemen onderverdeeld in verschillende categorieën. Afhankelijk van de categorie waarin een AI-systeem valt, gelden zwaardere of minder zware eisen. Het merendeel van de eisen geldt voor AI-systemen met hoge risico’s voor gezondheid, veiligheid en mensenrechten.
Daarnaast blijft het kabinet zich inzetten op het stimuleren van mensgerichte AI. Dit gebeurt onder andere door te investeren in de ontwikkeling van oplossingen voor verantwoorde en veilige AI via onder meer de ELSA-labs5 en het ROBUST-programma.6 Naast het weren van negatieve AI-toepassingen, moeten we positieve AI-toepassingen blijven omarmen.
Vraag 2
Bent u het eens met de stelling dat de maatschappelijke vraagstukken die voortkomen uit de toepassing van kunstmatige intelligentie niet bepaald moeten worden door techbedrijven maar een maatschappelijk en politiek debat verdienen? Vindt u dit maatschappelijke en politieke debat tot op heden voldoende gevoerd? Kunt u uw antwoord uitgebreid toelichten?
Antwoord 2
Ja, ik kan mij vinden in de stelling dat maatschappelijke vraagstukken die voortkomen uit AI-toepassingen een brede maatschappelijke dialoog verdienen. Daarbij onderstreep ik dat het debat zowel maatschappelijk als politiek hierover momenteel op veel verschillende manieren wordt gevoerd.
Door de recente ontwikkelingen op het gebied van AI is de aandacht voor AI in het publieke debat sterk toegenomen. Dit is bijvoorbeeld merkbaar aan de grote (social) media-aandacht voor het onderwerp. Het maatschappelijk debat over de impact van AI op onze samenleving wordt echter al langere tijd gevoerd. Hierbij is aandacht voor zowel de enorme kansen die met een technologie als AI gemoeid gaan, alsook de risico’s. Zo is er afgelopen jaren veel aandacht geweest voor onderwerpen als transparantie, bias en het belang van menselijk toezicht op AI. Deze signalen zijn actief meegenomen in het nationale AI-beleid.
Om zicht te houden op nieuwe maatschappelijke vraagstukken en risico’s van AI is het van groot belang het gesprek hierover met verschillende partijen te blijven voeren. Deze maatschappelijke dialoog staat ook centraal bij het in 2023 komen tot een (kabinets)visie op generatieve AI, waarbij een stevig maatschappelijk debat over de maatschappelijke impact van (generatieve) AI met burgers, overheden en bedrijven zal worden gevoerd en als belangrijke input fungeert.
Hier ligt ook een brede en gedeelde verantwoordelijkheid, ook bij aanbieders en gebruikers van AI, wetenschappers, onderwijsinstellingen, burgers en overheden. En daar zet het kabinet zich vol voor in, bijvoorbeeld via de Nederlandse AI Coalitie. Via dit publiek-private samenwerkingsverband werken overheid, bedrijfsleven, onderwijs- en onderzoeksinstellingen en maatschappelijke organisaties in gezamenlijkheid aan maatschappelijk verantwoorde AI-toepassingen.
Daarnaast is de (aankomende) AI-verordening een directe reactie op de in de maatschappij gesignaleerde risico’s. De Europese Unie pakt met deze verordening de regie rondom de maatschappelijke vraagstukken rondom AI. Dit geldt ook voor een aantal andere Europese wetten, zoals de Digital Markets Act en de Digital Services Act. Bedrijven mogen alleen (digitale) producten en diensten leveren op de Europese markt als deze veilig zijn en mensenrechten respecteren.
Vraag 3
Kunt u de concrete uitwerking van het waardenkader sturen, naar aanleiding van aangenomen motie Leijten en Ceder? Zo nee, wanneer kan de Kamer deze concrete uitwerking verwachten?7
Antwoord 3
Met uw Kamer deel ik de behoefte aan één duidelijk waardenkader dat toegepast kan worden in digitalisering in alle sectoren. Tegelijkertijd constateer ik dat er al meerdere waardenkaders zijn die tegelijkertijd gelden. Zo zijn de waarden die wij als maatschappij van fundamenteel belang achten vastgelegd in de Grondwet. Hierbij valt te denken aan non-discriminatie, privacy en vrijheid van meningsuiting. De bescherming van deze waarden is uitgewerkt in wetgeving. De AVG ziet bijvoorbeeld toe op de bescherming van persoonsgegevens. Op basis van deze wet- en regelgeving zijn er diverse handreikingen opgesteld om organisaties te helpen deze waarden ook in de praktijk te beschermen. Voorbeeld hiervan zijn de Impact Assessment Mensenrechten Algoritmen (IAMA),8 de handreiking non-discriminatie by design en de Code Goed Digitaal Openbaar Bestuur (CODIO)9.
Welke publieke waarden een rol spelen in concrete situaties is (mede) afhankelijk van de sector en het specifieke geval. Zo is de hierboven genoemde CODIO voor digitalisering in het openbaar bestuur opgebouwd als een bouwwerk dat bestaat uit drie fundamenten: (1) democratie, (2) rechtstaat en (3) bestuurskracht; zes principes: (1) participatie, (2) maatschappelijke waarde, (3) mensenrechten, (4) procedurele rechtvaardigheid, (5) bestuurskwaliteit en (6) verantwoordelijkheid; en 30 specifieke waarden. De code biedt een rijkheid aan waarden maar ook drie heldere ankerpunten: democratie, rechtstaat en bestuurskracht. De vraag die in het openbaar bestuur wordt gesteld ziet minder op een aanvullend waardenkader dan op handreiking bij de toepassing van alle bestaande kaders. Daarom ontwikkel ik bijvoorbeeld een implementatiekader «verantwoorde inzet van algoritmes» met daarin alle verplichte en aanbevolen onderdelen waarmee rekening moet worden gehouden bij het ontwikkelen en inzetten van algoritmes.
Tegelijkertijd heb ook ik de behoefte om de bestaande waardenkaders in samenhang te beschouwen en te verbinden. In de brief over het implementatiekader, die u nog voor de zomer van mij ontvangt, zal ik aangeven hoe we daartoe willen komen.
Vraag 4
Kunt u zich vinden in de oproep van de techprominenten om een pauze in te lassen met betrekking tot het gebruik van vergaande kunstmatige intelligentie en kunt u in uw antwoord betrekken hoe zich dit verhoudt tot het normenkader dat moet worden opgesteld door de Autoriteit Persoonsgegevens en dat nog niet ontwikkeld is?
Antwoord 4
Ik herken zorgen die genoemd worden in de oproep van techprominenten en het is goed dat zij daarvoor aandacht vragen.
De oproep richt zich echter in grote mate op toekomstige ontwikkelingen, terwijl we nu al impact zien van generatieve AI. Daarbij gaat het bijvoorbeeld om desinformatie en gevolgen voor het onderwijs. Deze gevolgen worden niet opgelost met een pauze. Het is daarom van belang om ook nu al actie te nemen.
Op de korte termijn werkt het kabinet aan adresseren van die gevolgen.10 Het kabinet werkt ook aan een integrale visie op generatieve AI naar aanleiding van een motie11 van uw Kamer.
Daarnaast is de oproep een steun in de rug voor de Nederlandse en Europese aanpak om tot mensgerichte AI te komen. Zoals in antwoord 1 beschreven, investeren we in het veiliger kunnen maken van AI-systemen en stellen gaan we via de AI-verordening eisen stellen om deze veiligheid te waarborgen.
In Nederland werken we ook aan het versterken van toezicht op algoritmes en AI. Diverse toezichthouders hebben met AI en algoritmes te maken. De DCA bij de AP richt zich vanaf januari 2023, conform de doelen in de inrichtingsnota algoritmetoezichthouder, op het komen tot gezamenlijke en sectoroverstijgende normuitleg.12 Bijvoorbeeld over transparantieverplichtingen in wet- en regelgeving. Ook faciliteert de AP het gezamenlijk uitleggen van juridische normen en kaders op het gebied van algoritmes en AI. Dit moet bijdragen aan het scheppen van duidelijkheid aan ondertoezichtgestelden – bijvoorbeeld bedrijven of overheden – over hoe en aan welke normen zij moeten voldoen als het gaat om de (verantwoorde) inzet van AI. Naast deze inspanningen van de DCA zal het kabinet het toezicht op basis van de AI verordening vormgeven zodra deze definitief tot stand is gekomen. Bij de voorbereiding, die nu al loopt zijn diverse toezichthouders betrokken.
Vraag 5
Kunt u aangeven welke adviescolleges, instanties of andere gremia de overheid en bestuurders adviseren over de ethische aspecten van het gebruik van kunstmatige intelligentie en nieuwe digitale toepassingen?
Antwoord 5
Bij de ontwikkeling en het gebruik van AI en nieuwe digitale toepassingen wint de overheid advies in over de ethische aspecten van een breed scala aan organisaties, bedrijven en personen, waaronder de wetenschap en het maatschappelijk middenveld. Recente voorbeelden daarvan zijn onderzoeken van het Rathenau Instituut en de WRR. Deze organisaties worden ook betrokken bij het opstellen van de kabinetsvisie op generatieve AI.
Onderdelen van de rijksoverheid en andere (mede-)overheden hebben daarnaast ook zelf adviesorganen voor de ethische aspecten van het gebruik van AI en digitale toepassingen. Voorbeelden daarvan zijn de Commissie Data Ethiek van het UWV en de Adviescommissie Analytics bij het Ministerie van Financiën en ethische commissies bij gemeenten en provincies.
https://futureoflife.org/open-letter/pause-giant-ai-experiments/.↩︎
WRR rapport «Opgave AI», p. 403.↩︎
Kamerstuk 26 643, nr. 998.↩︎
https://data.consilium.europa.eu/doc/document/ST-14954–2022-INIT/nl/pdf.↩︎
Ethical, Legal and Societal Aspects (ELSA).↩︎
In samenwerking met universiteiten, overheidsorganisaties, bedrijven en NWO. Voor meer informatie, zie: https://www.uva.nl/en/content/news/press-releases/2023/01/robust-ai-programme-receives-additional-%E2%82%AC25-million-in-funding-from-dutch-research-council.html.↩︎
Motie van de leden Leijten en Ceder over een duidelijk waardenkader met betrekking tot de inzet, regulering en toepassing van digitale technologie door de overheid (Kamerstuk 26 643, nr. 871).↩︎
https://www.rijksoverheid.nl/documenten/rapporten/2021/02/25/impact-assessment-mensenrechten-en-algoritmes.↩︎
https://www.rijksoverheid.nl/documenten/rapporten/2021/04/30/code-goed-digitaal-openbaar-bestuur.↩︎
Zie ook eerdere beantwoording: Aanhangsel Handelingen II 2022/23, nrs. 1835, 2037 en 2039.↩︎
Kamerstuk 26 643, nr. 1003.↩︎
Kamerstuk 26 643, nr. 953.↩︎