[overzicht] [activiteiten] [ongeplande activiteiten] [besluiten] [commissies] [geschenken] [kamerleden] [kamerstukdossiers] [🧑mijn] [open vragen]
[toezeggingen] [stemmingen] [verslagen] [🔍 uitgebreid zoeken] [wat is dit?]

Lijst van vragen over Overheidsbreed standpunt generatieve AI (Kamerstuk 26643-1331)

Informatie- en communicatietechnologie (ICT)

Lijst van vragen

Nummer: 2025D27155, datum: 2025-06-11, bijgewerkt: 2025-06-11 13:55, versie: 1

Directe link naar document (.docx), link naar pagina op de Tweede Kamer site.

Gerelateerde personen:

Onderdeel van zaak 2025Z07978:

Onderdeel van activiteiten:

Preview document (🔗 origineel)


26643 Overheidsbreed standpunt generatieve AI

nr. Lijst van vragen

De vaste commissie voor Digitale Zaken heeft een aantal vragen voorgelegd aan de demissionair minister van Binnenlandse Zaken en Koninkrijksrelaties over de brief d.d. 22 april 2025 inzake Overheidsbreed standpunt generatieve AI (Kamerstuk 26643, nr. 1331).

Voorzitter van de commissie,

Wingelaar

Adjunct-griffier van de commissie,

Muller

Nr Vraag Bijlage Blz. (van) t/m
1 Hoe kan het overheidsbreed standpunt voor de inzet van generatieve AI ook voor externe partijen die diensten leveren aan overheidsorganisaties, gaan gelden?
2 Hoe wordt bij het gebruik van generatieve AI door overheidsmedewerkers beoordeeld of er sprake is van gevoelige of vertrouwelijke informatie? Wie beoordeelt dat? Welke criteria en kaders gelden daarbij?
3 In hoeverre wordt er nu al gebruik gemaakt van generatieve AI door overheidsmedewerkers?
4 Heeft dit standpunt betrekking op het gebruik door overheidsmedewerkers bij het ontwikkelen van beleid of ook op het gebruik ervan bij het beoordelen van allerlei aanvragen (bijvoorbeeld vergunningen en subsidies) van burgers? Als dat laatste het geval is, in hoeverre kan dat zonder aanpassing van wet- en regelgeving? Of is er nog aanpassing van wet- en regelgeving nodig? Zo ja, welke wet- en regelgeving?
5 Hoe breed wordt generatieve AI momenteel in de overheid gebruikt? In welke domeinen en met welke doelen worden modellen vooral gebruikt?
6 Wordt generatieve AI momenteel gebruikt in het opstellen van overheidscommunicatie of beleidsstukken? Zo ja, kunt u aangeven hoeveel overheidsberichten en beleidsteksten nu door AI worden geschreven?
7 Hecht u er waarde aan dat burgers die informatie van de overheid ontvangen of opzoeken, teksten lezen die daadwerkelijk door mensen zijn geschreven?
8 Garandeert u dat overheidscommunicatie en beleidsstukken altijd door mensen worden geschreven, en hierin geen gebruik wordt gemaakt van generatieve AI?
9 Indien er generatieve AI is gebruikt in het schrijven van een overheidsbericht of een beleidsstuk, hoe kunnen burgers dan weten of het afkomstig is van een mens of een AI-model?
10 Welke mogelijkheden heeft u om teksten die (mede) door generatieve AI zijn geschreven, te voorzien van een disclaimer dat de tekst afkomstig is van een AI-model?
11 Hoe kunnen burgers zeker weten dat de overheid op een menselijke manier met hen communiceert, als er steeds meer generatieve AI door de overheid wordt gebruikt?
12 Welke rol speelt generatieve AI in de taakstelling van de overheid om te bezuinigen op het eigen overheidsapparaat? Welke taken worden volgens dit kabinet straks opgevuld door generatieve AI en is deze visie daar ook op van toepassing?
13 Hoe jaagt u aan dat effectieve AI-toepassingen makkelijk gedeeld en gebruikt worden tussen verschillende overheden?
14 Hoe voorkomt u dat onjuiste informatie uit een generatieve AI-toepassing wordt verwerkt in overheidsberichten en beleidsstukken?
15 Hoe garandeert u de echtheid en betrouwbaarheid van uitingen die (mede) door generatieve AI tot stand komen?
16 Wie is er verantwoordelijk als door generatieve AI onjuiste informatie in een officieel document terechtkomt?
17 Houdt u in de overheidsbrede visie over generatieve AI rekening met de ingebouwde bias en discriminatoire werking van dergelijke systemen?
18 Komt er een klachtmechanisme voor burgers die denken dat zij benadeeld zijn door een AI-gestuurde beslissing?
19 Hoe wordt de betrokkenheid van de Tweede Kamer, Provinciale Staten, gemeenteraden en waterschappen geborgd in deze visie? Hoe zorgt u ervoor dat de relevante vertegenwoordigers mee kunnen besluiten over het gebruik van generatieve AI?
20 Welke onafhankelijke toezichthouders zijn betrokken bij het beoordelen van AI-toepassingen binnen de overheid? Welke mogelijkheden hebben zij om gebruik stil te leggen als het niet in lijn is met de wet of met de visie?
21 Welke gevolgen heeft het breder gebruiken van generatieve AI in de overheid op het vertrouwen dat mensen hebben in het openbare bestuur, omdat zij aannemen dat ze communiceren met mensen en niet met AI-gegenereerde teksten?
22 Blijft generatieve AI altijd een hulpmiddel voor medewerkers en zullen mensen altijd verantwoordelijk blijven voor de communicatie, het beleid en de beslissingen die burgers aangaan?
23 Wat doet uw visie om situaties zoals in Amsterdam, met de 'Slimme Check', te voorkomen?1
24 Op welke wijze wordt binnen alle overheidsorganisaties geborgd dat de handreiking daadwerkelijk wordt toegepast?
25 Wordt er voorzien in gestructureerde (bij- en na)scholing voor compliance officers, juristen en ontwikkelaars met betrekking tot generatieve AI?
26 Hoe moeten de verschillende expertises die betrokken worden bij het bouwen en aanschaffen van generatieve AI worden geworven (rekening houdend met de arbeidstekorten in deze sector)? Kan het kabinet daar ook over adviseren?
27 Wat zou de meerwaarde van een ethische commissie zijn voor een organisatie en waarom is er gekozen om als advies te geven een ethische commissie te overwegen in plaats van dit aan te bevelen?
28 Hoe worden organisaties beoordeeld op de aanbevelingen die worden gedaan in de handreiking? Hoe wordt er geëvalueerd hoe deze handreiking overheidsbreed wordt opgepakt en toegepast?
29 Waarom wordt er in de handreiking aangegeven dat er bij voorkeur in het algoritmeregister geregistreerd moet worden en niet standaard?
30 Hoe wordt het Algoritmekader in overheidsorganisaties gestandaardiseerd?
31 In welke mate is het Algoritmekader sluitend genoeg dat het goede handvatten geeft en open genoeg dat overheidsorganisaties er maatwerk op kunnen toepassen?
32 Hoe wordt er op toegezien dat met alle kaders en impact-assessments daadwerkelijk uitgesloten wordt dat grondrechten geschonden worden?
33 Hoe wordt er toegezien op de aanbevelingen over de risicoanalyses en of deze ook daadwerkelijk worden uitgevoerd?
34 Wat wordt er bedoeld met ‘verken mogelijkheden van Europese of Nederlandse AI gebruik te maken’? Hoe ziet dit er volgens het kabinet uit?
35 Hoe wordt in de praktijk gecontroleerd of AI-toepassingen echt voldoen aan de bestaande wet- en regelgeving? 1
36 Waarom is ervoor gekozen om in het nieuwe standpunt minder nadruk te leggen op risicoanalyses? 1
37 Welke onderdelen van het voorlopige AI-standpunt uit 2023 werden precies als te streng ervaren door overheidsorganisaties? 1
38 Welke overheden en departementen zijn allemaal betrokken geweest bij het uitwerken van dit standpunt? 2
39 Wanneer wordt generatieve AI volgens u 'optimaal benut'? 2
40 Is het beschikken over een risicoanalyse en waar relevant een Data Protection Impact Assessment (DPIA) een randvoorwaarde voor het in gebruik nemen van een AI-toepassing binnen de overheid? 2
41 Als er AI-toepassingen worden afgenomen zonder te beschikken over een risicoanalyse, wordt deze dan buiten werking genomen? Hoe ziet u hierop toe? 2
42 Welke partijen bedoelt u als u zegt dat risicoanalyses met input van een 'zo divers mogelijke groep experts binnen of buiten de organisatie' moet worden opgesteld? 2
43 Wie bepaalt welke methode geschikt is voor de verplichte risicoanalyse bij het inzetten van generatieve AI? 2
44 Hoe wordt gehandhaafd dat ambtenaren geen AI-toepassingen gebruiken die onder consumentenvoorwaarden vallen? 2
45 Is er al een concreet plan voor het lokaal draaien van AI-modellen op overheidssystemen? 2
46 Dienen bij het inkopen van generatieve AI-modellen en/of -applicaties ook afspraken gemaakt te worden over het vermijden van strategische afhankelijkheden van één of enkele (niet-Europese) partijen? 3
47 Hoe voorkomt u dat overheden strategisch afhankelijk worden van één of enkele AI-leveranciers? 3
48 Welke eisen stelt u aan de manier waarop AI-modellen getraind zijn? 3
49 Mogen overheidsinstanties gebruikmaken van generatieve AI-modellen die getraind zijn op een manier dat het auteursrecht van makers is geschonden? 3
50 Stelt u als eis aan AI-modellen die de overheid afneemt dat makers altijd eerlijk gecompenseerd zijn als modellen getraind zijn op hun werk? 3
51 Hoe breed is de inzet van generatieve AI binnen overheidsorganisaties nu? 3
52 In welke afdelingen en binnen welke organisaties wordt generatieve AI nu het meest gebruikt? Kunt u dit uitdrukken in harde cijfers? 3
53 Hoe dienen medewerkers geïnformeerd te worden over het effectieve en verantwoorde gebruik van deze technologie? Wanneer is daar volgens u sprake van? 3
54 Hoe voorkomt u dat medewerkers gebruik maken van reguliere toepassingen, zoals ChatGPT? 3
55 Hoe groot is nu het gebruik van AI-toepassingen onder reguliere consumentenvoorwaarden binnen de overheid? 3
56 Waarom wordt het gebruik van Europese AI-toepassingen alleen 'aanbevolen' en niet afgedwongen? 3
57 Hoe zorgt u ervoor dat overheden niet alsnog massaal gebruik maken van Amerikaanse of Chinese AI-toepassingen, die de strategische afhankelijkheid van niet-Europese bedrijven alleen maar doen toenemen? 3
58 Hoe ziet u erop toe dat alleen overheidsspecifieke AI-toepassingen binnen organisaties worden gebruikt? Wat zijn de gevolgen als iemand wél onder reguliere consumentenvoorwaarden AI-toepassingen gebruikt? 3
59 Wat doet u om de betrouwbaarheid van Nederlandse taalmodellen in generatieve AI te doen toenemen? 3
60 Welke rol ziet u uiteindelijk voor AI-toepassingen die in de voorgenomen Nederlandse AI-faciliteit worden ontwikkeld? Committeert de overheid zich aan het afnemen van deze toepassingen? 3
61 Reguleert of normeert u ook het gebruik van AI-modellen op basis van hun CO2-uitstoot? 3
62 Hoe jaagt u duurzaamheid aan binnen het gebruik van AI-toepassingen, wetende dat deze een grote uitstoot van CO2 kennen door de benodigde rekenkracht? 3
63 Volgt u de analyse van de Autoriteit Persoonsgegevens dat reguliere AI-toepassingen onder consumentenvoorwaarden niet acceptabel is voor gebruik door overheden, omdat er oneigenlijk met data wordt omgegaan? 3
64 Welke gevolgen heeft de overheidsbrede visie op het gebruik van telefoons, computers en apps waar AI-toepassingen onder consumentenvoorwaarden zonder opt-out standaard worden ingebouwd? Gaat de voorkeur uit naar het gebruiken van platforms waar geen AI-toepassingen zijn ingebouwd? 3
65 Welke gevolgen heeft de overheidsbrede visie op het gebruiken van Copilot binnen Microsoft Teams door overheden? Is dit voortaan niet meer toegestaan? 3
66 Heeft u deze visie afgestemd met de verschillende gemeenten die nu juist experimenteren met het gebruik van Copilot? 3
67 Hoe ziet u erop toe dat de AI-geletterdheid van medewerkers feitelijk toeneemt? Bent u bereid hierin dwingend op te treden om cursussen en leertrajecten een voorwaarde te maken voor het mogen gebruiken van AI-toepassingen? 3
68 Hoe bent u bereid inzicht te krijgen in het gebruik van AI door toeleveranciers waar de overheid mee samenwerkt? Zullen zij een nieuwe mate van transparantie moeten geven over hun werkprocessen voordat overheden diensten van hen afnemen? 3
69 Wanneer is er volgens u sprake van een 'gecontroleerde niet-productieomgeving' en welke data mag hierin wél verwerkt worden? 3
70 Bent u van mening dat er één centrale omgeving/'proeftuin' moet zijn waarin alle overheden veilig kunnen experimenteren met generatieve AI, zodat kennis per definitie wordt uitgewisseld met alle betrokkenen? 3
71 Welke 'betere afspraken' beoogt u te maken met leveranciers voor de inkoop van generatieve AI-toepassingen? 3
72 Hoe voorkomt u dat het inrichten van verschillende proeftuinen voor overheden niet als gevolg heeft dat kennis niet voortvarend wordt uitgewisseld? 3
73 Vindt u dat AI-toepassingen die door overheden worden gebruikt altijd volledig uitlegbaar moeten zijn, zodat keuzes door de overheid altijd goed kunnen worden verantwoord? 4
74 Hoe betracht u uitlegbaarheid en verantwoording bij het gebruik van AI-toepassingen die níet open source zijn? Welke mogelijkheden zijn er om gesloten modellen alsnog transparanter te maken? 4
75 Waarom kiest u er niet voor om uitsluitend open source-applicaties te gebruiken, in plaats van dit enkel aan te bevelen? 4
76 Hoe gaat u het gebruik van open source-applicaties daadwerkelijk doen groeien als u slechts een aanbeveling voorstelt en geen harde doelstelling? 4
77 Wat verwacht u precies van overheden als u hen vraagt om '[er] rekening mee te houden' dat AI-modellen kunnen hallucineren? 4
78 Welke technieken zijn er om de kans op fouten door AI-toepassingen te verkleinen en wat doet u om deze technieken zo breed mogelijk toe te passen? 4
79 Hoe voorkomt u dat foute informatie uit een AI-toepassing leidt tot een beslissing die nadelig uitpakt voor burgers? 4
80 Kunnen burgers zich beroepen op het recht op inzage van hoe hun gegevens zijn verwerkt in een AI-toepassing die wordt betrokken in de besluitvorming van de overheid? 4
81 Hoe gaat u samenwerking tussen overheden op het gebied van AI-toepassingen gebruiken en ontwikkelen vormgeven? Wanneer krijgt deze samenwerking vorm? 4
82 Welke garanties vraagt u bij het inkopen van AI-toepassingen voor het respecteren van auteursrecht en het verzekeren van een eerlijke compensatie voor makers wiens producties hierin zijn verwerkt? 4
83 Welke concrete pilots met generatieve AI zijn sinds 2024 gestart binnen de rijksoverheid, provincies of gemeenten? 8
84 Hoe wordt vastgesteld of een AI-toepassing daadwerkelijk bijdraagt aan publieke doelen zoals genoemd in de handreiking? 11
85 Welke maatregelen zijn getroffen bij de reeds gestarte pilots om ambtenaren AI-geletterd te maken, zoals aanbevolen in hoofdstuk 4.2 van de handreiking? 11
86 Is het oprichten van een ethische commissie door overheidsorganisaties verplicht of slechts een aanbeveling? 12

  1. Trouw, 6 juni 2025, ‘Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken. Het liep anders.’↩︎