[overzicht] [activiteiten] [ongeplande activiteiten] [besluiten] [commissies] [geschenken] [kamerleden] [kamerstukdossiers] [🧑mijn] [open vragen]
[toezeggingen] [stemmingen] [verslagen] [🔍 uitgebreid zoeken] [wat is dit?]

Lijst van vragen en antwoorden over Overheidsbreed standpunt generatieve AI (Kamerstuk 26643-1331)

Informatie- en communicatietechnologie (ICT)

Lijst van vragen en antwoorden

Nummer: 2025D36083, datum: 2025-08-29, bijgewerkt: 2025-09-01 16:28, versie: 2 (versie 1)

Directe link naar document (.docx), link naar pagina op de Tweede Kamer site.

Gerelateerde personen: Bijlagen:

Onderdeel van kamerstukdossier 26643 -1385 Informatie- en communicatietechnologie (ICT).

Onderdeel van zaak 2025Z15598:

Onderdeel van activiteiten:

Preview document (🔗 origineel)


26 643 Informatie- en communicatietechnologie (ICT)

Nr. 1385 LIJST VAN VRAGEN EN ANTWOORDEN

Vastgesteld 29 augustus 2025

De vaste commissie voor Digitale Zaken heeft een aantal vragen voorgelegd aan de staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over de brief van 22 april 2025 inzake Overheidsbreed standpunt generatieve AI (Kamerstuk 26 643, nr. 1331)

De staatssecretaris heeft deze vragen beantwoord bij brief van 29 augustus 2025. Vragen en antwoorden zijn hierna afgedrukt.

De voorzitter van de commissie,

Wingelaar

Adjunct-griffier van de commissie,

Muller


Vragen en antwoorden

Vraag 1: Hoe kan het overheidsbreed standpunt voor de inzet van generatieve AI ook voor externe partijen die diensten leveren aan overheidsorganisaties, gaan gelden?

Het overheidsbrede standpunt1 is van toepassing op alle generatieve AI-toepassingen die worden ingezet door de overheid of in opdracht van de overheid. Iedere overheidsorganisatie blijft verantwoordelijk voor het veilige gebruik van data, resultaten en processen, ook wanneer de organisatie deze werkzaamheden uitbesteedt. Dit vereist heldere afspraken met en transparantie van externe partijen. Deze afspraken kunnen worden vastgelegd in bijvoorbeeld inkoopvoorwaarden. Net als voor privacy en informatiebeveiliging, zullen de vereisten die specifiek gelden voor generatieve AI ook een plek moeten krijgen in het inkoopproces. Daarvoor loopt momenteel reeds een traject.

Vraag 2: Hoe wordt bij het gebruik van generatieve AI door overheidsmedewerkers beoordeeld of er sprake is van gevoelige of vertrouwelijke informatie? Wie beoordeelt dat? Welke criteria en kaders gelden daarbij?

Het is aan de overheidsorganisaties die generatieve AI-toepassingen willen inzetten om uitvoering te geven aan de in het standpunt beschreven randvoorwaarden. Bescherming van gevoelige of vertrouwelijke informatie kan bij gebruik van generatieve AI, net als bij andere typen IT-systemen, beoordeeld worden via een risicoanalyse zoals de Baseline Informatiebeveiliging Overheid (BIO). In het geval dat er sprake is van de verwerking van persoonsgegevens bij de (beoogde) inzet van generatieve AI, is de Algemene Verordening Gegevensbescherming (AVG) van toepassing en moet er een (pre-scan) DPIA worden uitgevoerd als verplichte risicoanalyse. Om deze overheidsorganisaties te ondersteunen bij de concrete doorvertaling van dit standpunt, kunnen zij gebruik maken van bijvoorbeeld de overheidsbrede handreiking verantwoorde inzet generatieve AI2 en het Algoritmekader3.

Vraag 3: In hoeverre wordt er nu al gebruik gemaakt van generatieve AI door overheidsmedewerkers?

Binnen (decentrale) overheden wordt al enige tijd gewerkt aan de inzet van generatieve AI. Voorbeelden zijn (interne) AI-chatbots die interne overheidsinformatie gemakkelijker vindbaar maken, AI-toepassingen die worden ingezet voor metadata-extractie, of AI-toepassingen die als ondersteuning worden ingezet bij bezwaarschrift- of WOO-procedures. Zie in dat kader ook de verzamelbrief van 18 december 20244 waarin wordt ingegaan op al lopende generatieve AI-initiatieven.

Meer concrete voorbeelden leest u in de beantwoording bij vraag 83.

Vraag 4: Heeft dit standpunt betrekking op het gebruik door overheidsmedewerkers bij het ontwikkelen van beleid of ook op het gebruik ervan bij het beoordelen van allerlei aanvragen (bijvoorbeeld vergunningen en subsidies) van burgers? Als dat laatste het geval is, in hoeverre kan dat zonder aanpassing van wet- en regelgeving? Of is er nog aanpassing van wet- en regelgeving nodig? Zo ja, welke wet- en regelgeving?

Generatieve AI is AI die content genereert, bijvoorbeeld in de vorm van tekst, beeld of computercode. Deze technologie kan gebruikt worden bij allerlei typen werkzaamheden van de overheid, niet alleen bij het ontwikkelen van beleid. Generatieve AI kan ook voor ondersteunende processen ten behoeve van het beoordelen van aanvragen worden ingezet, maar voor zover mij bekend worden er geen generatieve AI-toepassingen ingezet om besluiten te laten nemen.

Omdat het standpunt tot stand is gekomen op basis van brede interdepartementale en interbestuurlijke afstemming — in samenspraak met onder andere VNG, IPO de Unie van Waterschappen — hebben de betrokken (mede)overheden zich hieraan gecommitteerd. Gezien deze gezamenlijke lijn en al een bestaand juridisch kader zie ik op dit moment geen noodzaak voor specifieke aanpassingen in wet- en regelgeving om uitvoering aan het standpunt te kunnen geven. Wel is in 2024 een ‘reflectiedocument algoritmische besluitvorming en de Algemene wet bestuursrecht’ opengesteld voor internetconsultatie. Hierin komt onder meer de vraag aan de orde of de Algemene wet bestuursrecht voldoende waarborgen bevat in geval besluiten worden vormgegeven met algoritmen. Uw Kamer ontvangt binnenkort een analyse van de opbrengsten van deze internetconsultatie5.

Vraag 5: Hoe breed wordt generatieve AI momenteel in de overheid gebruikt? In welke domeinen en met welke doelen worden modellen vooral gebruikt?

Zie de beantwoording bij vraag 3 en 83.

Vraag 6: Wordt generatieve AI momenteel gebruikt in het opstellen van overheidscommunicatie of beleidsstukken? Zo ja, kunt u aangeven hoeveel overheidsberichten en beleidsteksten nu door AI worden geschreven?

Veel rijksorganisaties experimenteren momenteel op basis van de handreiking met generatieve AI. Zij kijken daarbij naar hoe deze nieuwe technologie op een verantwoorde wijze kan worden ingezet voor overheidscommunicatie en voor beleidsstukken. Dit betreft doorgaans pilots die worden uitgevoerd in een veilig afgeschermde testomgeving. Deze pilots hebben niet tot doel om de producten te publiceren.

Niet valt uit te sluiten dat communicatie-uitingen tot stand zijn gekomen met behulp van generatieve AI. Op dit moment voert het ministerie van AZ een inventarisatie uit over de inzet van generatieve AI in de overheidscommunicatie.

Vraag 7: Hecht u er waarde aan dat burgers die informatie van de overheid ontvangen of opzoeken, teksten lezen die daadwerkelijk door mensen zijn geschreven?

Vraag 8: Garandeert u dat overheidscommunicatie en beleidsstukken altijd door mensen worden geschreven, en hierin geen gebruik wordt gemaakt van generatieve AI?

Vraag 9: Indien er generatieve AI is gebruikt in het schrijven van een overheidsbericht of een beleidsstuk, hoe kunnen burgers dan weten of het afkomstig is van een mens of een AI-model?

Vraag 10: Welke mogelijkheden heeft u om teksten die (mede) door generatieve AI zijn geschreven, te voorzien van een disclaimer dat de tekst afkomstig is van een AI model?

Vraag 11: Hoe kunnen burgers zeker weten dat de overheid op een menselijke manier met hen communiceert, als er steeds meer generatieve AI door de overheid wordt gebruikt?

Vraag 7, 8, 9, 10, 11, 14 en 15 worden hieronder samen beantwoord:

Ik hecht veel waarde aan een responsieve en mensvriendelijke overheid waarbij burgers zelf een keuze kunnen maken via welk kanaal zij met de overheid willen communiceren. Daarbij moet overheidscommunicatie altijd betrouwbaar en transparant zijn. Momenteel wordt het gesprek gevoerd over de wenselijkheid van door generatieve AI tot stand gekomen overheidscommunicatie, bijvoorbeeld in het directe contact met de burger.

Als generatieve AI wordt ingezet moet, conform de handreiking generatieve AI en de transparantieverplichtingen uit de Europese AI-verordening (art. 50, lid 4), AI-gegenereerde content als zodanig herkenbaar zijn. Dit betekent dat als AI wordt ingezet in overheidscommunicatie, menselijke toetsing en redactionele controle voor publicatie verplicht is. Dit moet voorkomen dat eventuele onjuiste informatie die met generatieve AI-toepassingen is gecreëerd in communicatie-uitingen van de overheid terechtkomt. Via de AI-verordening eist Europa ook dat aanbieders van AI-modellen voor algemene doeleinden informatie over de werking van het model delen met ontwikkelaars die op dit model voortbouwen. Ook moet bij alle door AI gegenereerde content duidelijk worden gemaakt dat het dit het geval is. Deze eisen dragen er aan bij dat beter inzichtelijk wordt welke content tot stand is komen met AI en mogelijk onzeker, fout of niet-geverifieerd is.6 Deze verplichtingen gaan in vanaf 2 augustus 2025.

Als uit de vele pilots en experimenten die momenteel plaatsvinden blijkt dat generatieve AI verantwoord kan worden ingezet voor direct contact met burgers, zal ik onderzoeken op welke wijze duidelijk kan worden gemaakt dat een tekst tot stand is gekomen met behulp van generatieve AI. Daarbij gelden vanaf 2 augustus 2026 transparantieverplichtingen in het kader van de Europese AI-verordening. In het geval dat de overheid gegenereerde inhoud gebruikt in openbare uitingen, volgt uit artikel 50 voor aanbieders van dit soort AI-systemen de verplichting dat door AI gegenereerde inhoud wordt gemarkeerd (in machineleesbaar formaat) en op die manier detecteerbaar is als kunstmatig gegenereerd of gemanipuleerd. Daarnaast geldt voor gebruiksverantwoordelijken die een AI-systeem gebruiken om content zoals deepfakes te genereren, de verplichting om duidelijk kenbaar te maken dat de content kunstmatig is gecreëerd of gemanipuleerd.7

Vraag 12: Welke rol speelt generatieve AI in de taakstelling van de overheid om te bezuinigen op het eigen overheidsapparaat? Welke taken worden volgens dit kabinet straks opgevuld door generatieve AI en is deze visie daar ook op van toepassing?

Generatieve AI kan een rol spelen in het vergroten van de productiviteit van de overheid, maar het is geen generieke oplossing voor de taakstelling. Effecten verschillen sterk per taak. Zeker bij besluitvormende of contextgevoelige werkzaamheden is een menselijk oordeel essentieel en kan AI zelfs belemmerend werken. De inzet van (generatieve) AI moet daarom gericht en zorgvuldig zijn, met oog voor efficiëntie en inhoudelijke kwaliteit. In het kader van de Nederlandse Digitaliseringsstrategie wordt verder verkend hoe generatieve AI kan ondersteunen bij het sneller en slimmer uitvoeren van het werk van overheden.8

Het overheidsbrede standpunt doet geen uitspraken over welke taken al dan niet met generatieve AI kunnen worden ingevuld en welke impact dit naar verwachting heeft. In de handreiking worden wel voorbeelden gegeven van mogelijke taken waarbij generatieve AI kan ondersteunen.

Generatieve AI heeft het vermogen om tekst, beeld en geluid te produceren, wat bepaalde taken en daarmee (delen van) banen kan ondersteunen of vervangen. De verwachting is echter dat er ook nieuwe taken bijkomen - doordat deze nieuwe technologie nieuwe taken creëert en/of doordat stijgende welvaart de vraag naar arbeid doet groeien.

Veranderende werkinhoud als gevolg van AI zal wel om aanpassing door ambtenaren en overheidsorganisaties vragen, met of zonder taakstelling. Zie voor meer advies over AI en de arbeidsmarkt het SER rapport van mei 20259.

Vraag 13: Hoe jaagt u aan dat effectieve AI-toepassingen makkelijk gedeeld en gebruikt worden tussen verschillende overheden?

Als eerste doe ik dat door te zorgen dat effectieve AI-toepassingen bekend zijn bij en gedeeld worden tussen verschillende overheden. Dit doe ik door de AI-Community te versterken en op te schalen. Daarom is het Platform AI & Overheid opgericht (www.platformaioverheid.nl). Binnen deze community worden praktijkvoorbeelden gedeeld en wordt er door diverse overheden kennis uitgewisseld.

Ten tweede werk ik samen met publieke dienstverleners en private partijen aan een zogenoemde “doorbraakfaciliteit”, waar impactvolle AI-toepassingen worden doorontwikkeld. Deze AI-toepassingen hebben het potentieel om opgeschaald en geïmplementeerd te worden bij meerdere overheidsorganisaties. Hiermee stimuleer ik hergebruik en bouw ik generieke bouwblokken waar overheidsorganisaties gebruik van kunnen maken bij de ontwikkeling van een AI-toepassing.

Ten derde investeer ik in een robuuste infrastructuur waar we AI modellen kunnen trainen en doorontwikkelen. Dat doe ik door te investeren in krachtige computers die in staat zijn om complexe berekeningen en data-analyses uit te voeren. De snelheid van deze krachtige computers ligt veel hoger dan die van een gewone computer. Voor overheden biedt een krachtige computer de mogelijkheid om grote hoeveelheden data snel en efficiënt te verwerken. Dit is essentieel voor het trainen van AI-modellen en het uitvoeren van geavanceerde analyses. Deze ontwikkeling hangt samen met het ingediend voorstel aan EuroHPC, voor de AI Fabriek in Groningen.

Vraag 14: Hoe voorkomt u dat onjuiste informatie uit een generatieve AI-toepassing wordt verwerkt in overheidsberichten en beleidsstukken?

Zie de beantwoording bij vraag 7 t/m 11.

Vraag 15: Hoe garandeert u de echtheid en betrouwbaarheid van uitingen die (mede) door generatieve AI tot stand komen?

Zie de beantwoording bij vraag 7 t/m 11.

Vraag 16: Wie is er verantwoordelijk als door generatieve AI onjuiste informatie in een officieel document terechtkomt?

Overheidsorganisaties zijn zelf verantwoordelijk voor het inrichten van de governance rond generatieve AI en algoritmes in bredere zin. Het helder vastleggen van verantwoordelijkheden maakt daar nadrukkelijk onderdeel van uit. Het Algoritmekader10 biedt handvatten voor organisaties om dit te doen, zoals het opstellen van een RACI-matrix (Responsible, Accountable, Consulted & Informed).

Daarnaast bevat de Europese AI-verordening verplichtingen voor aanbieders van General Purpose AI-modellen (GPAI). Dit zijn modellen die in staat zijn om veel verschillende taken uit te voeren en in veel verschillende AI-systemen kunnen worden geïntegreerd. Hieraan wordt gerefereerd als ‘AI-modellen voor algemene doeleinden’. Aanbieders van deze modellen zijn verplicht om informatie over de werking van het model te delen met ontwikkelaars die op dit model voortbouwen. Ook moet duidelijk worden hoe het auteursrecht wordt gerespecteerd en moet bij alle door AI gegenereerde content duidelijk worden gemaakt dat het dit het geval is. Deze eisen dragen er aan bij dat beter inzichtelijk wordt welke content tot stand is komen met AI en mogelijk onzeker, fout of niet-geverifieerd is.11 Deze verplichtingen gaan in vanaf 2 augustus 2025.

Zie ook de beantwoording bij vraag 22.

Vraag 17: Houdt u in de overheidsbrede visie over generatieve AI rekening met de ingebouwde bias en discriminatoire werking van dergelijke systemen?

Ja, hier houdt het overheidsbrede standpunt rekening mee. Eén van de voorwaarden die ik stel in het standpunt, is dat overheidsorganisaties een risicoanalyse uitvoeren voor de inzet van een generatieve AI-toepassing. Onderdeel van een risicoanalyse is het onderzoeken of er bias in het AI-systeem zit en welke risico’s dit met zich meebrengt. Daarnaast biedt de bijbehorende handreiking over generatieve AI ook informatie over (het voorkomen van) bias.

Vraag 18: Komt er een klachtmechanisme voor burgers die denken dat zij benadeeld zijn door een AI-gestuurde beslissing?

Conform de Europese AI-verordening moeten getroffen personen, bijvoorbeeld burgers, het recht hebben om uitleg te krijgen indien een besluit voornamelijk is gebaseerd op de output van bepaalde hoog-risico AI-systemen. Die uitleg moet duidelijk en zinvol zijn en moet de grondslag zijn waarop de getroffen personen zich kunnen baseren om hun rechten uit te oefenen.

Daarnaast kent de Algemene wet bestuursrecht in hoofdstuk 9 een regime voor het indienen van een bezwaarschrift en voor klachtbehandeling. Bezwaren en klachten over besluiten en gedragingen van een overheidsorganisatie waarbij AI een rol speelt, kunnen in beginsel volgens dit regime worden ingediend en behandeld. Daarnaast wil ik hier wijzen op de analyse van de inbreng op de internetconsultatie die onder vraag 4 is benoemd.

Vraag 19: Hoe wordt de betrokkenheid van de Tweede Kamer, Provinciale Staten, gemeenteraden en waterschappen geborgd in deze visie? Hoe zorgt u ervoor dat de relevante vertegenwoordigers mee kunnen besluiten over het gebruik van generatieve AI?

Het overheidsbrede standpunt is via interbestuurlijke samenwerking tot stand gekomen, vanuit de één-overheidsgedachte. Naast departementen en uitvoerders is er nauw samengewerkt met de koepelorganisaties VNG, IPO en UvW. Een essentieel uitgangspunt hierbij was dat het standpunt voor alle bestuurslagen werkbaar moet zijn. Uiteraard kunnen individuele (gemeente)raden of andere volksvertegenwoordigende instanties, binnen de kaders van dit standpunt, eigen afwegingen en keuzes maken. Denk bijvoorbeeld aan de vraag voor welke soort doelen of uitdagingen generatieve AI kan worden ingezet door de desbetreffende organisatie.

Via het overheidsbrede standpunt worden alle bestuurslagen opgeroepen om het gesprek aan te gaan met hun volksvertegenwoordigers en hen actief te betrekken bij besluitvorming over generatieve AI-inzet, zodat zij hun controlerende en kaderstellende rol goed kunnen vervullen. In de handreiking generatieve AI spoor ik organisaties bovendien aan om een zo divers mogelijke groep experts te betrekken bij besluitvorming over generatieve AI-inzet. Volksvertegenwoordigers kunnen hier onderdeel van uitmaken.

Vraag 20: Welke onafhankelijke toezichthouders zijn betrokken bij het beoordelen van AI toepassingen binnen de overheid? Welke mogelijkheden hebben zij om gebruik stil te leggen als het niet in lijn is met de wet of met de visie?

Zoals ook toegelicht in de Kamerbrief ‘Toezicht in het digitale domein’12, houden digitalisering en AI zich niet aan de grenzen van domeinen en sectoren. Dat betekent in de praktijk dat toezichtsvraagstukken steeds vaker bij verschillende toezichthouders terecht komen. Zo kan bijvoorbeeld een algoritme in de zorg waarin persoonsgegevens worden verwerkt het terrein zijn van zowel de Autoriteit Persoonsgegevens (AP) als de Inspectie Gezondheidszorg en Jeugd (IGJ). Toezichthouders kunnen onderling, bijvoorbeeld via een samenwerkingsconvenant, bepalen hoe er in een specifieke casus toezicht wordt gehouden en/of gehandhaafd. Daarbij vraagt het domeinoverstijgende karakter van AI om coördinatie en uitwisseling tussen (veel verschillende) toezichthouders, juist ook om de consistentie in het toezicht te bewaken en het stapelen van regels te voorkomen.

In Nederland zijn er verschillende toezichthouders die coördinerende taken op zich nemen. Zo hebben bijvoorbeeld de Directie Coördinatie Algoritmes (DCA) bij de AP en de Rijksinspectie Digitale Infrastructuur (RDI) verschillende soorten coördinerende taken op AI en algoritmegebied. De DCA zet zich bijvoorbeeld in voor domeinoverstijgende risico-signalering op algoritmegebied en het komen tot concrete guidance voor ondertoezichtgestelden, zodat het vooraf helder is hoe en aan welke kaders zij moeten voldoen bij de inzet van AI en algoritmes.

De AI-verordening biedt afdwingbare eisen voor transparante en veilige AI-modellen voor algemene doeleinden, met of zonder systeemrisico’s. Generatieve AI valt hier ook onder. Ontwikkelaars van AI-modellen voor algemene doeleinden zijn verplicht om technische documentatie over het model op te stellen en beschikbaar te houden voor toezichthouders en om informatie op te stellen voor ontwikkelaars die het AI-model in hun eigen AI-systeem willen integreren. Als een AI-model voor algemene doeleinden ook voor systeemrisico’s kan zorgen, moet de aanbieder ook een modelevaluatie uitvoeren, systeemrisico’s beperken, informatie over incidenten zo snel mogelijk met de toezichthouder delen en voor een passend niveau van cyberveiligheid zorgen. Deze vereisten uit de AI-verordening kunnen worden afgedwongen door het Europese AI-bureau (‘AI Office’), die toezicht zal houden op de eisen aan AI-modellen voor algemene doeleinden. Zij kunnen in sommige gevallen er ook voor kiezen om een AI-model voor algemene doeleinden van de markt te halen.

Momenteel bereidt het kabinet de inrichting van dit toezicht voor. Hierover zal uw Kamer in het najaar van 2025 nader worden geïnformeerd.

Vraag 21: Welke gevolgen heeft het breder gebruiken van generatieve AI in de overheid op het vertrouwen dat mensen hebben in het openbare bestuur, omdat zij aannemen dat ze communiceren met mensen en niet met AI-gegenereerde teksten?

Zoals ook beantwoord bij vraag 7 tot en met 11, hecht ik veel waarde aan een responsieve en mensvriendelijke overheid waarin burgers zelf een keuze kunnen maken via welk kanaal zij met de overheid willen communiceren. Daarbij moet overheidscommunicatie altijd betrouwbaar en transparant zijn.

De AI-verordening introduceert vanaf augustus 2026 ook transparantieverplichtingen voor bepaalde AI-systemen, waaronder voor generatieve AI-systemen13. Zo moet de gegenereerde content duidelijk gemarkeerd worden als kunstmatig gegenereerde of gemanipuleerde content. Deze verplichting heeft ook gevolgen voor overheidsorganisaties die AI-systemen gebruiken voor communicatie. Zelfs als de organisatie geen aanbieder is maar wel gebruik maakt van een dergelijk systeem, moet zij duidelijk maken dat de inhoud gegenereerd of gemanipuleerd is. Dit kan bijvoorbeeld door in de bijschriften van afbeeldingen aan te geven dat ze door AI zijn gemaakt. Ook voor AI-systemen die met burgers communiceren, zoals chatbots, gelden transparantieverplichtingen. Gebruikers moeten weten dat ze met een AI-systeem praten en niet met een mens. Dit is vooral relevant voor online diensten van overheidsorganisaties.

Vraag 22: Blijft generatieve AI altijd een hulpmiddel voor medewerkers en zullen mensen altijd verantwoordelijk blijven voor de communicatie, het beleid en de beslissingen die burgers aangaan?

Ik vind het belangrijk dat medewerkers de output van generatieve AI controleren, voordat zij deze gebruiken in communicatie, beleid of beslissingen. In de overheidsbrede handreiking generatieve AI staan aanbevelingen voor eindgebruikers, waaronder dat je de uitkomsten van generatieve AI kritisch beoordeelt, bijvoorbeeld op mogelijke vooroordelen of hallucineren. Voor zover het gaat om de verantwoordelijkheid voor het resultaat: generatieve AI is een hulpmiddel en kan geen verantwoordelijkheden dragen.

Vraag 23: Wat doet uw visie om situaties zoals in Amsterdam, met de 'Slimme Check', te voorkomen?

Alhoewel die specifieke technologische toepassingen geen generatieve AI betreft en buiten de scope van dit standpunt valt, liggen dit soort risico’s ook op de loer bij het gebruik van generatieve AI. Via het standpunt worden alle overheidslagen aangespoord om bij het inzetten van generatieve AI actief te toetsen op mogelijke vooroordelen in (trainings-)data of uitkomsten, en om transparante processen en menselijk toezicht in te richten. Zo wordt gewerkt aan eerlijke, controleerbare en inclusieve inzet van AI.

Vraag 24: Op welke wijze wordt binnen alle overheidsorganisaties geborgd dat de handreiking daadwerkelijk wordt toegepast?

De handreiking is ondersteunend en tot stand gekomen via interbestuurlijke samenwerking. Alle overheidslagen hebben hun commitment hiertoe uitgesproken. Het is nu aan de individuele organisaties van alle overheidslagen om de handreiking ook intern te delen en de inhoud daarvan uit te dragen. We bouwen binnen de overheid aan een steeds groter netwerk van AI-experts. Het delen van kennis en producten, waaronder de handreiking, gebeurt ook via deze weg.

Voor toezicht op de verantwoorde inzet van AI-systemen verwijs ik u naar mijn antwoord op vraag 20.

Vraag 25: Wordt er voorzien in gestructureerde (bij- en na)scholing voor compliance officers, juristen en ontwikkelaars met betrekking tot generatieve AI?

De AI-verordening verplicht vanaf februari jl. organisaties die AI inzetten om werk te maken van AI-geletterdheid. Organisaties zijn daarbij verantwoordelijk om het juiste kennisniveau bij medewerkers te realiseren, afhankelijk van de AI-toepassing die zij in gebruik hebben. Het benodigde kennisniveau is daarbij mede-afhankelijk van de specifieke rol die een werknemer heeft binnen de organisatie. Bijvoorbeeld compliance officers, juristen, data scientists of inkopers hebben daarbij een rol waar een bepaald kennisniveau voor geacht wordt op het moment dat de organisatie bijvoorbeeld generatieve AI toepassingen inzet. De desbetreffende (overheids)organisatie is ook verantwoordelijk voor de opleidingen die haar personeel volgt.

Het ministerie van Binnenlandse Zaken en Koninkrijksrelaties werkt daarnaast aan hulpmiddelen en kennisuitwisseling voor de hele overheid om AI-geletterdheid in eigen organisatie te bewerkstellingen. Voorbeelden van hulpmiddelen zijn een taxonomie van vereiste niveaus van AI-geletterdheid op basis van de rol van de ambtenaar, een AI-geletterdheids-assessment (met aan te raden vrij beschikbaar lesmateriaal), en templates voor gebruikersinstructies. Door deze aanpak wordt geborgd dat overheidsorganisaties haar ambtenaren voldoende kunnen toerusten om generatieve AI op een verantwoorde en zorgvuldige wijze in te zetten in hun werkzaamheden. Deze hulpmiddelen worden de komende maanden voor overheidspartijen via het Algoritmekader beschikbaar gesteld.

Bovendien bieden verschillende zogenoemde “communities of practices” voor de genoemde doelgroepen een plek om specifieke kennis op het vlak van generatieve AI op te doen. Een voorbeeld hiervan is het Centrum Informatiebeveiliging en privacybescherming (CIP), die kennisproducten aanbiedt aan privacy en security specialisten binnen de overheid mede op het vlak van AI en de desbetreffende wet- en regelgeving14. Ook biedt de Academie voor overheidsjuristen en Academie voor wetgeving een aantal cursussen voor juristen over bijvoorbeeld AI, de AI-verordening en de Impact Assessment Mensenrechten en Algoritmes15.

Tevens vindt het ministerie van BZK het belangrijk dat ambtenaren goed onderlegd zijn met kennis over generatieve AI. Daarom wordt er geïnvesteerd in kennis en kunde over digitalisering van ambtenaren. Hieronder vallen ook AI-vaardigheden. Om de digitale kennis te verbeteren is de Rijksacademie voor Digitalisering en Informatisering Overheid (RADIO) opgericht. Zij bieden bijvoorbeeld een basiscursus aan over de kansen en risico’s van generatieve AI voor overheidsambtenaren. Daarnaast zet ik een traject op om inkopers van AI bij de hele overheid te ondersteunen, onder andere zodat zij zijn voorzien van de juiste kennis om verantwoorde generatieve AI in te kopen.

Vraag 26: Hoe moeten de verschillende expertises die betrokken worden bij het bouwen en aanschaffen van generatieve AI worden geworven (rekening houdend met de arbeidstekorten in deze sector)? Kan het kabinet daar ook over adviseren?

Afhankelijk van de aard en complexiteit van de AI-toepassing kunnen de benodigde expertises tijdens het inkoop of ontwikkelproces verschillen. Om overheden hierbij te ondersteunen heeft het ministerie van BZK gevraagd aan het Centrum Informatiebeveiliging en privacybescherming (CIP), om een traject te starten rondom inkopen van AI voor de gehele overheid. Denk hierbij aan duidelijke (aanvullende) inkoopvoorwaarden, en bijscholing van medewerkers en inkopers. Hiermee hoop ik organisaties te ondersteunen in het doorlopen van het inkoop- of ontwikkelproces, zodat organisaties sneller aan de slag kunnen met verantwoorde generatieve AI.

Vraag 27: Wat zou de meerwaarde van een ethische commissie zijn voor een organisatie en waarom is er gekozen om als advies te geven een ethische commissie te overwegen in plaats van dit aan te bevelen?

De meerwaarde van een ethische commissie is dat de inzet en implicaties van nieuwe technologie, zoals AI, vanuit verschillende waarden en belangen worden gewogen. Een diverse samenstelling vergroot de kans dat waarden en belangen niet over het hoofd worden gezien.

Een ethische commissie wordt overwogen en niet aanbevolen. In de eerste plaats komt dit, omdat er meerdere manieren zijn om aandacht voor ethiek te borgen. Dat kan bijvoorbeeld ook door haalbaarheids- en/of evaluatieonderzoek (denk hierbij aan audits of mensenrechtentoetsen zoals de Impact Assessment Mensenrechten en Algoritmes (IAMA)), waar stil gestaan kan worden bij de ethische uitkomsten van generatieve AI. Een andere manier is door te zorgen voor multidisciplinair samengestelde teams of het organiseren van bijeenkomsten (seminars, hackathons, e.d.) waar ethiek wordt belicht. Een deel van dit soort geadviseerde maatregelen staat ook in het Algoritmekader.

In de tweede plaats zijn er nog verschillende varianten op een ethische commissie mogelijk en is er nog geen eenduidige aanpak. Een dergelijke commissie kan bijvoorbeeld zowel intern als extern belegd worden. Ook de vraag op welk abstractieniveau de ethische vragen zich richten kan veel uitmaken voor de samenstelling van een ethische commissie. Richt een advies zich meer op een specifieke toepassing van AI, waar belanghebbenden direct geraakt worden, of richt de commissie zich op de fundamentelere vragen zoals wie of wat nu bepaalt of en hoe AI wordt ingezet? Dan is het van belang om vertegenwoordigers van het maatschappelijke middenveld te betrekken. Om die reden wordt deze keuze in het standpunt generatieve AI aan organisaties zelf gelaten.

Vraag 28: Hoe worden organisaties beoordeeld op de aanbevelingen die worden gedaan in de handreiking? Hoe wordt er geëvalueerd hoe deze handreiking overheidsbreed wordt opgepakt en toegepast?

Zie de beantwoording bij vragen 20 en 24.

Vraag 29: Waarom wordt er in de handreiking aangegeven dat er bij voorkeur in het algoritmeregister geregistreerd moet worden en niet standaard?

Met overheidsorganisaties is afgesproken dat zij ieder geval hoog-risico AI-systemen (categorie A in de handreiking Algoritmeregister16) en impactvolle algoritmen (categorie B) in het Algoritmeregister registreren. Generatieve AI-toepassingen zijn niet automatisch hoog-risico of impactvol. Als de toepassing niet in deze categorieën valt, staat het organisaties vrij om deze alsnog te registreren. Dit raad ik ook aan, omdat het de transparantie en mogelijke democratische controle verhoogt. Als de generatieve AI-toepassing wel in categorie A of B valt, wordt deze meegenomen in bestaande afspraken17 door departementen om deze te publiceren in het Algoritmeregister.

Vraag 30: Hoe wordt het Algoritmekader in overheidsorganisaties gestandaardiseerd?

Het Algoritmekader is een centraal hulpmiddel waar alle overheidsorganisaties gebruik van kunnen maken. Het is tot stand gekomen met medewerking van een brede vertegenwoordiging van overheidsorganisaties en wetenschap. Het Algoritmekader is zo opgesteld dat het toepasbaar is voor zowel de Rijksoverheid als bijvoorbeeld gemeenten, provincies en waterschappen, zodat de gehele overheid hetzelfde uitgangspunt heeft. Het geeft organisaties een overzicht van geldende regelgeving, en biedt handvatten voor het toepassen van die regelgeving. Het centraal delen van instrumenten en maatregelen helpt toepassing van de regelgeving te standaardiseren. Door de bekendheid van het Algoritmekader te vergroten neemt het effect van deze werkwijze toe.

Zodra de Europese standaarden op dit terrein formeel zijn vastgesteld, zal het Algoritmekader daarop worden bijgewerkt om verdere standaardisatie tot stand te brengen.

Vraag 31: In welke mate is het Algoritmekader sluitend genoeg dat het goede handvatten geeft en open genoeg dat overheidsorganisaties er maatwerk op kunnen toepassen?

Het Algoritmekader is gebaseerd op de vereisten die vanuit wetgeving worden gesteld, zoals met name de Europese AI-verordening maar ook bijvoorbeeld de Awb en de AVG. Al deze eisen worden behandeld in dit kader.

Op deze manier geef ik een zo sluitend mogelijk overzicht van alle zaken waar overheden aan moeten voldoen, naast enkele zaken die niet strikt wettelijk verplicht zijn maar wel van groot belang kunnen zijn bij de verantwoorde inzet.

Het Algoritmekader verwijst teven door naar elders ontwikkelde hulpmiddelen, handreikingen en best practices. Organisaties krijgen hiermee de ruimte om zelf een inschatting te maken over welke hulpmiddelen het beste aansluiten of meest relevant zijn voor hun domein en het in te zetten algoritme.

Vraag 32: Hoe wordt er op toegezien dat met alle kaders en impact-assessments daadwerkelijk uitgesloten wordt dat grondrechten geschonden worden?

Bij vraag 20 is ingegaan op het toezicht op het gebruik van AI. De markttoezichtautoriteiten zullen toezien op de eisen uit de AI-verordening, waaronder op de eisen ter bescherming van grondrechten. Daarnaast zien de Autoriteit Persoonsgegevens (AP) en het College voor de Rechten van de Mens (CRM) erop toe dat het handelen van publieke en private organisaties niet in strijd is met de Algemene Verordening Gegevensbescherming en non-discriminatiewetgeving. De AP, het CRM en de procureur-generaal bij de Hoge Raad (PGHR), de voorzitter van de Afdeling Bestuursrechtspraak Raad van State (ABRvS), het gerechtsbestuur van de Centrale Raad van Beroep (CRvB) en het gerechtsbestuur van het College van Beroep voor het bedrijfsleven (CBb) zijn voor de AI-verordening vastgesteld als autoriteiten voor de bescherming van grondrechten.

Vraag 33: Hoe wordt er toegezien op de aanbevelingen over de risicoanalyses en of deze ook daadwerkelijk worden uitgevoerd?

Zie de beantwoording bij vraag 20.

Vraag 34: Wat wordt er bedoeld met ‘verken mogelijkheden van Europese of Nederlandse AI gebruik te maken’? Hoe ziet dit er volgens het kabinet uit?

In de veranderende geopolitieke context neemt het belang van (open strategische) autonomie steeds verder toe. Ook zien we dat digitale technologie steeds centraler komt te staan in de geopolitieke machtsstrijd, met daarin AI als focuspunt. Dit, vanwege de enorme economische, maatschappelijke en veiligheidsbelangen die gemoeid zijn met AI. Mondiaal wordt daarom op grote schaal geïnvesteerd in AI, aangevoerd door de VS en China. Tegelijkertijd blijven investeringen in Nederland en de EU achter. Nederland raakt steeds verder achterop in de ontwikkeling van de meest krachtige AI en haar ondersteunende infrastructuur en technologieën. Dit kan de Nederlandse autonomie met betrekking tot AI verder onder druk zetten.

Doordat AI een steeds grotere rol gaat spelen in onze samenleving en economie, vind ik het belangrijk om als Nederland en samen met de EU stevig in te zetten op veilige en betrouwbare AI-ontwikkeling. Bij de afwegingen die overheidsorganisaties maken tussen de inzet van bepaalde generatieve AI-toepassingen, moet digitale autonomie van Nederland en Europa meegenomen worden. Ik vraag organisaties daarom om de mogelijkheden van lokale of Europese dienstverleners van generatieve AI te verkennen. Hiermee wordt ook vendor lock-in voorkomen. Daarnaast voldoen deze AI-leveranciers vaak eerder aan onze (Europese) veiligheidsstandaarden dan niet-Europese dienstverleners en besteden Europese initiatieven vaak meer aandacht aan de correcte verwerking van Europese talen. Tegelijk is het niet werkbaar om overheidsorganisaties te vragen enkel gebruik te maken van Europese of Nederlandse AI-toepassingen. Nederland en de EU lopen momenteel nog achter in de ontwikkeling van AI-toepassingen.

Om een breder aanbod te stimuleren onderneemt het Kabinet verschillende acties om de Nederlandse en Europese AI-ecosystemen te versterken. Dit doen we ondermeer door innovatie te stimuleren (bijvoorbeeld via het meerjarig AiNed Groeifondsprogramma), publiek-privaat samen te werken (bijvoorbeeld in AI Coalitie voor Nederland) en de beschikbaarheid van AI-talent te vergroten (bijvoorbeeld met het Actieplan Groene en Digitale Banen). Ik zet me momenteel ook in op de realisatie van een AI-faciliteit in Nederland om betrouwbare en geavanceerde AI te kunnen ontwikkelen en benutten. Zie hiervoor ook de beantwoording bij vraag 60.

Vraag 35: Hoe wordt in de praktijk gecontroleerd of AI-toepassingen echt voldoen aan de bestaande wet- en regelgeving?

Zie de beantwoording bij vraag 20.

Vraag 36: Waarom is ervoor gekozen om in het nieuwe standpunt minder nadruk te leggen op risicoanalyses?

In het overheidsbrede standpunt ligt niet minder nadruk op het uitvoeren van risicoanalyses, maar is wel meer flexibiliteit geboden op dit terrein.

In het voorlopige standpunt uit 2023 werd veel aandacht geschonken aan de risico’s van generatieve AI. In dit herijkte standpunt wordt een balans gezocht met de kansen die de technologie biedt, maar neemt de risico’s niet weg. Het standpunt vraagt organisaties daarom nog steeds om risicoanalyses uit te voeren. Echter, er wordt niet meer voorgeschreven welk instrument organisaties hiervoor moeten gebruiken. In praktijk betekend dit dat organisaties nu naast de Data Protection Impact Assessment (DPIA) of de IAMA, ook andere impacttoetsen kunnen kiezen als deze beter aansluiten bij de generatieve AI-toepassing die zij willen ontwikkelen of inzetten. Als er vanuit de AVG een verplichting is om een (pre-scan) DPIA uit te voeren omdat er persoonsgegevens verwerkt worden, dan geldt die verplichting bovendien nog steeds.

Vraag 37: Welke onderdelen van het voorlopige AI-standpunt uit 2023 werden precies als te streng ervaren door overheidsorganisaties?

In het voorlopige standpunt uit 2023 werd veel aandacht geschonken aan de risico’s van generatieve AI. Het standpunt werd daarom vaak opgevat als een algeheel verbod op de inzet van generatieve AI door de Rijksoverheid. Daarnaast lag er een nadruk op het doen van een DPIA en IAMA in het bijzonder. Deze werden door organisaties ervaren als erg zware impacttoetsen, vooral bij toepassingen met relatief lage impact. Organisaties ervaarden dit als een rem wanneer zij onderzochten of zij een generatieve AI-toepassing wilden inzetten.

Vraag 38: Welke overheden en departementen zijn allemaal betrokken geweest bij het uitwerken van dit standpunt?

Het standpunt en de handreiking zijn langs verschillende interdepartementale en interbestuurlijke gremia geweest voor feedback en afstemming. Alle departementen en koepelorganisaties IPO, VNG en UvW zijn op die manier betrokken geweest bij de totstandkoming van de stukken. Dit standpunt vormt daarom ook een goed voorbeeld voor overheidsbrede samenwerking in het kader van AI.

Vraag 39: Wanneer wordt generatieve AI volgens u 'optimaal benut'?

De optimale inzet van generatieve AI wordt bereikt wanneer deze technologie gericht bijdraagt aan het oplossen van maatschappelijke opgaven. Zoals ook aangegeven in het overheidsbrede standpunt generatieve AI en de bijbehorende handreiking, kan dit bijvoorbeeld door het verbeteren van de overheidsdienstverlening of het verlagen van werkdruk. In de handreiking worden ook voorbeelden gegeven van denkbare generatieve AI-toepassingen binnen de overheid met relatief lage impact.

Een voorwaarde voor effectieve en optimale inzet is dat vooraf een duidelijk en concreet doel wordt geformuleerd, passend binnen de juridische en organisatorische kaders. Daarnaast is het cruciaal dat de randvoorwaarden op orde zijn. Denk hierbij bijvoorbeeld aan voldoende AI-geletterdheid onder personeel, ethisch verantwoorde en mensgerichte inzet van (generatieve) AI, heldere governance en een robuuste informatiehuishouding. Als aan deze voorwaarden is voldaan, kan generatieve AI in de praktijk naar mijn mening als optimaal worden beschouwd.

Vraag 40: Is het beschikken over een risicoanalyse en waar relevant een Data Protection Impact Assessment (DPIA) een randvoorwaarde voor het in gebruik nemen van een AI-toepassing binnen de overheid?

Conform het overheidsbrede standpunt is het uitvoeren van een risicoanalyse een randvoorwaarde voor de inzet van generatieve AI. In tegenstelling tot het voorlopige standpunt uit 2023, schrijft het huidige standpunt niet meer voor welk instrument gebruikt moet worden voor de analyse. Zie ook de beantwoording bij vragen 36 en 37.

Vraag 41: Als er AI-toepassingen worden afgenomen zonder te beschikken over een risicoanalyse, wordt deze dan buiten werking genomen? Hoe ziet u hierop toe?

Zie de beantwoording bij vraag 20.

Vraag 42: Welke partijen bedoelt u als u zegt dat risicoanalyses met input van een 'zo divers mogelijke groep experts binnen of buiten de organisatie' moet worden opgesteld?

Ik vind het belangrijk dat partijen op wie de risicoanalyses betrekking hebben, betrokken worden bij de uitvoering daarvan. Op die manier worden de inzet en implicaties van een generatief AI-systeem vanuit verschillende waarden en belangen gewogen. Hierbij kan worden gedacht aan het betrekken van een data-engineer, data scientist, IT-architect, ethicus, data- en privacy-officer. Daarnaast gaat het niet alleen om experts binnen overheidsorganisaties, maar ook (vertegenwoordigers van) burgers, NGO’s, bedrijven, juristen en wetenschap. Een diverse samenstelling van experts vergroot de kans dat waarden en belangen niet over het hoofd worden gezien.

Zie ook mijn beantwoording op vraag 26 en 27.

Vraag 43: Wie bepaalt welke methode geschikt is voor de verplichte risicoanalyse bij het inzetten van generatieve AI?

In het standpunt schrijf ik niet meer voor welk instrument overheidsorganisaties moeten gebruiken voor de risicoanalyse. In de praktijk betekent dit dat organisaties nu naast de DPIA of IAMA, ook andere impacttoetsen kunnen kiezen als deze beter aansluiten bij de generatieve AI-toepassing die zij willen ontwikkelen of inzetten. Zie ook de beantwoording bij vraag 36.

Vraag 44: Hoe wordt gehandhaafd dat ambtenaren geen AI-toepassingen gebruiken die onder consumentenvoorwaarden vallen?

Met dit standpunt wil ik overheden ondersteunen bij het inkopen of bouwen van een veilig alternatief voor generatieve AI onder consumentenvoorwaarden. Door het aanbieden van een alternatief zullen ambtenaren minder snel gebruik maken van gratis online versies. Organisaties kunnen daarnaast aan hun ICT-dienstverleners vragen om bepaalde websites dicht te zetten. Hier zijn zij zelf verantwoordelijk voor. We zien bijvoorbeeld dat het Chinese DeepSeek vaak niet bereikbaar is op overheidsapparatuur, vanwege het verbod op deze AI-toepassing.18

Vraag 45: Is er al een concreet plan voor het lokaal draaien van AI-modellen op overheidssystemen?

Dit voorjaar nam uw Kamer de motie van het lid Six Dijkstra19 aan. Deze motie verzoekt het kabinet om te onderzoeken welke mogelijkheden er nu en in de toekomst zijn om overheidsbeleid zo in te richten dat AI-modellen in principe lokaal (moeten) draaien op overheidssystemen. De motie vraagt daarnaast om samen met medeoverheden te verkennen hoe het lokaal draaien van AI de norm kan worden. Over de voortgang van deze motie zal uw Kamer dit najaar nader worden geïnformeerd.

Vraag 46: Dienen bij het inkopen van generatieve AI-modellen en/of -applicaties ook afspraken gemaakt te worden over het vermijden van strategische afhankelijkheden van één of enkele (niet-Europese) partijen?

Zie de beantwoording bij vraag 34.

Vraag 47: Hoe voorkomt u dat overheden strategisch afhankelijk worden van één of enkele AI-leveranciers?

Zie de beantwoording bij vraag 34.

Vraag 48: Welke eisen stelt u aan de manier waarop AI-modellen getraind zijn?

Via het overheidsbrede standpunt benadruk ik dat overheidsorganisaties zich bij de inzet van generatieve AI dienen te houden aan wetgeving, zoals de Europese AI-verordening. De AI-verordening stelt eisen aan de manier waarop AI-modellen getraind zijn. Aanbieders van ‘AI-modellen voor algemene doeleinden’, waar generatieve AI-modellen onder vallen, zijn verplicht om informatie over de werking van het model te delen met ontwikkelaars die op dit model voortbouwen. Ook moet duidelijk worden hoe het auteursrecht wordt gerespecteerd en moet bij alle door AI gegenereerde content duidelijk worden gemaakt dat dit het geval is. Deze eisen dragen er aan bij dat beter inzichtelijk wordt welke content tot stand is komen met AI en mogelijk onzeker, fout of niet-geverifieerd is20.

Er gelden aanvullende eisen als het AI-model voor algemene doeleinden volgens de AI-verordening systeemrisico’s met zich meebrengt. De bedoeling is dat de AI-verordening hiermee de krachtigste AI-modellen op de Europese markt reguleert.

Vraag 49: Mogen overheidsinstanties gebruikmaken van generatieve AI-modellen die getraind zijn op een manier dat het auteursrecht van makers is geschonden?

Ik volg het advies van de landsadvocaat Pels Rijcken uit oktober 2023, dat stelt dat het gebruik van generatieve AI door medewerkers van de Staat niet per definitie onrechtmatig is vanuit het oogpunt van auteursrecht. Prudentie is geboden, wanneer de ontwikkelaars auteursrechtelijk beschermd materiaal ten aanzien waarvan rechthebbenden een voorbehoud hebben gemaakt en/of auteursrechtelijk beschermd materiaal uit illegale bron hebben gebruikt voor de totstandkoming van het AI-model.

Sinds de inwerkingtreding van de AI-verordening zijn aanbieders van generatieve AI verplicht om intern beleid op te stellen voor de naleving van auteursrechten en een voldoende gedetailleerde samenvatting van de gebruikte trainingscontent openbaar te maken. Dat helpt rechthebbenden beter te controleren of de voornoemde voorwaarden (dat rechthebbenden geen voorbehoud hebben gemaakt dat hun werken niet mogen worden gebruikt om generatieve AI te trainen en dat het auteursrechtelijk beschermd materiaal dat voor trainingsdoeleinden wordt gebruikt uit legale bron afkomstig is) worden nageleefd.

Daarom raad ik organisaties aan om, wanneer zij generatieve AI-systemen inkopen, in de (concept)overeenkomst op te nemen dat de aanbieder aangeeft dat zij auteursrechten niet schenden met de trainingsdata, en dat de aanbieder dit gedurende de ontwikkeling en levensduur actief bewaakt. Wanneer overheidsorganisaties zelf AI-modellen ontwikkelen, zijn zij uiteraard zelf verantwoordelijk voor het correct omgaan met de auteursrechten van eigen data.

Zie ook de beantwoording bij vraag 26.

Vraag 50: Stelt u als eis aan AI-modellen die de overheid afneemt dat makers altijd eerlijk gecompenseerd zijn als modellen getraind zijn op hun werk?

Nee, deze eis stel ik niet in het overheidsbrede standpunt. Het trainen van generatieve AI is een vorm van tekst- en datamining. Geheel in lijn met artikel 4 van de EU-Richtlijn 2019/790 ‘Auteursrechten en naburige rechten in de digitale eengemaakte markt’ bepaalt de Auteurswet dat het maken van een kopie van een werk ten behoeve van tekst- en datamining is toegestaan onder twee voorwaarden. Ten eerste moeten de werken waarmee generatieve AI wordt getraind uit legale bron afkomstig zijn. Ten tweede moeten de rechthebbenden geen voorbehoud hebben gemaakt dat het trainen van generatieve AI in de weg staat. Als er een voorbehoud is gemaakt, dan is voor het gebruik van het auteursrechtelijk beschermde materiaal toestemming vereist. Daaraan kunnen rechthebbenden voorwaarden verbinden zoals het betalen van een vergoeding. Het betalen van een vergoeding is niet zonder meer verplicht op grond van het geldende juridische kader. Het ligt dan ook niet voor de hand dat ik deze eis stel aan overheidsorganisaties die generatieve AI-toepassingen willen afnemen.

Vraag 51: Hoe breed is de inzet van generatieve AI binnen overheidsorganisaties nu?

Zie de beantwoording bij vragen 3 en 83.

Vraag 52: In welke afdelingen en binnen welke organisaties wordt generatieve AI nu het meest gebruikt? Kunt u dit uitdrukken in harde cijfers?

Ik kan dit niet in cijfers uitdrukken. Generatieve AI kan voor veel verschillende taken worden ingezet. Zie de beantwoording bij vraag 3 en 83 voor concretere voorbeelden binnen de overheid.

Vraag 53: Hoe dienen medewerkers geïnformeerd te worden over het effectieve en verantwoorde gebruik van deze technologie? Wanneer is daar volgens u sprake van?

Zie de beantwoording bij vraag 25.

Vraag 54: Hoe voorkomt u dat medewerkers gebruik maken van reguliere toepassingen, zoals ChatGPT?

Zie de beantwoording bij vraag 44.

Vraag 55: Hoe groot is nu het gebruik van AI-toepassingen onder reguliere consumentenvoorwaarden binnen de overheid?

Het gebruik van generatieve AI-toepassingen onder consumentenvoorwaarden was onder het vorige kabinetsstandpunt ook niet toegestaan voor de Rijksoverheid. Hoe groot het aandeel van individuele ambtenaren is die hier toch gebruik van maakten en bij welke processen, is lastig te achterhalen. Wel werk ik aan het vergroten van de AI-geletterdheid van ambtenaren, om bewustwording rondom zogenaamde ‘shadow AI’ te vergroten. Zie hiervoor ook de beantwoording bij vraag 25.

Vraag 56: Waarom wordt het gebruik van Europese AI-toepassingen alleen 'aanbevolen' en niet afgedwongen?

Zie de beantwoording bij vraag 34.

Vraag 57: Hoe zorgt u ervoor dat overheden niet alsnog massaal gebruik maken van Amerikaanse of Chinese AI-toepassingen, die de strategische afhankelijkheid van niet-Europese bedrijven alleen maar doen toenemen?

Als het gaat om AI-tools (apps) uit landen met een offensief cyberprogramma jegens Nederland, dan zijn deze op basis van het Rijksbrede app-beleid verboden. DeepSeek is dan ook niet toegankelijk vanaf werkdevices van de Rijksoverheid. Organisaties kunnen daarnaast aan hun ICT-dienstverleners vragen om bepaalde websites, zoals gratis toegankelijke generatieve AI via de browser, dicht te zetten. Hier zijn zij zelf verantwoordelijk voor.

Aan de andere kant zetten wij actief in op het stimuleren van taalmodellen van Europese of Nederlandse bodem. Dit is tevens een van de versnellers binnen de Nederlandse Digitaliseringsstrategie (NDS), onder de prioriteit AI. In 2023 investeerde de Rijksoverheid al in een Nederlands taalmodel: GPT-NL.

Vraag 58: Hoe ziet u erop toe dat alleen overheidsspecifieke AI-toepassingen binnen organisaties worden gebruikt? Wat zijn de gevolgen als iemand wél onder reguliere consumentenvoorwaarden AI-toepassingen gebruikt?

Zie de beantwoording bij vraag 44 en 57.

Vraag 59: Wat doet u om de betrouwbaarheid van Nederlandse taalmodellen in generatieve AI te doen toenemen?

Via het overheidsbrede standpunt moedig ik overheidsorganisaties aan gebruik te maken van taalmodellen die in Nederland zijn ontwikkeld. Hiermee wil ik een stimulans geven aan de verdere doorontwikkeling van deze taalmodellen, waarmee ik beoog dat de betrouwbaarheid van deze modellen toeneemt.

Zie ook de beantwoording bij vraag 34, 57 en 60.

Vraag 60: Welke rol ziet u uiteindelijk voor AI-toepassingen die in de voorgenomen Nederlandse AI-faciliteit worden ontwikkeld? Committeert de overheid zich aan het afnemen van deze toepassingen?

Het consortium dat werkt aan een voorstel voor een AI-faciliteit, ook wel AI-fabriek, in Groningen is voornemens initiatieven te ondersteunen die verantwoorde en transparante AI-ontwikkeling bevorderen. Dit omvat het ontwikkelen en testen van AI-modellen, die voldoen aan bestaande (Europese) wet- en regelgeving. Denk hierbij aan de vereisten die de AI-verordening stelt.

De AI-faciliteit is voor bedrijven, onderzoekers en overheden die AI-modellen willen ontwikkelen en testen voor innovatieve toepassingen in de pre-commerciële fase (nog voordat deze de markt op gaan). Bij de inkoop of het gebruik van AI zal de overheid zoveel mogelijk voorop stellen dat AI-toepassingen gebaseerd moeten zijn op de AI-modellen die in de AI-fabriek ontwikkeld en getest zijn.

Vraag 61: Reguleert of normeert u ook het gebruik van AI-modellen op basis van hun CO2- uitstoot?

Vraag 62: Hoe jaagt u duurzaamheid aan binnen het gebruik van AI-toepassingen, wetende dat deze een grote uitstoot van CO2 kennen door de benodigde rekenkracht?

Om innovatie te bevorderen en organisaties binnen de gestelde kaders zo veel mogelijk ruimte te geven om te experimenteren, kies ik ervoor om niet te reguleren of normeren op basis van de CO2-uitstoot van AI-modellen.

Ik heb de Universiteit Utrecht (UU) de opdracht gegeven om in kaart te brengen wat de bijdrage van generatieve AI bij de overheid is op het energie- en waterverbruik en CO2-emissies, en welke prioritaire acties vanuit de overheid nodig zijn om de negatieve gevolgen te beperken.21

Daarnaast is het onderdeel van Rijksbreed beleid om gebruik te maken van duurzame datacenters, die duurzame energie gebruiken met een Datacenter Infrastructure Efficiency (DCiE)-score van minstens 50 procent, gewogen over een heel jaar. Dit beleid is ook van toepassing bij het gebruik van generatieve AI.

Vraag 63: Volgt u de analyse van de Autoriteit Persoonsgegevens dat reguliere AI toepassingen onder consumentenvoorwaarden niet acceptabel is voor gebruik door overheden, omdat er oneigenlijk met data wordt omgegaan?

Ja, zie pagina 3 van het overheidsbreed standpunt.

Vraag 64: Welke gevolgen heeft de overheidsbrede visie op het gebruik van telefoons, computers en apps waar AI-toepassingen onder consumentenvoorwaarden zonder opt-out standaard worden ingebouwd? Gaat de voorkeur uit naar het gebruiken van platforms waar geen AI-toepassingen zijn ingebouwd?

Er worden via software-updates met regelmaat AI-functionaliteiten toegevoegd aan bestaande systemen of apparaten. Denk inderdaad aan telefoons, computers of online toepassingen die we bij de overheid gebruiken. Ik vind het belangrijk dat overheidsorganisaties hier goede afspraken over maken met hun leveranciers, onder meer over data-deling en opslag.

Wanneer de AI-functionaliteiten enkel onder consumentenvoorwaarden aangeboden kunnen worden, zou de functie uitgeschakeld moeten worden. De voorkeur gaat niet uit naar platforms zonder AI, maar wel naar platforms waar AI op een veilige en verantwoorde manier ingezet kan worden. Als het gaat om AI-tools (apps) uit landen met een offensief cyberprogramma jegens Nederland, dan zijn deze op basis van het Rijksbrede app-beleid verboden. DeepSeek is dan ook niet toegankelijk vanaf werkdevices van de Rijksoverheid. Organisaties kunnen daarnaast aan hun ICT-dienstverleners vragen om bepaalde websites, zoals gratis toegankelijke generatieve AI via de browser, dicht te zetten. Hier zijn zij zelf verantwoordelijk voor.

Vraag 65: Welke gevolgen heeft de overheidsbrede visie op het gebruiken van Copilot binnen Microsoft Teams door overheden? Is dit voortaan niet meer toegestaan?

Het gebruik van een gecontracteerde versie van Microsoft365 Copilot is in principe in lijn met het overheidsbrede standpunt, met dien verstande dat Microsoft365 Copilot niet gebruik maakt van opensource- en Europese modellen, terwijl het standpunt daar wel de voorkeur aan geeft. Belangrijker is echter dat momenteel het advies van Strategisch Leveranciersmanagement Rijk (SLM Rijk) aan rijksorganisaties is om Microsoft365 Copilot nog niet in te zetten. Dit naar aanleiding van de door hen uitgevoerde DPIA, waarin vier hoge risico’s zijn geïdentificeerd. Naar aanleiding van deze hoge risico's heeft Microsoft aanvullende maatregelen aangeboden. SLM Rijk is hierover actief met Microsoft in gesprek. SLM Rijk zal deze aanvullende maatregelen vervolgens beoordelen en op basis van deze beoordeling een geactualiseerde DPIA publiceren en een geactualiseerd advies uitbrengen.

Vraag 66: Heeft u deze visie afgestemd met de verschillende gemeenten die nu juist experimenteren met het gebruik van Copilot?

Het overheidsbrede standpunt over generatieve AI is eind 2024 en begin 2025 breed afgestemd met de koepels van alle medeoverheden, waaronder ook de Vereniging van Nederlandse Gemeenten (VNG). Binnen de kaders van dit standpunt is ruimte om zelf afwegingen te maken, bijvoorbeeld ten aanzien van de keuze voor een Europese of niet-Europese leverancier op basis van een inkooptraject.

Vraag 67: Hoe ziet u erop toe dat de AI-geletterdheid van medewerkers feitelijk toeneemt? Bent u bereid hierin dwingend op te treden om cursussen en leertrajecten een voorwaarde te maken voor het mogen gebruiken van AI-toepassingen?

Zie de beantwoording bij vraag 25.

Vraag 68: Hoe bent u bereid inzicht te krijgen in het gebruik van AI door toeleveranciers waar de overheid mee samenwerkt? Zullen zij een nieuwe mate van transparantie moeten geven over hun werkprocessen voordat overheden diensten van hen afnemen?

Via het opstellen van specifieke inkoopvoorwaarden wil ik overheidsbreed afspraken maken over de mate van transparantie. Zodoende heet het ministerie van BZK aan het Centrum Informatiebeveiliging en Privacybescherming (CIP) gevraagd om een traject te starten rondom inkopen van AI voor de gehele overheid. Denk hierbij aan duidelijke aanvullende inkoopvoorwaarden en bijscholing van inkopers. Hiermee wil ik organisaties ondersteunen in het doorlopen van het inkoop- of ontwikkelproces, zodat organisaties sneller aan de slag kunnen met verantwoorde generatieve AI.

Vraag 69: Wanneer is er volgens u sprake van een 'gecontroleerde niet-productieomgeving' en welke data mag hierin wél verwerkt worden?

In het overheidsbrede standpunt wil ik overheidsorganisaties de ruimte bieden om generatieve AI-toepassingen te verkennen. Dit betreft doorgaans pilots die worden uitgevoerd in een veilig afgeschermde testomgeving of op stand-alone computers als onderdeel van een pilot. Denk aan demo-omgevingen, waarin gewerkt wordt met fictieve of openbaar beschikbare data.

Vraag 70: Bent u van mening dat er één centrale omgeving/'proeftuin' moet zijn waarin alle overheden veilig kunnen experimenteren met generatieve AI, zodat kennis per definitie wordt uitgewisseld met alle betrokkenen?

Ik ben van mening dat er een centrale veilige omgeving moet zijn waar we samen met wetenschappers, ICT-talenten, publieke dienstverleners en private partijen kunnen experimenteren, doorontwikkelen en werken aan robuuste AI-bouwblokken. Dit is iets waar ik aan werk met het oprichten van een zogenoemde “doorbraakfaciliteit”. Uitwisseling van innovatieve oplossingen, kennis en of trainen van modellen moet hier centraal staan.

Het Platform AI & Overheid draagt bij aan het delen van praktijkvoorbeelden en kennis. Mijn doel is om verantwoord gebruik van AI bij overheidsorganisaties te stimuleren. Het Platform heeft hiermee een verbindende factor, om zo publiek en privaat samen te laten komen. Denk aan het uitwisselen van praktijkvoorbeelden, het uitwisselen van kennis maar ook aan het maken van afspraken om samen te werken bij bijvoorbeeld het ontwikkelen van een chatbot. Ik hecht waarde aan innoveren en experimenteren net als implementatie binnen de gestelde kaders. In het najaar ga ik aan de slag met een aantal AI-toepassingen die impactvol zijn en maak ik gebruik van kennis en kunde vanuit diverse expertises die de verantwoorde inzet van AI vergemakkelijken.

Zie ook beantwoording onder vraag 13.

Vraag 71: Welke 'betere afspraken' beoogt u te maken met leveranciers voor de inkoop van generatieve AI-toepassingen?

Net als voor privacy en informatiebeveiliging, zullen de vereisten specifiek voor generatieve AI ook een plek moeten krijgen in het inkoopproces. Denk aan transparantie en documentatie eisen die de Europese AI-verordening stelt. Ook afspraken over data-deling en opslag moeten zorgvuldig tot stand komen. Zie voor wat betreft het auteursrecht het antwoord op vragen 49 en 50.

Ik onderschrijf dat dit nog een vraagstuk is waar veel overheidsorganisaties tegenaanlopen. Zodoende is aan het Centrum Informatiebeveiliging en Privacybescherming (CIP) gevraagd om een traject te starten rondom inkopen van AI voor de gehele overheid. Denk hierbij aan duidelijke (aanvullende) inkoopvoorwaarden, en bijscholing van medewerkers en inkopers. Hiermee hoop ik organisaties te ondersteunen in het doorlopen van het inkoop- of ontwikkelproces, zodat organisaties sneller aan de slag kunnen met verantwoorde generatieve AI.

 Vraag 72: Hoe voorkomt u dat het inrichten van verschillende proeftuinen voor overheden niet als gevolg heeft dat kennis niet voortvarend wordt uitgewisseld?

Zie de beantwoording bij vraag 70.

Vraag 73: Vindt u dat AI-toepassingen die door overheden worden gebruikt altijd volledig uitlegbaar moeten zijn, zodat keuzes door de overheid altijd goed kunnen worden verantwoord?

Ik ben van mening dat dat afhangt van de toepassing en impact van de AI-toepassingen. Artikel 86 van de AI-verordening geeft een recht op uitleg van besluiten (die rechtsgevolg of aanzienlijke invloed hebben) die worden genomen op basis van input van een hoog-risico AI-systeem. Onder meer AI-systemen die door overheden worden gebruikt om essentiële overheidsuitkeringen en -diensten te verlenen gelden als hoog-risico AI-systeem. Daarnaast vereist de Algemene wet bestuursrecht bij besluiten een deugdelijke en kenbare motivering.

Vraag 74: Hoe betracht u uitlegbaarheid en verantwoording bij het gebruik van AI toepassingen die níet open source zijn? Welke mogelijkheden zijn er om gesloten modellen alsnog transparanter te maken?

Ik vind uitlegbaarheid van generatieve AI-toepassingen belangrijk, of ze nu open source zijn of niet. Voor wat betreft verantwoording voor de output/het resultaat: generatieve AI is een hulpmiddel en kan geen verantwoordelijkheden dragen. Zowel uitlegbaarheid als verantwoording zijn onderdeel van het opzetten van een goede AI-governance. Het Algoritmekader biedt hier handvatten bij.

Er zijn verschillende manieren waarop (generatieve) AI-modellen transparanter kunnen worden gemaakt.

Gebruikers kunnen gebaat zijn bij duidelijke en overzichtelijke model cards – bijsluiters met technische details en mogelijke beperkingen van het betreffende AI-model. Een dergelijke bijsluiter kan (eind)gebruikers helpen te bepalen of een model geschikt is voor een bepaalde toepassing, en of er mogelijke risico’s verbonden zijn aan het gebruik ervan.22 Ook de Autoriteit Persoonsgegevens (AP) wijst hierop in haar Rapportage AI- & Algoritmerisico’s Nederland uit het najaar 2023.23

Daarbij bevat de Europese AI-verordening verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden, dit zijn modellen die in staat zijn om veel verschillende taken uit te voeren en in veel verschillende AI-systemen kunnen worden geïntegreerd. Hieraan wordt gerefereerd als ‘AI-modellen voor algemene doeleinden’. Aanbieders van deze modellen zijn verplicht om informatie over de werking van het model te delen met ontwikkelaars die op dit model voortbouwen. Deze verplichtingen gaan in vanaf 2 augustus 2025.

Vraag 75: Waarom kiest u er niet voor om uitsluitend open source-applicaties te gebruiken, in plaats van dit enkel aan te bevelen?

Zoals ook benoemd in de overheidsbrede visie op generatieve AI,24 kunnen open-source generatieve AI-modellen voordelen bieden op het gebied van transparantie en uitlegbaarheid. Om die reden moedig ik het gebruik van open source aan, onder andere door bij aanbestedingen en ontwikkeling het principe ‘open source, tenzij’ te hanteren.

Tegelijkertijd geldt dat dergelijke vormen van transparantie niet ten koste mag gaan van de veiligheid en betrouwbaarheid van generatieve AI-modellen. In sommige gevallen kunnen gesloten systemen beter voldoen aan beveiligingseisen of specifieke functionele vereisten. Daarom is het gebruik van open source geen verplichting, maar een aanbeveling, afhankelijk van de context en risicoafweging.

Vraag 76: Hoe gaat u het gebruik van open source-applicaties daadwerkelijk doen groeien als u slechts een aanbeveling voorstelt en geen harde doelstelling?

Ik maak in dit verband onderscheid tussen open source-applicaties en open modellen. Wat betreft het stimuleren van open generatieve AI-(taal)modellen – bijvoorbeeld modellen waarvan transparant is op welke data ze zijn getraind of waarvan de modelgewichten vrij beschikbaar zijn – wordt er in het kader van de Nederlandse Digitaliseringsstrategie (NDS) werk gemaakt van het aanjagen van de inzet van open taalmodellen door overheidsorganisaties. Dit is een van de versnellers onder de prioriteit AI.

Vraag 77: Wat verwacht u precies van overheden als u hen vraagt om '[er] rekening mee te houden' dat AI-modellen kunnen hallucineren?

Hoewel door generatieve AI gegenereerde content er op het eerste gezicht vaak geloofwaardig oogt, geven generatieve AI-modellen niet altijd een feitelijk juist antwoord. Dat komt omdat generatieve AI-modellen niet zijn geoptimaliseerd voor nauwkeurigheid. Het genereren van output die onwaar is wordt ‘confabuleren’, of beter bekend ‘hallucineren’, genoemd. Zo kan een generatief AI-model een onjuist gegeven presenteren als feit. De kwaliteit van de trainingsdata van een generatief AI-model én de kwaliteit van de opdracht aan de toepassing (de ‘prompt’) beïnvloeden in grote mate de kwaliteit van de output. Zo kunnen de uitkomsten van generatieve AI-modellen een onvolledig beeld geven of niet meer actueel zijn, vanwege incomplete of verouderde trainingsdata.

Overheden en medewerkers moeten zich hier bewust van zijn. Ook als de governance rondom dergelijke AI-toepassingen in orde is en de risico’s zo goed mogelijk zijn afgedekt, bestaat de kans nog steeds dat generatieve AI-systemen hallucineren. Dit vereist enige mate van AI-geletterdheid bij overheidsmedewerkers, een eis die ook vanuit de AI-verordening wordt gesteld. In de beantwoording bij vraag 25 geef ik aan hoe ik AI-geletterdheid bij ambtenaren wil stimuleren.

Vraag 78: Welke technieken zijn er om de kans op fouten door AI-toepassingen te verkleinen en wat doet u om deze technieken zo breed mogelijk toe te passen?

Het risico op fouten kan op een aantal manieren worden beperkt. Allereerst kan dit door ervoor te zorgen dat de data waarop het systeem wordt getraind actueel, betrouwbaar en specifiek op de context van toepassing is. Dit verkleint de kans op hallucineren, doordat het systeem minder ‘irrelevante’ informatie mee hoeft te wegen in het opstellen van een antwoord. Toch wordt hiermee de kans op onjuiste output nooit volledig weggenomen.

Ten tweede kunnen organisaties gebruik maken van AI-systemen die bronvermeldingen genereren. Dit is een goede manier voor een eindgebruiker om te controleren of een antwoord klopt of niet. Ik raad overheidsorganisaties aan om dit als ‘requirement’ te stellen bij de ontwerpfase van een AI-systeem of om deze behoefte te specificeren tijdens het inkoopproces.

Ten derde is het nodig om te zorgen voor menselijke controle bij een besluit, door iemand die bevoegd en bekwaam is om een beslissing of besluit te nemen en te wijzigen bij dat besluit te betrekken. Dit moet ingebed worden in de werkprocessen die rondom AI-systemen worden gehanteerd.

Ik zorg voor meer bewustwording over deze en andere technieken onder andere door organisaties te wijzen op het Algoritmekader, waar bovenstaande technieken en verdere toelichting in zijn opgenomen.

Vraag 79: Hoe voorkomt u dat foute informatie uit een AI-toepassing leidt tot een beslissing die nadelig uitpakt voor burgers?

Transparantie over het gebruik van AI en uitleg over de werking daarvan en de rol in het besluitvormingsproces, moet de burger de mogelijkheid geven de juistheid daarvan te beoordelen. Tegen besluiten staan rechtsmiddelen open die burgers kunnen inroepen, zoals het maken van bezwaar. Deze vraag heeft raakvlakken met de analyse van de opbrengst van de internetconsultatie over het ‘reflectiedocument algoritmische besluitvorming en de Algemene wet bestuursrecht’ dat ik uw Kamer binnenkort zal zenden, zie het antwoord bij vraag 4.

Vraag 80: Kunnen burgers zich beroepen op het recht op inzage van hoe hun gegevens zijn verwerkt in een AI-toepassing die wordt betrokken in de besluitvorming van de overheid?

Zie de beantwoording bij vragen 73 en 79. In aanvulling daarop, geven zowel de Algemene wet bestuursrecht, in artikel 7:4, als artikel 15 van de Algemene Verordening Gegevensbescherming, een recht op inzage van de gebruikte gegevens.

Vraag 81: Hoe gaat u samenwerking tussen overheden op het gebied van AI-toepassingen gebruiken en ontwikkelen vormgeven? Wanneer krijgt deze samenwerking vorm?

Zie de beantwoording bij vraag 13.

Vraag 82: Welke garanties vraagt u bij het inkopen van AI-toepassingen voor het respecteren van auteursrecht en het verzekeren van een eerlijke compensatie voor makers wiens producties hierin zijn verwerkt?

Het ministerie van BZK heeft aan het Centrum Informatiebeveiliging en Privacybescherming (CIP) gevraagd om een traject te starten rondom inkopen van AI voor de gehele overheid. Denk hierbij aan duidelijke (aanvullende) inkoopvoorwaarden, en bijscholing van medewerkers en inkopers. Hiermee hoop ik organisaties te ondersteunen in het doorlopen van het inkoop- of ontwikkelproces, zodat organisaties sneller aan de slag kunnen met verantwoorde generatieve AI.

Met het overheidsbrede standpunt stel ik geen eis aan de compensatie voor makers wier productie is verwerkt in generatieve AI. Zie hiervoor de beantwoording bij vraag 49 en 50.

Vraag 83: Welke concrete pilots met generatieve AI zijn sinds 2024 gestart binnen de rijksoverheid, provincies of gemeenten?

Er zijn tal van experimenten en pilots gestart binnen de overheid. Dit valt niet in één overzicht samen te vatten, omdat het zich in een hoog tempo ontwikkelt. Hieronder noem ik een aantal veelbelovende voorbeelden.

Dienstverlening aan burgers & bedrijven

  • Chatbot Guus25Gemeente Goes (gestart april 2025): Een AI-chatbot die via generatieve AI vragen van inwoners beantwoordt op basis van de gemeentelijke website. Door alleen geverifieerde bronnen (zoals goes.nl) te gebruiken, maakt “Guus 3.0” de digitale dienstverlening toegankelijker en is de chat beter afgestemd op de leefwereld van inwoners.

  • MAI (Montferland AI)26Gemeente Montferland (pilot gestart oktober 2024): Een lokaal ontwikkelde chatbot, in eigen beheer, opgebouwd met een generatief AI‑model. Het doel is om de arbeidsdruk verlichten en inwoners op elk moment van de dag te ondersteunen bij vragen. De data blijft lokaal en privacy wordt gewaarborgd. De pilot is gepubliceerd in het Algoritmeregister en er is een DPIA gedaan.

  • OmgevingsChat27Coöperatie van gemeenten (gestart september 2024): Generatieve AI-chatbot die is gericht op het Omgevingsloket. De chatbot beantwoordt vragen over omgevingsvergunningen, het milieu en bouwen van burgers en bedrijven op basis van Omgevingswet‑data.

  • Virtuele assistent Gem28Coalitie van gemeenten (pilot gestart juli 2024): Een gezamenlijke virtuele assistent voor klantcontact, ontwikkeld door meerdere gemeenten. In 2024 is een pilot begonnen om te onderzoeken hoe generatieve AI de prestaties van Gem kan verbeteren in het beantwoorden van veel gestelde vragen van burgers. Dit moet leiden tot snellere en consistentere reacties bij publieksvragen, met behoud van privacy en betrouwbaarheid.

  • AI-ondersteuning re-integratie (WerkSaam)29Regionale samenwerking West-Friesland (pilot 2024): Een proef waarbij een regionaal werk-leerbedrijf generatieve AI inzet om de dienstverlening bij re-integratie te verbeteren. Het systeem zet spraak om in tekst en genereert tijdens intakegesprekken samenvattingen en suggesties voor vragen. Ook adviseert het AI-systeem over geschikte voorzieningen (via de VNG-instrumentengids) om werkzoekenden te helpen. Het doel is om cliënten proactiever te ondersteunen en het proces te versnellen.

Interne efficiëntie

  • PZH-Assist30Provincie Zuid-Holland (gestart april 2024): Een interne generatieve AI-chatbot voor medewerkers van de provincie, ontwikkeld als veilig alternatief voor openbare tools als ChatGPT. PZH-Assist draait in een eigen omgeving (Azure OpenAI) zonder op interne data te zijn getraind. Ambtenaren kunnen documenten uploaden en vragen stellen, waarbij privacyrisico’s gemitigeerd zijn (gesprekken worden niet gebruikt om het model te trainen). Deze pilot, gestart in april 2024, loopt tot eind 2025 en beoogt de productiviteit van medewerkers te verhogen zonder gevoelige data te lekken.

  • Microsoft Copilot in Breda31Gemeente Breda (pilot gestart najaar 2024): De gemeente Breda test een jaar lang de inzet van Microsoft 365 Copilot (op basis van GPT-4) om ambtelijke werkzaamheden efficiënter en leuker te maken. In deze proef wordt gekeken of de AI-assistent kan helpen bij taken als documentcreatie, data-analyse en communicatie, zodat routinematige werkzaamheden versneld worden en ambtenaren meer tijd overhouden voor complexere taken.

  • Anonimiseren met LLM32Gemeente Hoeksche Waard (met Barendrecht, Ridderkerk e.a., gestart 2024): Een innovatieproject gericht op het verantwoord inzetten van generatieve AI voor privacy. Het doel is om overheidsdocumenten (bijvoorbeeld in het kader van WOO-verzoeken) automatisch te ontdoen van persoonsgegevens met behulp van een taalmodel. De AI herkent en verwijdert gevoelige informatie in teksten, zodat data veilig gedeeld en geanalyseerd kunnen worden zonder privacyrisico’s.

  • Chatbot “Sammie” (stikstofassistent)33Provincie Noord-Brabant (pilot Q1 2024): Noord-Brabant experimenteerde begin 2024 met “Sammie”, een generatieve AI-chatbot die vragen van ambtenaren over het complexe stikstofdossier beantwoordt. Sammie is lokaal getraind op provinciale data (zoals realtime stikstofmetingen en Natura2000-kaarten) en geeft bij elk antwoord de bronvermelding (document en paginanummer) ter controle. De pilot liep tot maart 2024 en werd positief geëvalueerd. Dankzij Sammie konden medewerkers sneller informatie vinden over milieugegevens, met behoud van betrouwbaarheid en transparantie, wat bijdraagt aan beter onderbouwd milieubeleid.

In het derde kwartaal van dit jaar komt TNO – in opdracht van BZK – met een overheidsbrede monitor generatieve AI, waarin ook nader inzicht zal worden geboden in de generatieve AI-inzet bij Nederlandse overheidsorganisaties.

Vraag 84: Hoe wordt vastgesteld of een AI-toepassing daadwerkelijk bijdraagt aan publieke doelen zoals genoemd in de handreiking?

Eén van de voorwaarden die ik in het overheidsbrede standpunt stel, is dat voldoende duidelijk wordt gemaakt welk doel gediend wordt met de inzet van de generatieve AI-toepassing. Vragen en interne gesprekken over het doel, ook in relatie tot het maatschappelijke resultaat, zijn vaak een onderdeel van het doorlopen van een aanbestedingstraject of risicoanalyse.

Het helder omschrijven van doelen raakt bovendien aan het zorgvuldigheidsvereiste uit de Algemene wet bestuursrecht, welke eist dat een besluit met de nodige zorgvuldigheid wordt voorbereid en juist wordt genomen. Dit vraagt onder meer om een zorgvuldig onderzoek naar informatie, feiten, een zorgvuldige beslissingsprocedure en een deugdelijke besluitvorming.

Vraag 85: Welke maatregelen zijn getroffen bij de reeds gestarte pilots om ambtenaren AI geletterd te maken, zoals aanbevolen in hoofdstuk 4.2 van de handreiking?

Zie de beantwoording bij vraag 25.

Vraag 86: Is het oprichten van een ethische commissie door overheidsorganisaties verplicht of slechts een aanbeveling?

Dit is niet verplicht. Een ethische commissie is een van de instrumenten die overwogen kan worden voor verantwoorde inzet van AI. Zie ook mijn beantwoording bij vragen 26, 27 en 42.


  1. Overheidsbreed standpunt voor de inzet van generatieve AI | Rapport | Rijksoverheid.nl↩︎

  2. Overheidsbrede handreiking voor de verantwoorde inzet van generatieve AI | Rapport | Rijksoverheid.nl↩︎

  3. Algoritmekader - Algoritmekader 2.2↩︎

  4. Kamerstuk 26 643, nr. 1261↩︎

  5. Kamerstuk 32 761, nr. 310↩︎

  6. Zie ook: Kamerstuk 26 643, nr. 1125.↩︎

  7. Zie ook: Kamerstuk 26 643, nr. 1233.↩︎

  8. Zie ook de beantwoording van de vragen van de leden Erkens en Buijsse (beiden VVD) over (generatieve) AI en arbeidsproductiviteit van april jl.: Aanhangsel Handelingen II 2024/25, nr. 2000↩︎

  9. Advies AI en werk: Samen naar werkende toekomst met AI | SER↩︎

  10. Algoritmekader - Algoritmekader 2.2↩︎

  11. Zie ook: Kamerstuk 26 643, nr. 1125.↩︎

  12. Kamerstuk 26 643, nr. 1029↩︎

  13. Zie ook: Kamerstuk 26 643, nr. 1125.↩︎

  14. Home NL - cip-overheid↩︎

  15. Academie voor Wetgeving en Overheidsjuristen | Academie voor Wetgeving / Academie voor Overheidsjuristen↩︎

  16. Handreiking Algoritmeregister - Digitale Overheid↩︎

  17. Kamerstuk 26 643, nr. 1056↩︎

  18. Zie ook: https://www.ncsc.nl/wat-kun-je-zelf-doen/weerbaarheid/beschermen/apps-uit-landen-met-een-offensief-cyberprogramma-tegen-nederlandse-belangen↩︎

  19. Kamerstuk 26 643, nr. 1312.↩︎

  20. Zie ook: Kamerstuk 26 643, nr. 1125.↩︎

  21. Eindrapport Generatieve AI en duurzaamheid | Rapport | Rijksoverheid.nl↩︎

  22. Zie ook: https://open.overheid.nl/documenten/9aa7b64a-be51-4e6a-ad34-26050b8a67ef/file↩︎

  23. Autoriteit Persoonsgegevens (2023). Rapportage AI- & algoritmerisico’s Nederland (RAN) – najaar 2023.↩︎

  24. https://www.rijksoverheid.nl/documenten/rapporten/2024/01/01/overheidsbrede-visie-generatieve-ai↩︎

  25. https://www.rijksoverheid.nl/actueel/nieuws/2025/04/22/overheid-verruimt-standpunt-inzet-generatieve-ai↩︎

  26. https://www.digitaleoverheid.nl/achtergrondartikelen/montferland-proactief-en-verantwoord-aan-de-slag-met-ai/↩︎

  27. https://ibestuur.nl/artikel/de-friese-aanpak-verdient-navolging/↩︎

  28. https://www.ziptone.nl/nieuws/gem-krijgt-subsidie-voor-uitbreiding-met-genai/↩︎

  29. https://www.gemeente.nu/bedrijfsvoering/pilots-met-generatieve-ai-leveren-inzichten-op-voor-alle-gemeenten/↩︎

  30. https://www.zuid-holland.nl/onderwerpen/digitaal-zuid-holland/algoritmeregister/algoritme-pzh-assist-provincie-zuid-holland/↩︎

  31. https://www.gemeente.nu/bedrijfsvoering/pilots-met-generatieve-ai-leveren-inzichten-op-voor-alle-gemeenten/↩︎

  32. https://www.digitaleoverheid.nl/innovatieproject/anonimiseren-met-llm/↩︎

  33. https://www.binnenlandsbestuur.nl/digitaal/kunstmatige-intelligentie/sammie-de-ai-weet-alles-over-stikstof↩︎