Amendement van het lid Van Baarle over een pilot voor actieve ondersteuning bij algoritmische toepassingen
Vaststelling van de begrotingsstaten van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (VII) voor het jaar 2023
Amendement
Nummer: 2022D41287, datum: 2022-10-12, bijgewerkt: 2024-02-19 10:56, versie: 2
Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (kst-36200-VII-18).
Gerelateerde personen:- Eerste ondertekenaar: S.R.T. van Baarle, Tweede Kamerlid (DENK)
Onderdeel van kamerstukdossier 36200 VII-18 Vaststelling van de begrotingsstaten van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (VII) voor het jaar 2023.
Onderdeel van zaak 2022Z19306:
- Indiener: S.R.T. van Baarle, Tweede Kamerlid
- Voortouwcommissie: TK
- 2022-10-13 10:15: Begroting Binnenlandse Zaken (36200-VII) (antwoord 1e termijn + rest) (Plenair debat (wetgeving)), TK
Preview document (🔗 origineel)
Tweede Kamer der Staten-Generaal | 2 |
Vergaderjaar 2022-2023 |
36 200 VII Vaststelling van de begrotingsstaten van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (VII) voor het jaar 2023
Nr. 18 AMENDEMENT VAN HET LID VAN BAARLE
Ontvangen 12 oktober 2022
De ondergetekende stelt het volgende amendement voor:
De begrotingsstaat wordt als volgt gewijzigd:
I
In artikel 6 Overheidsdienstverlening en informatiesamenleving worden het verplichtingenbedrag en het uitgavenbedrag verlaagd met € 250 (x € 1.000).
II
In artikel 6 Overheidsdienstverlening en informatiesamenleving worden het verplichtingenbedrag en het uitgavenbedrag verhoogd met € 250 (x € 1.000).
Toelichting
Achtergrond
Gemeenten maken steeds meer gebruik van algoritmen in de uitvoering van hun taken en publieke dienstverlening. Algoritmen kunnen van grote toegevoegde waarde zijn voor gemeenten. Er kunnen echter ook nadelen kleven aan het gebruik van algoritmen. Een van de risico’s is de kans op een oneerlijk of bevooroordeeld besluit. Algoritmen kunnen bijvoorbeeld ongerechtvaardigd onderscheid maken, zodat het gebruik van algoritmen leidt tot discriminatie en strijdig is met het recht op gelijke behandeling. Het gebruik van algoritmen kan ook op gespannen voet staan met het recht op privacy en het recht op de bescherming van persoonsgegevens.
Helaas zijn er veel praktijkvoorbeelden waar het fout is gegaan bij het gebruik van algoritmen en door de overheid of gemeente. De algoritme vertrouwensmonitor 2022 laat zien dat de bekendheid van algoritmen jaarlijks toeneemt maar het vertrouwen in algoritmen afneemt.1
Aanvullende instrumenten
Voor algoritmische verwerking van persoonsgegevens zijn aanvullende instrumenten ontwikkeld om te waarborgen dat een algoritme op een verantwoorde manier wordt ontworpen en ingezet. De Universiteit Utrecht heeft de impact assessment mensenrechten en algoritmen (IAMA) ontwikkeld. Een instrument dat kan worden gebruikt voordat gestart wordt met de ontwikkeling van een algoritmische toepassing. Daarnaast is door Tilburg University, de Handreiking non-discriminatie-by-design ontwikkeld, een instrument dat kan worden gebruikt bij de ontwikkeling van een algoritmische toepassing.
Er zal worden onderzocht in hoeverre de Handreiking non-discriminatie-by-design bekend is bij relevante overheidsdiensten en lokale overheden en in hoeverre de aanbevelingen worden geïmplementeerd.
Doel amendement
Dit amendement reserveert € 250.000 voor een pilot waarin gemeenten zowel voor als tijdens de ontwikkeling van algoritmische toepassingen, actief worden ondersteund in de ontwikkeling van algoritmische toepassingen met een juiste toepassing van de IAMA en handreiking non-discriminatie-by-design. Deze gemeenten kunnen dan als modelgemeente fungeren. Dekking wordt gevonden in de vrij te besteden gelden van artikel 6.
Van Baarle
https://home.kpmg/nl/nl/home/topics/artificial-intelligence/vertrouwen-in-algoritmes/algoritme-vertrouwensmonitor.html.↩︎