Verslag MKB toets AI Act d.d. 22 september 2022
Bijlage
Nummer: 2022D49420, datum: 2022-11-23, bijgewerkt: 2024-02-19 10:56, versie: 1
Directe link naar document (.docx), link naar pagina op de Tweede Kamer site.
Bijlage bij: Geannoteerde agenda voor de formele Telecomraad van 6 december 2022 (2022D49419)
Preview document (🔗 origineel)
Verslag MKB toets AI Act d.d. 22 september 2022
Het panel bestond uit diverse vertegenwoordigers van het MKB, zowel mannen als vrouwen. Er waren consultants die het MKB adviseren, maar ook zelf AI-systemen bouwen voor het MKB. Er waren mensen die zelf voor een MKB werken en mensen die in startups investeren. De indruk is dat de bijeenkomst mede werd beschouwd als goede gelegenheid om geïnformeerd te worden.
Er waren vooraf enkele vragen gesteld over het voldoen aan de eisen:
Is het duidelijk wanneer een systeem in de categorie hoog-risico valt?
Zijn de verplichtingen duidelijk waaraan het systeem in dat geval moet voldoen?
Zo nee, Wat heb je nodig? Welke informatie mis je om deze stappen wel te doorlopen?
Op welke manier zouden MKB-ers die een hoog-risico AI-systeem ontwikkelen of op de markt brengen, het beste ondersteund kunnen worden?
Zie je nog specifieke andere knelpunten die onze aandacht moet hebben?
Ook waren er vragen gesteld over de innovatiestimulerende maatregelen:
Aan welke voorlichting over de AI verordening heb je het meest behoefte?
Hoe werkt het testen van AI -systemen nu en wat is nodig om dat te blijven doen onder de AI verordening?
Wat voor begeleiding verwacht je bij deelname aan een regulatory sandbox?
Wat is er voor een mkb’er die hoog risico AI-systemen ontwikkelt nodig om te voorkomen dat de regeldruk door deze verordening te hoog wordt?
Wat voor praktische ondersteuning gaat een mkb’er in praktijk helpen door een toezichthoudende instelling? Bijv. normuitleg, handvatten voor compliance of andere onderwerpen?
Wat mist er?
Aan de hand van een presentatie over de AI-verordening die later is gedeeld, is het gesprek gevoerd. De presentatie riep zo veel vragen op dat er niet is toegekomen aan de vragen die op voorhand waren gedeeld. De deelnemers missen begrijpelijkerwijs nog kennis over wat de AI-verordening gaat vereisen en stelden met name vragen over wat de wet voor hen specifiek gaat betekenen.
Uit de vragen bleek veel behoefte aan uitleg over de systematiek van de AI-verordening. Zo bleken veel onduidelijkheden te zijn wat betreft de combinatie ‘vallen onder de definitie van AI-systeem’ wat niet direct gevolgen heeft, en ‘vallen in de hoog-risico categorie’, gevolgd door het moeten voldoen aan de eisen uit de AI verordening. Ook de categorie AI-systemen waar moet worden voldaan aan transparantievereisten, waren niet helder genoeg voor iedereen.
Een deel van de vragen kon nog niet worden beantwoord doordat de artikelen in de AI-verordening die daarover gaan, pas na de toets zijn besproken aan de hand van nieuwe voorstellen van het voorzitterschap, zoals de volgende:
Wat mag een middelgroot of klein bedrijf die doet aan bewaken en beveiligen met AI?
Een partij die namens een opdrachtgever persoonsgegevens bewerkt met behulp van AI, en die persoonsgegevens na bewerking moet vernietigen, hoe hangt dat samen met de verplichting van het bewaren van de logs? Hoe is hier de samenhang tussen de AIA en de GDPR?
Gaat de AI-verordening ook van toepassing zijn op reeds bestaande systemen? Antwoord: alleen als er sprake is van een substantiële wijziging.
Hoe is de situatie als een klant die het AI-systeem gebruikt je verwijt van het niet voldoen aan de vereisten van de AIA?
Wanneer een laboratorium biologisch materiaal verwerkt en analyseert met AI om bijvoorbeeld voedingsadviezen te geven, maar dit geheel anoniem doet, valt dat dan onder hoog risico?
Er zijn veel systemen die bijvoorbeeld libraries van onderliggende AI-systemen gebruiken. Dat zullen general purpose AI-systemen zijn. Wanneer een dergelijk AI systeem hoog risico is, moeten alle onderliggende systemen dan ook aan de eisen voldoen?
Uit het gesprek komt naar voren dat de voornaamste last voor het hele MKB zal zijn om te beoordelen welk risico verbonden is aan hun AI-product, d.w.z. de inspanning om te bepalen welke rol het bedrijf heeft in de context van de AI-verordening en of het AI-product een hoog-risico AI-systeem betreft of een andere categorie waar eisen aan verbonden zijn.