[overzicht] [activiteiten] [ongeplande activiteiten] [besluiten] [commissies] [geschenken] [kamerleden] [kamerstukdossiers] [🧑mijn] [open vragen]
[toezeggingen] [stemmingen] [verslagen] [🔍 uitgebreid zoeken] [wat is dit?]

Verslag van een hoorzitting, gehouden op 11 februari 2021, over de rol van socialmediaplatformen

Informatie- en communicatietechnologie (ICT)

Verslag van een hoorzitting / rondetafelgesprek

Nummer: 2022D09297, datum: 2022-03-09, bijgewerkt: 2024-02-19 10:56, versie: 3

Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (kst-26643-823).

Gerelateerde personen:

Onderdeel van kamerstukdossier 26643 -823 Informatie- en communicatietechnologie (ICT).

Onderdeel van zaak 2022Z04567:

Onderdeel van activiteiten:

Preview document (🔗 origineel)


Tweede Kamer der Staten-Generaal 2
Vergaderjaar 2021-2022

26 643 Informatie- en communicatietechnologie (ICT)

Nr. 823 VERSLAG VAN EEN HOORZITTING

Vastgesteld 9 maart 2022

De vaste commissie voor Digitale Zaken heeft op 11 februari 2022 gesprekken gevoerd over de rol van socialmediaplatformen.

Van deze gesprekken brengt de commissie bijgaand geredigeerd woordelijk verslag uit.

De voorzitter van de commissie,
Kamminga

De griffier van de commissie,
Boeve

Voorzitter: Azarkan

Griffier: Boeve

Aanwezig zijn zes leden der Kamer, te weten: Azarkan, Ceder, Van Ginneken, Koekkoek, Rajkowski en Van Weerdenburg,

alsmede de heer Haveman en de heer Pancini.

Aanvang 10.01 uur.

De voorzitter:

Ik heet u allen welkom bij deze hoorzitting van de vaste commissie voor Digitale Zaken over de rol van socialmediaplatformen. Deze hoorzitting bestaat uit twee delen van ieder 45 minuten. De centrale vraag luidt als volgt: welke rol speelt de werking van socialmediaplatformen bij maatschappelijke onrust, polarisatie, radicalisering, ontwrichting en andere onwenselijke impact op democratie en rechtsstaat?

Van de Kamer zijn aanwezig: mevrouw Van Ginniken namens D66, mevrouw Van Weerdenburg namens de PVV, mevrouw Rajkowski namens de VVD en mevrouw Koekkoek namens de Partij voor de Dieren...

Mevrouw Koekkoek (Volt):

Volt!

De voorzitter:

Sorry, namens Volt. Neem me niet kwalijk. Het zat heel dicht bij elkaar.

Ik verwacht nog een of twee collega's. Welkom ook aan de mensen die deze hoorzitting op afstand volgen. In het bijzonder heet ik welkom de heer Haveman. Hij gaat in het eerste blok met ons in gesprek namens Facebook, of de andere naam waaronder het bekend is, namelijk Meta, maar dat is volgens de mensen thuis denk ik nog niet helemaal duidelijk. Meneer Haveman is daar Head of Public Policy Nederland, België en Luxemburg.

Blok 1

Gesprek met:

– Edo Haveman, Meta

De voorzitter:

Welkom, meneer Haveman. U krijgt eerst de gelegenheid voor een kort openingsstatement van maximaal vijf minuten. Vervolgens zullen we starten met de inbreng van een aantal leden van de gezamenlijke voorbereidingsgroep. Daarna gaan we in op de vragen van individuele leden. Ik geef graag het woord aan u, meneer Haveman.

De heer Haveman:

Dank u wel.

Voorzitter, geachte Kamercommissie. Allereerst hartelijk dank voor de uitnodiging om hier te mogen spreken. Ik ben Edo Haveman, Hoofd Public Policy bij Meta voor de Benelux. Ik ben in die rol verantwoordelijk voor publiek beleid in Nederland, België en Luxemburg. Ik ga over de contacten over onze beleidskeuzes met politici, toezichthouders en beleidsmakers, en de lokale invulling van hoe wij onze verantwoordelijkheid nemen als bedrijf. Ik begin mijn introductie met enkele opmerkingen over het belang van veiligheid voor mijn bedrijf. Daarna zal ik in iets meer detail uitleggen wat onze benadering is op het gebied van veiligheid. Tot slot wil ik ingaan op de werking van ons rankingalgoritme.

Veiligheid en welzijn vormen de basis van ons bedrijf en liggen aan de grondslag van ons businessmodel. Als mensen zich niet veilig voelen, zullen ze ons platform niet gebruiken en niet terugkomen. Adverteerders willen niet dat hun merken en producten worden weergegeven naast extreme en hatelijke inhoud. Daar zijn ze altijd heel duidelijk over geweest. Met andere woorden, ons businessmodel is volledig in lijn met het nastreven van een prettig en veilig platform. We hebben bij Meta dan ook vele duizenden mensen werken aan veiligheid en beveiliging. We hebben daarin sinds 2016 13 miljard dollar geïnvesteerd. In 2021 gaat het alleen al om 5 miljard dollar. Laat me kort een toelichting geven op onze aanpak wat betreft veiligheid. Onze aanpak kent vijf pilaren: beleid, tools, materialen, samenwerkingen en feedback.

Allereerst beleid. We hebben beleid, bijvoorbeeld onze richtlijnen voor de community, onze huisregels, waarin we proberen een evenwicht te vinden tussen de volgende waarden: mensen een stem geven, authenticiteit, waardigheid, privacy en veiligheid. In deze richtlijnen staat exact beschreven wat wel en niet toegestaan is op Facebook. Het doel is dat mensen zich veilig voelen om te delen wat voor hen belangrijk is met familie en vrienden. Op basis van dit beleid verbieden we aanzetten tot haat of geweld, gevaarlijke organisaties en ook fraude, naakt of pesten.

Dan de tweede pilaar, tools. We hebben tools waarmee we ons beleid kunnen handhaven. Mensen kunnen berichten of reacties melden die mogelijk onze regels schenden, zodat we ernaar kunnen kijken. We gebruiken ook slimme technologie, kunstmatige intelligentie, om inhoud die mogelijk in strijd is met onze regels, te vinden nog voordat deze aan ons wordt gemeld. In ons transparantierapport maken we elk kwartaal bekend hoe goed dit gaat. Daarin staan het aantal berichten per categorie waarop actie is ondernomen, het percentage van de inhoud waarop actie is ondernomen dat we proactief hebben gevonden, het aantal bezwaarschriften, het aantal herstelde berichten en de prevalentie van specifieke inhoud, dus hoeveel inbreuk makende inhoud daadwerkelijk wordt gezien door gebruikers op ons platform. Onze tools werken, want het merendeel van de verwijderde inhoud wordt opgespoord door deze slimme systemen. De prevalentie daalt gestaag.

Dan de derde pilaar, materialen. Op ons platform, in ons Helpcentrum en Veiligheidscentrum, bieden we materialen om mensen te helpen begrijpen hoe onze tools werken en om hen te helpen met specifieke problemen.

Vier: samenwerkingen. We hebben samenwerkingsverbanden in veel landen, waaronder Nederland. In Nederland werken we met veiligheidsorganisaties als het EOKM, safetyNed en 113 Zelfmoordpreventie. We werken ook met Nederlandse factcheckers in dienst van AFP en DPA. We werken met toezichthouders, zoals de AFM, de NVWA en de Ksa, en overheidsorganisaties, zoals het Ministerie van Binnenlandse Zaken, bijvoorbeeld rondom de verkiezingen, de politie en inlichtingendienst AIVD.

Dan de vijfde pilaar, feedback. Via de genoemde organisaties, maar ook van academici, experts, mensen op ons platform en politici krijgen we voortdurend feedback om onze tools, systemen en diensten altijd te kunnen blijven verbeteren.

Deze aanpak onderstreept eigenlijk al waar ik mijn toelichting mee begon: veiligheid en welzijn vormen de kern van ons bedrijf en liggen ten grondslag aan het businessmodel. Dit werk stopt nooit en we zullen daarin blijven investeren, ook dit jaar weer.

Ik denk dat het nuttig is om even wat tijd te besteden aan ranking en hoe ons rankingalgoritme werkt, zodat dit helder is voordat we aan de vragen beginnen. De belangrijkste manier waarop mensen Facebook ervaren, is via hun nieuwsfeeds. Gemiddeld hebben mensen op elk willekeurig moment een paar duizend berichten beschikbaar in hun nieuwsoverzicht. Dat zijn de updates van hun vrienden, van de pagina's die ze volgen et cetera. Maar ze besteden slechts tijd aan het bekijken van zo'n 300 berichten. Het gepersonaliseerde proces dat we gebruiken om van de duizenden berichten te komen naar de berichten die je in je feed ziet, wordt «rangschikking» genoemd. Dat rangschikkend proces is ontworpen om het kerndoel van de nieuwsfeed te bereiken, namelijk mensen helpen berichten te vinden die het meest waardevol voor hen zijn. In lijn met wat ik eerder al stelde, zijn we er niet bij gebaat om mensen verontrustende inhoud te laten zien. Als mensen zich niet veilig voelen, zullen ze in de toekomst minder snel terugkeren en schieten we uiteindelijk onszelf in de voet.

Nog even de werking van nieuwsfeeds in detail. Er zijn vier componenten die belangrijk zijn voor de volgorde waarin je berichten te zien krijgt: inventaris, signalen, voorspellingen, score. Allereerst inventaris. Dat zijn eigenlijk alle potentiële berichten die je nog niet hebt gezien van vrienden, groepen en pagina's die je volgt. Dan signalen, voorspellingen en score. We hebben tienduizenden gepersonaliseerde signalen over de waarde van deze berichten en tientallen voorspellingen om de waarschijnlijkheid van een interactie te bepalen. Die samen leveren een score op voor elk bericht, elke keer dat je Facebook opent. Vervolgens maken we daar een eindscore van. Aanwijzingen dat inhoud op de een of andere manier problematisch zou kunnen zijn, leiden weer tot aftrek van de beginscore. Zodra deze integriteitsgerelateerde problemen zijn meegenomen, krijgt elk bericht een eindscore, elke keer dat je Facebook opent. Die eindscore bepaalt de volgorde van de berichten, want die worden op basis van de score op een logische volgorde gezet. Elke persoonlijke feed is daarmee uniek en voor iedereen anders. We werken voortdurend op basis van feedback om die rankingmechanismen te verbeteren. We gebruiken daarvoor input van externe experts, maar natuurlijk ook van de mensen die Facebook zelf gebruiken. Daarbij kunnen mensen er ook zelf voor kiezen om alsnog de feed chronologisch weer te geven.

Over deze aftrekmechanismen willen we open en transparant zijn. In onze communityrichtlijnen leggen wij uit wat we verwijderen, en bij het type inhoud dat we degraderen, leggen we uit welke zaken aftrek krijgen en daarom dus minder zichtbaar zijn op Facebook. Dat kan zijn omdat het problematisch is of anderszins van lage kwaliteit. Voorbeelden zijn clickbaitlinks, sensationele gezondheidsinhoud, commerciële gezondheidsberichten, nieuwsartikelen zonder transparant auteurschap, websites die in hun verkeer te afhankelijk zijn van Facebook, misinformatie en inhoud geplaatst door herhaaldelijke overtreders van ons beleid. Dit soort berichten zouden hogere scores kunnen krijgen dan wenselijk, maar krijgen dus aftrek om ervoor te zorgen dat mensen op ons platform waardevolle berichten te zien krijgen. Dus ook in onze ranking staan veiligheid en welzijn centraal.

Resumerend. Veiligheid en het bieden van een prettig platform zijn goed voor onze business en past binnen onze missie. Als mensen zich niet veilig voelen, zullen ze ons platform niet gebruiken. Adverteerders willen hun advertenties niet naast kwalijke berichten hebben staan. Ik hoop dat ik duidelijk heb kunnen maken dat veiligheid ten grondslag ligt aan dit alles.

Hartelijk dank en ik beantwoord graag uw vragen!

De voorzitter:

Dank, meneer Haveman, voor uw inleiding. Ik ga graag naar de Kamerleden voor hun vragen en geef als eerste het woord aan mevrouw Van Ginneken namens de voorbereidingsgroep.

Mevrouw Van Ginneken (D66):

Dank, voorzitter. Dank aan de heer Haveman voor het feit dat hij hier vandaag gekomen is. Ik ben heel blij dat we deze bijeenkomst houden. Zoals bekend maak ik me al tijden zorgen over de impact van socialmediabedrijven. Sinds de Facebookfiles van Haugen is dat er niet beter op geworden. Ik denk ook dat we daar met elkaar even goed naar moeten kijken vandaag. Hoe werkt Facebook polarisatie eventueel in de hand en wat doet Facebook eraan om dat weer te beperken?

Even over de voorbereidingsgroep. We willen in duo's een aantal onderwerpen behandelen, waarover we vragen hebben voorbereid. Het eerste duo is collega Van Weerdenburg en ik. Wij willen vooral stilstaan bij wat nou die impact op de samenleving is en wat uw beeld daarvan is.

Mevrouw Van Weerdenburg (PVV):

Meneer Haveman, er is natuurlijk best wel een golf van verontwaardiging ontstaan in de samenleving: uw platform zou onrust en polarisatie in de maatschappij aanwakkeren. Wij proberen hier dus uit te vinden of dat inderdaad zo is en of u inderdaad – zoals Facebookklokkenluider, mevrouw Haugen, die we gisteren gesproken hebben, zegt – extreme uitingen en extreme meningen een megafoon in handen geeft. De vraag is dus: klopt dat? Of is uw platform slechts een weerspiegeling van de samenleving? De wetenschappers die we gister aan tafel hadden, hebben gezegd: er is weinig tot geen wetenschappelijk bewijs dat er een causaliteit is tussen sociale media en polarisatie in de samenleving, maar dat komt ook omdat we eigenlijk geen goeie data hebben om te onderzoeken. Dat is ook wat mevrouw Haugen ons meegaf: geef maar eens aan waarom jullie niet meer data beschikbaar kunnen stellen, zodat we inderdaad kunnen zien dat waar we wellicht bang voor zijn, er helemaal niet is.

De voorzitter:

Meneer Haveman, uw reactie.

De heer Haveman:

Dank voor deze vragen; ik denk dat een meervoud wel op z'n plek is. Ik probeer alle losse elementen een plek te geven in mijn antwoord, maar laat het me vooral weten als ik onverhoopt een element vergeet in mijn beantwoording. Ik denk dat ik in mijn introductie genoeg heb stilgestaan bij het belang van waardevolle, positieve content voor ons platform. Ik heb geprobeerd duidelijk te maken dat er geen belang is voor ons om mensen heftige of extreme content voor te schotelen, omdat dit mensen enkel afschrikt en in ieder geval op de langere termijn zorgt dat mensen niet meer terugkomen. Als mensen boos, opgewonden of verdrietig worden, is dat een negatieve ervaring. Negatieve ervaringen leiden ertoe dat mensen niet terugkomen naar onze platformen en dat we helemaal geen business hebben. Datzelfde geldt voor de andere kant, als je vanuit het commerciële model, het businessmodel redeneert. Ik spreek regelmatig met grote adverteerders in Nederland. Zij geven dezelfde signalen. Zij doen dat ook regelmatig publiek. Zij willen niet dat hun merken, hun advertenties naast kwalijke, kwetsende, haatdragende of opruiende inhoud komen. Daar hebben ze groot gelijk in.

Dan een paar stapjes naar achter als het gaat om polarisatie. Ik denk dat we allemaal zien dat de maatschappij verdeeld is. Dat geldt in sommige landen misschien nog wel meer dan in Nederland. Er is sprake van verdeeldheid. Dat vindt logischerwijs ook zijn weerspiegeling in het online discours. Wij zijn deel van de onlinewereld. De gesprekken die op onze platformen plaatsvinden, zijn veelal positief en prettig. Mensen delen positief nieuws met elkaar of vinden elkaar rond gemeenschappelijke zaken, uiteenlopend van tuinieren en hardlopen tot bakken en recente babyfoto's. Maar ja, daar vinden ook onprettige gesprekken plaats. Dat is niet meer dan logisch, maar het betekent wel dat wij een heel grote verantwoordelijkheid hebben om daar streng tegen op te treden. Daarom hebben we richtlijnen voor de community, onze community standards, die een grens trekken tussen wat wel en niet is toegestaan. Expliciet oproepen tot haat, discriminatie, pesten en misinformatie delen die tot geweld zou kunnen leiden, zijn verboden. Op het moment dat wij die zaken op het spoor komen, dan wel doordat mensen die aan ons rapporteren, dan wel doordat we ze zelf vinden door slimme technologie, zullen we die neerhalen. Wij remmen ook content af op het moment dat die een negatieve invloed op de ervaring, en daarmee dus ook op de maatschappij, zou kunnen hebben. Dat doen wij ook omdat het in ons belang is.

Zal ik doorgaan over data delen? Want ik zie dat mevrouw Van Ginneken misschien een vraag wil stellen.

Mevrouw Van Ginneken (D66):

Dat heeft u goed gezien. In de introductie heb ik het net niet zo expliciet aangestipt, maar we hadden met elkaar afgesproken dat wij als vragenstellers eventueel zouden interrumperen, om een beetje vaart en verdieping in het gesprek te kunnen krijgen. U heeft goed gezien dat ik dat van plan was te doen.

De heer Haveman:

Ik ben hier ook om uw vragen te beantwoorden.

Mevrouw Van Ginneken (D66):

Jazeker, en daar ben ik heel blij mee. U schetst dat u een platform wil dat iedereen een prettige ervaring biedt. Maar tegelijkertijd waarschuwen de AIVD en de NCTV voor de radicalisering van jongeren op socialmediaplatforms, ook uw platform. We weten uit publicaties in The Wall Street Journal dat meer dan 60% van de mensen die lid worden van een extremistische groep op Facebook, dat doen nadat zij daartoe een aanbeveling hebben gekregen van jullie rankingalgoritme. Er komt daarom een vraag bij me op. U beschrijft allerlei maatregelen die u neemt om effecten te dempen, maar tegelijkertijd zien we dat de kern van het platform die negatieve effecten juist heel erg in de hand werkt. Frances Haugen schetst daar heel veel voorbeelden van in de Facebook Files die ze bekend heeft gemaakt. Voor mij voelt dit dus een beetje dubbel. Mijn vraag is: erkent Facebook de rol die het heeft in het versterken van radicalisering en polarisatie, of niet?

De heer Haveman:

Nee, ik herken niet het soms geschetste beeld dat sociale media als die van Meta een versterkend effect zouden hebben op radicalisering. Er zijn net een aantal dingen gewisseld over de samenhang tussen polarisatie en sociale media. Er werd ook verwezen naar een aantal quotes van gisteren. Ik zou het nog wat sterker willen aanzetten: het verband dat wordt gesuggereerd dat sociale media leiden tot polarisatie – ik heb het mevrouw Van Ginneken een aantal keer horen zeggen – is niet wat de wetenschap zegt. Ik heb daar ook nog wat zaken op nageplozen. Ik zag ook de positionpaper van Rathenau, waarin ook weer wordt verwezen naar wetenschappelijke bronnen die dit verband niet zien. Ik denk dat er allerlei voorbeelden zijn van landen waar de polarisatie allang toenam voor er sociale media waren, laat staan Facebook, en dat er ook heel veel landen zijn waar Facebook enorm groeit, maar de polarisatie het afgelopen decennium aan het afnemen is geweest. Ik vind het dus moeilijk dat daar zo'n duidelijk verband tussen wordt gelegd. Er is heel veel wetenschappelijk onderzoek gedaan, ook vanuit Nederland. Ik kwam een tijdje terug ook nog een artikel tegen van een Zweedse dame, Maria Nordbrandt. Zij heeft ook op basis van Nederlandse data onderzoek gedaan en vond juist een soort van omgekeerd verband: toegenomen polarisatie leidt tot meer socialemediagebruik. Het is dus belangrijk om echt wel te bekijken wat het onderzoek zegt en wat de effecten zijn.

Mevrouw Van Weerdenburg (PVV):

Het klopt wat de heer Haveman zegt. Aan de andere kant: de onderzoekers van het Rathenau constateren tegelijkertijd dat er ook gewoon heel erg weinig data is om te onderzoeken of die causaliteit er is. Kan het zijn dat die door de wetenschap tot nu toe niet of amper gevonden is omdat er gewoon te weinig data is, en zou Meta niet meer data kunnen verstrekken?

De heer Haveman:

Dat zijn twee losse vragen. Ik denk dat het aan de wetenschappers is om te concluderen of het logisch is dat die data er niet zijn en of die verbanden daarmee niet te beoordelen zijn. Ik kan me voorstellen dat het voor dat soort macroprocessen niet per se nodig is, maar goed, ik ben geen wetenschapper. Dat laat ik dus aan het Rathenau. Dan datadelen. De interactie met de wetenschap is heel belangrijk. Wij proberen heel transparant te zijn in de dingen die wij doen op ons platform, bijvoorbeeld door mensen mee te nemen in wat ons rankingalgoritme doet en door te laten zien waarom ze bepaalde content op bepaalde momenten zien. Je kunt op Facebook bij elk bericht klikken op «waarom zie ik dit bericht?» Dan krijg je iets van duiding over waarom je dat nu daar ziet. Daarnaast hebben wij elk kwartaal een rapportage ...

Mevrouw Van Ginneken (D66):

Mag ik u heel even onderbreken, meneer Haveman?

De heer Haveman:

Natuurlijk.

Mevrouw Van Ginneken (D66):

U schetst allerlei maatregelen die u neemt om effecten te beperken, maar ik ben toch nog een beetje blijven hangen bij de onthutsende conclusie dat u denkt dat uw platform geen actieve rol speelt in radicalisering of polarisatie. Nogmaals, als 60% van de mensen die lid worden van een extremistische Facebookgroep dat doet na een actieve aanbeveling van het platform zelf, dan is dat toch een niet te ontkennen effect? 80% van de desinformatie die rondzwerft op het platform, komt vanwege het rankingalgoritme dat u net beschreef, terecht bij de 4% van de mensen die daar het meest kwetsbaar voor is. Dat is een groep die ook het meest geneigd is om tot acties in de fysieke ruimte over te gaan. U kunt dan toch niet ontkennen dat u, naast alles wat u probeert om het te beperken, ook een negatieve impact heeft op het gebied van polarisatie in onze samenleving?

De heer Haveman:

Ik ken de cijfers niet die mevrouw Van Ginneken aanhaalt, dus ik kan niet gelijk zeggen of het 5%, 10% of 3% moet zijn en of het lager of hoger is. Ik ben wel bekend met de maatregelen die wij nemen. Ik vertaal het even naar de Nederlandse situatie. Nederland heeft een turbulent jaar gehad. Een van de dingen die ik mij vanuit mijn rol bij Meta goed herinner, waren de avondklokrellen van begin vorig jaar, of hoe je ze ook zou willen noemen. Dat was een moment waarop wij vanuit Meta heel waakzaam waren over wat er op ons platform plaatsvindt. Wij wilden en willen daar namelijk geen negatieve rol in spelen. Dan zijn we waakzaam en proberen we met de relevante teams alert te zijn ... Is het goed dat ik even mijn zin afmaak?

De voorzitter:

Als u uw laatste zin echt even afmaakt, maar probeer ...

De heer Haveman:

Toen heb ik ook zelf een aantal berichten gezien waarin een aantal van de oproerkaaiers zelf zei: «Jongens, we moeten niet op Facebook zitten, want hier worden we continu afgegooid. Kom mee naar deze Telegramgroep, want daar kunnen we wel open en bloot communiceren.» Ik denk dus dat we wel onderscheid moeten maken tussen verschillende soorten sociale media. In ieder geval probeert ons platform een vijandige omgeving te creëren voor oproer en polarisatie, omdat we dat op ons platform gewoon niet willen hebben.

Mevrouw Van Ginneken (D66):

Het valt me heel erg op dat u zegt: we hebben rondom rellen in Nederland de boel een beetje in de gaten gehouden om te kijken of het niet uit de hand zou lopen. U heeft dat ook eerder gedaan rondom de bestorming van het Capitool in Amerika. Daar heeft u de zogenoemde breakglassfunctie gebruikt, zoals die in de wetenschap heet. Als de polarisatie en de snelheid waarmee extreme content gedeeld wordt te gortig worden, heeft u kennelijk een rem, een knop waaraan u kunt draaien: doe het allemaal maar een tandje minder want anders gaat het uit de hand lopen. Dat vind ik een heel ongemakkelijk idee. Ik probeer me voor te stellen welke vergadering er dan plaatsvindt bij Facebook waarin mensen met elkaar uitwisselen dat er zo veel maatschappelijke onrust is dat er aan de knop gedraaid moet worden, omdat het bepaalde effecten heeft op het gebruik van de platformen en het verdienmodel. Waarom staat die knop niet altijd op het maximaal dempen van polarisatie?

De heer Haveman:

Ik kan niet helemaal mee in het beeld dat mevrouw Van Ginneken nu schetst. Wij proberen altijd een veilig platform te zijn en altijd zaken als polarisatie tegen te gaan. Tegelijkertijd zien we dat er in de maatschappij processen gaande zijn. Ik denk dat het voorbeeld dat ik uit Nederland aanhaalde, een proces is dat autonoom verloopt. Wij kijken of we als platform daar een verantwoorde rol in spelen. Wij doen wat we kunnen om het tegen te gaan, en dat doen wij vervolgens.

De voorzitter:

Ik denk dat we overgaan naar het volgende blokje. Mevrouw Rajkowski.

Mevrouw Rajkowski (VVD):

Dank, voorzitter. Ik wil specifiek doorgaan op Facebookgroepen. Facebookgroepen worden steeds populairder. Er zitten heel veel mensen in. Ze hebben ook zeker heel veel voordelen. Dat wil ik nog even hier gezegd hebben. Lotgenoten kunnen elkaar vinden en in gesprek gaan over allerlei onderwerpen. Maar we zien ook de negatieve kanten ervan. Er kunnen heel veel mensen in één groep zitten. Zo'n groep kan functioneren als een soort echokamer, waardoor iedereen die erin zit denkt: wat ik vind, vindt eigenlijk iedereen en hier moeten we toch echt wat tegen gaan doen. Ik heb als gemeenteraadslid in Utrecht gezien hoe snel het kan gaan als sociale media gebruikt worden, niet alleen Facebook maar ook andere platformen, om bijvoorbeeld rellen te organiseren. Zo is Kanaleneiland in Utrecht op een gegeven moment door 300 jongeren op z'n kop gezet – vooral door jongeren van buiten Utrecht, wil ik er nog even bij gezegd hebben. Daar zit onze zorg: wat doen dit soort Facebookgroepen en wat betekent dat voor de onrust op straat? Experts en deskundigen zeggen ook dat groepsberichten geprioriteerd worden in een Facebooktijdlijn ten opzichte van berichten van buiten de groep. Je kan tot 2.200 mensen per dag uitnodigen in zo'n groep, dus je hebt zo een bereik van een half miljoen mensen. Stel dat ik ben aangesteld om een Russische desinformatiecampagne op te zetten, dat ik daarvoor een team heb en dat ik snel succesvol wil zijn. Klopt het dan dat het voor mij slimmer zou zijn om een Facebookgroep aan te maken en daar mijn desinformatie in te verspreiden, dan dat ik een-op-een berichten naar allemaal mensen ga versturen.

De heer Haveman:

Even denken. Het is een als-dansituatie. Ik denk dat je theoretisch gezien sneller berichten verspreidt in een groep dan een-op-een. Maar ook als je tien mensen tegelijk aanspreekt, gaat dat sneller dan wanneer je één mens tegelijk persoonlijk aanspreekt. Dat betekent dus ook dat wij een grotere verantwoordelijkheid hebben. Specifiek als het bijvoorbeeld gaat om buitenlandse inmenging zijn we heel strikt. We hebben daar aanvullende maatregelen en aanvullende teams voor, die specifiek boven op wat wij coordinated inauthentic behavior noemen, zitten. Tegen dat gecoördineerde inauthentieke gedrag hebben wij tools en teams gemaakt, die kunnen zien of dat plaatsvindt. Het gaat daarbij om derden uit een ander land, dan wel hetzelfde land, die zich voordoen als specifieke groepen en die informatie verspreiden, die mogelijk zelfs correct is maar in ieder geval opruiend zou kunnen zijn. Daarop kunnen wij dan ingrijpen. Dat zijn zaken die gebeuren. Wij proberen daar ook publiek over te rapporten. Dat doen wij elke maand in ons Coordinated Inauthentic Behavior Report. Elke maand publiceren we daarin welke varianten van buitenlandse inmenging wij neerhalen.

Mevrouw Rajkowski (VVD):

Dank, meneer Haveman. Ik weet dat, want ik heb veel van jullie rapporten gezien en jullie communiceren daar veel over. Mijn vraag ging over de prioritering. Klopt het dat berichten uit groepen voorrang krijgen in de rangorde in een tijdlijn? Speelt die prioritering er dus een rol in? Ik heb van experts en deskundigen begrepen dat 60% van de berichten die wij in onze Facebooktijdlijn zien, uit groepen afkomstig is, vanwege onder andere de prioritering.

De voorzitter:

Meneer Haveman, klopt dat?

De heer Haveman:

Nu snap ik uw vraag beter, dank u wel. Dat is natuurlijk persoonlijk. Iedereen heeft een gepersonaliseerde nieuwsfeed. Als jij besluit om een bepaalde groep te volgen, dan krijg je berichten van die groep te zien. Als je veel met die groep interacteert, dan neemt de waarschijnlijkheid toe, denk ik, dat berichten van die groep hoger in jouw tijdlijnen komen. Als je veel interacteert met familie of vrienden, zullen die berichten ook hoger in jouw tijdlijnen komen. Maar goed, dat zijn allemaal losse elementen die bijdragen aan die waarschijnlijkheid. Ik kan dus niet zeggen: het is voor altijd en voor iedereen zo. Dat is natuurlijk het hele punt van personalisatie.

Wat ik ook belangrijk vind om te noemen, is dat we bijvoorbeeld ook de aftrekmechanismen hebben. Op het moment dat content wordt gedeeld die niet voldoet aan onze richtlijnen of een optelling is van onze degradatierichtlijnen, dan komt die alsnog weer lager te staan. Als een groep bijvoorbeeld meerdere keren misinformatie plaatst of informatie plaatst die door onze factchecker is geclassificeerd als misinformatie, dan zal die groep blijvend aftrek krijgen. Er zijn dus mechanismen waardoor je inderdaad van groepen meer ziet, maar er zijn ook mechanismen waardoor je van groepen minder ziet.

Mevrouw Van Ginneken (D66):

Meneer Haveman, mag ik u heel even onderbreken, want het gebeurt me weer dat mij dat triggert. U spreekt over «aftrek». U noemde dat ook in uw introductie. Maar we weten ook dat naast die aftrek, een reactie op een post in de vorm van een duimpje omhoog vijf keer minder snel verspreid wordt dan een boze reactie op een post, dus een reactie met een roodgloeiend emoticon. Frances Haugen heeft dat hier gisteren nog nadrukkelijk uitgesproken, maar we hadden het al kunnen lezen in de Facebook Files die in oktober openbaar werden gemaakt. Dat vind ik bijna schizofreen aan het verhaal dat ik hier steeds hoor. In de kern werkt het platform polarisatie in de hand, maar daarnaast heeft u allerlei maatregelen, die u ook uitgebreid wil beschrijven, die dat effect moeten dempen. Dat voelt voor mij alsof u zegt «o, ik heb hier een doosje pleisters», terwijl wij denken «er is een slagaderlijke bloeding». Die passen niet op elkaar. Gisteren hebben wij het ook aan de experts gevraagd: kan de kern van zo'n platform, kan de kern van een Facebookplatform, niet fundamenteel anders ingericht worden zodat het neutraal is en niet alleen de extreme content voorrang geeft, terwijl we dan toch nog een gezellig socialmediaplatform hebben? Het antwoord was: ja. Frances Haugen heeft een aantal concrete, specifieke technieken genoemd waar jullie voor hadden kunnen kiezen. Jullie weten al jaren dat de keuzes die jullie gemaakt hebben in de techniek en het verdienmodel, deze negatieve effecten in de samenleving in de hand werken. En wij weten het, dankzij Frances Haugen, sinds oktober ook. De essentiële vraag die wat mij betreft hier vandaag op tafel ligt, is: waarom kiest Facebook ervoor om dat verdienmodel en de werking van het platform overeind te houden, wetende dat Facebook deze negatieve effecten in de samenleving kan wegnemen door andere technische en commerciële keuzes te maken?

De voorzitter:

Meneer Haveman, dat was een lange inleiding, met een goed antwoord van u?

De heer Haveman:

Nou ja, ik ga niet mee in die karakterschets. Ik ga niet mee in de suggestie dat de mechanismen bij ons zo werken dat ze die effecten hebben. Wij zijn continu bezig om algoritmen en andere mechanismes zo in te richten dat mensen een positieve, waardevolle ervaring hebben. En dat moeten we wel doen, want anders zouden we binnen no time out of business zijn. Dan zouden we niet meer bestaan als bedrijf. Ik snap dat u specifieke zorgen heeft, maar de karakterschets dat de mechanismen helemaal verkeerd zouden staan, herken ik niet.

Mevrouw Van Ginneken (D66):

Zegt u dan dat mevrouw Haugen fout zit? Zegt u dat zij liegt?

De heer Haveman:

Ik heb niet de specifieke quote voor ogen waar u naar verwijst. Ik denk dat allerlei elementen in ons rankingmechanisme een rol spelen. We proberen dat continu zo bij te stellen dat mensen een positieve ervaring hebben. Maar misschien mag ik het iets concreter maken met, weer, een voorbeeld, op het gevaar af dat het eventjes tijd kost. Er zijn natuurlijk heel veel reacties mogelijk op Facebookberichten: je hebt commentaar, je hebt inderdaad de like en je hebt een aantal verschillende emoticons, emoji's, waarmee je kunt reageren. Ik kan me nog herinneren dat ik een paar jaar terug op een gegeven moment een ngo aan de telefoon had. Zij zeiden: «We plaatsen regelmatig nieuwsberichten uit andere delen van de wereld die best wel heel verdrietig en schokkend zijn. Mensen plaatsen daar over het algemeen negatieve emoji's bij, want het zijn ook gewoon nare dingen. Maar we willen niet dat we nou overal heel laag in tijdlijnen komen, want het is juist van belang dat de mensen dit zien.» Nou ja, dat is zo'n voorbeeld dat misschien minder straightforward is dan wat mevrouw Van Ginneken hier aanhaalt, maar dat ook aangeeft dat heel veel dingen in balans gebracht moeten worden. Voor ons is het dan de puzzel om ervoor te zorgen dat waardevolle berichten bovenaan komen. En daar zullen we elke dag naar blijven streven.

De voorzitter:

Dank. Ik ga eerst naar mevrouw Van Weerdenburg, dan naar mevrouw Rajkowski en dan naar mevrouw Koekkoek.

Mevrouw Van Weerdenburg (PVV):

Ik ga hier misschien even tussenin zitten, want er lijkt een misverstand te zijn of een difference of opinion. U zegt: wij nemen vooral als maatstaf dat mensen een prettige ervaring hebben op ons platform en zolang ze blijven komen, is dat zo. Kan het zo zijn dat heel veel mensen uw platform juist gebruiken om terug te rage-tweeten of om...? Nou ja, om wat mevrouw Haugen rage-clicking noemde. Mensen willen dan gewoon eventjes tien minuten schreeuwen op Facebook, dan zij ze het kwijt en gaan ze lekker weer door met de dingen die ze voor die dag gepland hebben. Kan het zijn dat mensen uw platform juist daarvoor gebruiken en dat fijn vinden? Kan het dus zijn dat ze daardoor een prettige ervaring hebben? Zo ja, dan is dat misschien ook wel een soort goede ventielfunctie.

De heer Haveman:

Nee, bij mijn beste weten is het over-, over-, over-, overgrote deel van de content op Facebook prettige, vriendelijke, gezellige, warme, waardevolle content.

Mevrouw Rajkowski (VVD):

Dank voor de beantwoording. Mijn levenshouding is in die zin: ik geloof er niet in dat bij Facebook allemaal mensen werken die denken «het is negen uur, de dag begint en wij gaan even lekker zorgen dat er overal gepolariseerd wordt», et cetera. Dus op die manier kijk ik er ook niet naar. Ik denk niet dat er vervelende mensen bij Facebook werken die dit graag willen veroorzaken in landen, et cetera. Maar ik zie wel hoe snel het bedrijf is gegroeid en welke rol bedrijven als Facebook uiteindelijk spelen in onze samenleving. Het is gewoon de openbare publieke ruimte. Dat is het gewoon! En daar komt gewoon een bepaalde verantwoordelijkheid bij kijken.

In het begin hoorde ik u zeggen: expliciete oproepen tot haat willen we niet en die halen we dan ook neer waar dat kan. Gisteren gaf Frances Haugen aan in het gesprek met ons: oké, maar onze technieken, onze algoritmen en onze AI zijn ook überhaupt nog niet sterk genoeg om dit allemaal goed op te kunnen sporen, ook omdat taal gewoon heel lastig te begrijpen is. Soms zijn het hele, hele fijne dingen en zover is die techniek nog niet. Daar gaat mijn vraag over. Aan de ene kant denk ik: oké, als ik een advertentie krijg, lukt het om die supergepersonaliseerd weer te geven. Dus ik krijg bijvoorbeeld schoenen in beeld en dan denk ik: hé, ik wist nog helemaal niet dat ik die wilde en dat ik die nodig had. Dat is dan weer fijn, maar aan de andere kant lukt het dan weer niet om hele, hele zware dingen als datingfraude en orgaanhandel in andere landen ervanaf te halen. Dus mijn vraag is: zijn jullie dan te snel gegroeid? Doen jullie wel genoeg? Of kunnen jullie het gewoon nog niet?

De heer Haveman:

Dank voor deze vraag. Misschien is het allereerst goed om te beginnen met de opmerking dat ik dat stukje van mevrouw Haugen ook gezien heb. Het percentage dat ze noemde over onze AI – onze artificial intelligence, de kunstmatige intelligentie die achter hatespeech aan zit – sloeg echt specifiek op hatespeech die louter en alleen door AI was gevonden en neergehaald. Dat zijn gelukkig niet al onze systemen, want we hebben 40.000 mensen aan de achterkant die werken aan veiligheid en beveiliging. Als het specifiek om hatespeech gaat, is het verder heel belangrijk om toch ook niet alleen te kijken naar de output maar ook naar de outcome. Wat is de situatie waar je bent?

Ik noemde in mijn inleiding heel kort wat wij meten met prevalentie. Dus hoeveel van de eventueel kwalijke content wordt alsnog gezien op je platform, ondanks al je maatregelen? Dat is immers wat je wilt weten en dat is misschien ook nog een vervolgantwoord op de eerdere vraag van mevrouw Van Weerdenburg over wat mensen eigenlijk zien op het platform en wat er nou echt gebeurt op ons platform. In onze kwartaalrapportages van het Community Standards Enforcement Report geven we ook prevalentiegetallen. Daarvoor doen we steekproeven op ons eigen platform van bepaalde categorieën. Dat zijn bijvoorbeeld hatespeech, terrorismecontent en onlinekindermisbruik; het gaat dan om dit soort verschrikkelijke zaken.

Over hatespeech, zeer belangrijk in deze context, hebben we in het derde kwartaal van 2021 gerapporteerd dat de prevalentie in een halfjaar is gehalveerd naar 0,03%. Van de 10.000 berichten op Facebook die mensen zien, bevatten er dus drie mogelijk hatespeech. Het gaat dan dus niet om de berichten die er zijn, maar om de berichten die mensen daadwerkelijk zien, de views. Een halfjaar eerder waren dat er nog zes en we hebben dat door middel van AI en door zelf scherp te modereren, kunnen halveren. Volgens mij kunnen we daaraan zien dat er zeker positieve vooruitgang is.

De voorzitter:

Dank. Dan de laatste vraag in het blok, mevrouw Koekkoek.

Mevrouw Koekkoek (Volt):

Ik heb heel goed geluisterd naar de eerdere vragen en uitleggen. Waar we nu mee worstelen, is volgens mij niet nieuw. Al jarenlang zijn er producten die anders bedoeld zijn en toch op een bepaalde manier impact hebben op de samenleving. Ik denk bijvoorbeeld aan de supermarkt. De meerderheid van wat er ligt in de supermarkt, is hartstikke gezond en goed voor je en heb je nodig om te overleven, maar we weten ook dat als er snoep of sigaretten bij de kassa liggen, mensen die eerder kopen, waar de samenleving last van heeft en wat een impact heeft. Hetzelfde verhaal geldt hiervoor. Het merendeel is allemaal hartstikke aardig maar dat geldt absoluut niet voor een klein percentage, dat wel impact heeft op de samenleving. Als het bij die supermarkt misgaat, hebben we ook nog de politie en de samenleving die er iets van vinden en een overheid die kan reguleren, bijvoorbeeld door snoep in minder kleurrijke verpakkingen ergens anders te leggen. Dat is het geval van Meta echter niet zo. Ik heb goed naar uw inleiding geluisterd. Experts worden geconsulteerd door Meta. De beveiliging zit bij Meta. Mijn vraag is de volgende. Vindt u ook niet dat gezien de impact op de samenleving, bepaalde informatie die nodig is om wat betreft de beveiliging dat kleine stukje eruit te halen, juist bij de samenleving zou moeten liggen? Zouden we bijvoorbeeld niet de code voor de aanbevelingsalgoritmes openbaar moeten maken, zodat de samenleving die uiteindelijk met de impact wordt geconfronteerd, ook mee kan kijken en mee kan beveiligen?

De heer Haveman:

Dank voor deze vraag, mevrouw Koekkoek. Er spelen heel veel algoritmes een rol om een veilige situatie op ons platform te creëren. Er zijn algoritmes die kunnen helpen om een kwalijke content weg te halen of die lager te zetten en om ook de ranking te bepalen. Dat zijn optelsommen, waarvan ik niet weet of dat makkelijk is om dat publiek neer te zetten en hoe dat het verder brengt.

Mevrouw Koekkoek (Volt):

Voordat we het te breed gaan trekken; ik blijf even bij de analogie met de supermarkt omdat die volgens mij makkelijk te volgen is. Ik zeg ook niet dat je alle marketingstrategieën openbaar moet maken. Het gaat mij om het kleinere percentage dat niet opgespoord kan worden en waar we geen grip op hebben, maar dat zeker wel impact heeft op de democratische rechtsorde in onze samenleving. Zouden we dat niet openbaar moeten maken of desnoods alleen moeten delen met wetenschappers en onderzoekers, in ieder geval met externen? Want op dit moment vindt de enige check die gedaan wordt, intern plaats. Dus degene die ervan profiteert, checkt ook. En dat doen we normaliter eigenlijk nooit in de samenleving.

De heer Haveman:

Dat delen van data met wetenschappers is een vrij fundamenteel punt. Daar zijn we hard mee bezig. We kennen FORT, Facebook Open Resource and Transparency, via welke we een aantal datasets nu al ter beschikking stellen als het gaat om democratie en verkiezingen. Dat betreft ook veel initiatieven met wetenschappers in Amerika. Het probleem met het nu al delen van data is dat de huidige GDPR/AVG, de combinatie van hoe toezichthouders zijn geconstelleerd, helaas nu niet de juridische duidelijkheid biedt aan ons om die data compliant, consistent en schaalbaar te delen, omdat het persoonsgegevens zijn. Dat is echt een fundamenteler probleem. We zien dit belang wel en we willen dit ook. Daarom zijn we ook bezig in een werkgroep van EDMO, de European Digital Media Observatory, en academici om te kijken of we binnen GDPR tot een artikel 40-code kunnen komen om een framework te creëren om wel eerlijk, doordacht en ethisch een systeem te hebben waarbij we die data actief met academici kunnen delen. De DSA kan daar ook een heel goede rol in spelen door de wettelijke grondslag te organiseren. Maar op het moment is de wet niet goed georganiseerd om de data te delen op een manier zoals we dat graag zouden willen doen om het onderzoek mogelijk te maken. Tegelijkertijd gebeurt er heel veel onderzoek naar ons en brengen we zelf ook peerreviewed papers naar buiten die wel die double check kennen, maar dit is een fundamenteel issue waar we zelf hard mee bezig zijn maar waarbij ook echt hulp van de politiek nodig is.

De voorzitter:

Tot slot zou ik zelf ook nog een vraag willen stellen. Ik merk dat er een groot verschil is tussen enerzijds hoe u aankijkt tegen alles wat uw organisatie wil doen om de veiligheid van de samenleving te vergroten en de negatieve invloed te beperken, en anderzijds de signalen die wij hebben. Dat is natuurkijk heel moeilijk vast te stellen. Zou u als organisatie bereid zijn om mee te werken op het moment dat er een commissie wordt ingesteld die maximaal toegang heeft tot uw organisaties om te kijken hoe dat echt werkt?

De heer Haveman:

Dan moet ik eerst de exacte implicaties weten, omdat wij in heel veel landen opereren en we ook te maken hebben met de wetgeving in die landen. Er zijn heel veel beelden over ons platform. Ik hoorde gisteren nog een aantal beelden, ook wel heftige beelden over hoe slecht Instagram voor de jeugd zou zijn. Als je het gesprek daarover voert met wetenschappers ... Nederland heeft ook een aantal echt vermaarde wetenschappers als het gaat over de ontwikkeling van jeugd. Als je het gesprek daarover voert met wetenschappers in Amsterdam en Rotterdam, dan blijkt dat beeld echt anders en een heel stuk positiever te zijn.

De voorzitter:

Maar dan zou het toch goed zijn als een commissie van deskundigen maximale transparantie krijgt van Meta en Facebook? Dan zou de tweede oproep zijn om niet alleen de data te delen die u wilt delen maar ook de data waarom wetenschappers vragen. Bent u bereid om daaraan mee te werken?

De heer Haveman:

Ik zei net al dat we niet zomaar persoonsgegevens kunnen delen om goede redenen, om goede wettelijke redenen, en dat we samen met de wetenschap bezig zijn om die kaders daarvoor te maken. Daar ben ik persoonlijk heel blij mee, want is het is superbelangrijk om op die manier dat gesprek te kunnen voeren. Vervolgens denk ik dat een bredere dialoog over wat er gaande is in de samenleving, welke rol sociale media daarin spelen en het daarnaar onderzoek doen, zeer waardevol is.

De voorzitter:

Meneer Haveman, dank voor uw statement en uw uitgebreide beantwoording. Hiermee zijn we aan het eind gekomen van het eerste blok. We schorsen tot 11.00 uur en dan gaan we na de schorsing verder met het tweede blok over Google.

De vergadering wordt van 10.46 uur tot 11.00 uur geschorst.

Blok 2

Gesprek met:

– Marco Pancini, Google

De voorzitter:

Aan de orde is de hoorzitting over de werking van socialemediaplatforms en maatschappelijke organisaties als het gaat om polarisatie, radicalisering, ontwrichting en andere onwenselijke impact op democratie en de rechtsstaat. We zijn aangekomen bij het tweede blok. Ik stel de Kamerleden aan u voor. Mevrouw Van Ginneken van D66, mevrouw Van Weerdenburg van de PVV, mevrouw Rajkowski van de VVD en mevrouw Koekkoek van Volt. In het bijzonder heet ik Marco Pancini welkom. Ik ga over naar het Engels nu.

Good morning to Mr Pancini, who joins us via a video connection. Thank you for joining us in this hearing and for the opportunity to discuss the role of social media platforms. Before we start, I would like to introduce the Members of Parliament to you. Ms Van Ginneken from Democrats 66, Ms Van Weerdenburg from the Party for Freedom, Ms Rajkowski from the People's Party for Freedom and Democracy and Ms Koekkoek from the party European Volt. Thank you again, Mr Pancini. I would like to start by giving you the opportunity for an opening statement of five minutes. Afterwards, I would like to ask my fellow members of Parliament to ask you several questions and for you to answer.

Mr Pancini, the floor is yours.

De heer Pancini:

Thank you, Mr Chairman, for having me here today. Dear members of the Digital Affairs Committee, I am honoured to be here. My name is Marco Pancini and I lead the YouTube Government Affairs and Public Policy for Europe. I am honoured to be here with you today and to discuss these important topics.

Over the past eighteen months, we have all used digital services more than ever before. Over half of the world is now online, with our use of technology leaping forward five to ten years in as many months. At YouTube, our mission is to give everyone a voice and show them the world. We believe that everyone deserves to have a voice and that the world is a better place when we listen, share and build the community through our stories. In support of this mission, four freedoms comprise the foundation of our philosophy.

Firstly: freedom of expression. We believe people should be able to speak freely, share opinions, and foster an open dialogue. We believe that creative freedom leads to new voices, formats and possibilities. Secondly: freedom of information. We believe everyone should have easy open access to information and that video is a powerful force for education, building understanding and documenting world events, big and small. Thirdly: freedom of opportunity. We believe everyone should have a chance to be discovered, build a business and succeed on their own terms, and that people, not gatekeepers, decide what is popular. And lastly: freedom to belong. We believe everyone should be able to find communities of support, break down barriers, transcend borders and come together around shared interests and passions.

Over the years, we have seen more and more people come to YouTube to share their experiences and understand their world more deeply. This is especially true when it comes to learning new skills or participating in civic engagement and developing informed opinions about current events. With so many users around the world that are looking at YouTube for information, we have a responsibility to provide a quality experience and to support informed citizenry. Over the past several years, responsibility has been a critical area of investment across our company. We have focused extensively on developing policies and building product solutions with regard to these possibilities, while preserving the opportunity of an open platform. Our approach to responsibility consists of four pillars. The first pillar: we remove content that violates our policies as quickly as possible. We set the responsible rules for each of our products and services to take action against content and behaviour that infringe on them. We also comply with legal obligations wherever we are operating, requiring the removal of content. All our activities in this area happen through a combination of man and machine. We have machines to manage the volume. We are talking about more than 500 hours uploaded every hour. And we have humans for the context. Users can report videos that they believe violate the guidelines.

Removal of content may occur for two reasons. It violates the law or it violates our rules of law, our internal committee guidelines that we have for every product or service. Our policies are not set in stone. We update them as we see fit, as the world around us is changing and developing. For instance, no one saw the pandemic coming. We had to update our policies around covid and vaccines as the situation developed. Among others, we considered the following types of risk when considering which safeguards and rules may be needed for each product and service. Harmful and dangerous behaviour, hateful content, threats, harassment and bullying, violent or graphic content, sexually explicit content, spam, abuse, unsafe practices, and impersonation and misrepresentation, what we call misinformation.

To help us identify and manage gaps in our existing policies, we also consider access from all over the world, including the European countries, user feedback and regulatory guidance.

The second pillar. We want to raise up authoritative voices when users seek breaking news and information. We want to elevate high quality content and authoritative sources where it matters most. For example, we provide covid labels under every video, mentioning the covid pandemic. The information window for COVID-19 content includes links to the government site, Dutch local authorities and the Dutch information site about COVID-19. Another example, also about The Netherlands. During the national elections last year, we provided information on how to vote, where to vote and links to local resources, all from authoritative sources from The Netherlands. We build our product for everyone, while more than 100,000 YouTube employees around the world all have of course a wide variety of views. We have safeguards in place to ensure that we design and enforce our policies in a way that is free from improper bias.

The third pillar. We reduce the spread of content that brushes up against our policy lines or so-called borderline content. We reduce the spread of potentially harmful information while we feature or recommend content, even beyond our policies. While every piece of content that is available on our site should be easy to find by users who are actively looking for it, not all content that is aggravated is recommended to users. We do not have an obligation to do so.

Finally, we want to reward trusted, eligible creators and artists. We set very high standards for quality reliability for publishers and content creators, who would like to advertise on the content. When they need to disperse, we of course want them to be successful. These levers allow us to be consistent in our methodology across products, while tailoring their implementation to fit the uses and the needs of its users. We share the goals of European stakeholders to develop a comprehensive framework that supports consumer protection across digital platforms. However, in such a comprehensive undertaking, the slightest change in the text can have significant and potentially unintended consequences for our responsibility efforts. A negative impact for creators and users is jeopardizing the effectiveness of legislation. For example, as we move into the final stages of the Digital Services Act, we believe it is critical to help the stakeholders better understand how YouTube's approach to responsibility across several areas and how some of the proposals could also negatively impact our current policies and processes. Our hope is that through a constructive dialogue like this, we will be able to balance policy goals and the realities of operating a safe and open digital platform. Thank you for your time. I am very happy to answer any questions you may have.

De voorzitter:

Thank you for your opening statement, Mr Pancini. I would like to give the floor to Ms Van Weerdenburg.

Mevrouw Van Weerdenburg (PVV):

Thank you, Mr Chairman, and thank you, Mr Pancini for enlighting us this morning. Lately, there is a strong opinion that social media platforms play a significant role in social unrest and polarization, radicalization and other undesirable impacts on democracy. What is your opinion on that? Is it true? Is your platform merely a mirror of society or do algorithms or the working of your platform give a megaphone to extreme views?

De heer Pancini:

Thank you for the question. Recommendations are there to help users to find content that they love, content that is positive and engaging for them. That is why we want to make sure that, especially when you are looking for music or entertainment content, you will find content that you like or that people with a similar preference like you also like. When it is about political speech or speech more in general the rules have to be different. We acknowledge that. That is why we want to make sure that, when users are coming to our platform, they find authoritative sources. When a user is searching for breaking news, we want them to find recommended content that is coming from authoritative sources. That was very important during the past years. The task was: make sure that users coming to our platforms were finding this kind of information. That is also true for issues like the pandemic. Of course, if users are searching for content related to COVID-19, we want them to receive recommended content that is in line with the health authorities guidelines. Whenever a video is talking about COVID-19, there are links around the video and near the video that lead to authoritative sources to complete the information for the users.

About the role of platforms like YouTube in the social discourse I would like to point your attention to several facts. First, there is a lot of discussion around the business model of platforms like YouTube. I want to clearly state that since the beginning, it is in our business interest to make sure that content that is recommended to our users is not borderline, is not controversial. Because this is also what our business partners and our advertisers want. Advertisers do not want to be associated with controversial content, borderline content. On the other side, users also want positive content. There is an interesting study from AlgorithmWatch about the very recent German elections, which shows that users coming to YouTube in Germany, who are searching for information around the elections, were recommended content that was not aiming to radicalize their views. This is testament of our efforts to ensure that this is the direction that we are taking.

De voorzitter:

Thank you, Mr Pancini. Ms Van Ginneken.

Mevrouw Van Ginneken (D66):

Thank you. Thank you for being with us, Mr Pancini. I want to dive a bit deeper into the recommendation algorithm. You stated that political speech, political content, is handled differently. This recommendation algorithm is a very important one. Your Chief Product Officer, Neil Mohan, stated that 70% of all the watched content on YouTube came from the recommended section. So, it plays a huge part in helping us find interesting content, but also in finding disturbing content. The recommendation algorithm is not neutral. Last year, Mozilla conducted research and found that over 70% of the recommended videos violate YouTube's own content policies for various reasons. This is quite interesting, especially in non-English speaking countries.

Excuse me for this long introduction, but I think not all viewers are as involved in this as you and I are. In this recommendation algorithm, there is something that is called a rabbit hole. A rabbit hole works as follows: a colleague of mine recently created a new clean YouTube account and watched a video about a PCR-test. He clicked the first recommendation he got and that brought up a video about the validity of PCR-tests. Then he clicked the first recommendation that came out of that video and that was a video about a conspiracy theory on whether or not corona is a hoax. This is called a rabbit hole: you get pulled into radical extremist content quite quickly. This happens on your platform. This is quite a worrying phenomenon, I think, with regard to polarization in our society. Can you reflect on how this algorithm comes up with this extreme content so quickly? What is happening there?

De heer Pancini:

Thank you for this question. I would be very happy to look into the example that you are bringing to my attention and to provide you with feedback. That said, let me put into context our work around recommendation and content more in general. Let us start from the entry point of the conversation. We want to make sure that every piece of content on our platform is in line with our policies. How do we do that? We do that with a combination of machines and humans. Machines help us to find the content at scale, humans review the content and review also the flags that we are receiving from our users. First and foremost, if a piece of content is not in line with our policies, we want to make sure that we are able to identify this content and remove it with as little views as possible. To give you an idea, we have developed a metric about the priority view rate. For every 10,000 views this measures the number of views that come from priority content. In Q3 2021 this was 0.9% to 0.11%, meaning that for every 10,000 views only 9/11 were coming from a priority service. Is this perfect? Of course, it is not. It is very important to adapt our policies to local and specific issues. In relation to this, I want to mention one example that in my view is very important in relation to the development of our policies. During the pandemic, we started to see, in Europe in particular, real-life attacks on 5G masts and in plants, because there was this hoax that 5G was one of the reasons why covid was spreading. We took these developments into consideration in our policies in a matter of days. We adapted our policies. This was something that was coming from Europe and from The Netherlands. Of course, this was in conflict with the guidelines from the local authorities. Once again, we were able to attack this content.

Now, moving to the recommendation, because I want to make sure that I answer your question. When it comes to recommendation, of course we do not want to recommend content that is against our policies.

Mevrouw Van Ginneken (D66):

Excuse me, Mr Pancini. I really appreciate that you want to be very specific in your answer, but I want to focus on the negative effects of the algorithm. You mention all kinds of seemingly low numbers, but research also shows that in general 80% of the most arousing, most extreme content is delivered to a small group that is most willing and likely to act on this content. So, small numbers at first glance may have a huge impact on people who are maybe likely to storm the Capitol. This recommendation algorithm has quite a big responsibility. All the mitigating actions you take bypass the fundamental question: should you not adapt the algorithm itself and take a root action on that?

De heer Pancini:

Indeed, that is the main point. What does the small number mean? It means that the way the algorithm works, it is not pushing the users towards the rabbit hole. We strive to push users to a variety of views. That is why I mentioned the recent analysis from AlgorithmWatch. I am aware of the study done by Mozilla. I am also aware of the specific situation where users are already radicalized or where they are searching for content that confirms their bias. Of course, not because of the recommendation but because of the way they are interacting with the platform, if they keep on searching and keep on subscribing for specific channels, they could get the same suggestion. But that is not the way the algorithm works. The algorithm always goes in the direction of finding more views on the case of the radicalization. What we need to do as a society is really take hold of these issues, as we did for example in the context of radicalization and terrorism a few years ago, by providing additional information near every video. If a video is working according to the lines of our policies, borderline would not be recommended for the user to look into this. You want to make sure that near the video there is a clear indication of the authority's opinion. For example, for a hoax or conspiracy theories: when it is against our policies, it is taken down. If it is not against our policies but if the way the content is expressed is borderline, we do not want to recommend this video and we will use a local expert to identify this content. If a user is searching for this video and finds the video, around the video we want to make sure that the user can find more information coming from authoritative sources.

De voorzitter:

Thank you, Mr Pancini. I would like to give the floor to Mrs Rajkowski.

Mevrouw Rajkowski (VVD):

Thank you, Mr Pancini, for being here today. We invited multiple social media platforms and YouTube and Facebook/Metaware were the two that said: we are going to come and going to take our responsibilities. That is great, thank you. I want to talk to you about facts. Everyone has a feeling or an image of what social media platforms do. When I look at the facts, I see that in January of this year, according to an article in The Guardian, there was a letter signed by more than 80 groups of fact checkers around the world. They said that the video platform is hosting content by groups including Doctors for the Truth, who spread covid misinformation, and videos supporting fraud narrative during the US presidential election. You just stated in your introduction that you are doing a lot when it comes to misinformation. The good thing here is that your platform allows to do this extensive fact checkers research. I want to ask you the following. In Europe, we are working on new legislation, the Digital Services Act and the Digital Markets Act. You are probably well aware of this. What is holding you back to take this legislation into account and to take your responsibility right now? Why are you not waiting until this legislation is in force and obliging you to do so?

De heer Pancini:

Thank you, Mr Chair. That is also an excellent question. This question gives me the opportunity to speak about the work that we are doing with fact checkers in the context of the code of practice on misinformation. You are probably familiar with the previous code of practice on misinformation that we signed on the occasion of the last European elections, to make sure that we had processes and best practices in place to handle all this information in the context of the European elections. The aim of this code for Brussels was to monitor closely. We have been providing at first a bi-weekly, then a monthly and bi-monthly report to the European Commission, which is publicly available, about the efforts that we are taking against COVID-19. We believe that there is room to improve this code of practice. That is why we are actively discussing how to improve and strengthen the obligations of the code of practice with a very big group of stakeholders, including fact checkers. Of course, that is going to be in line with the framework of the DSA. You are correctly suggesting that we are not waiting for the DSA to tell us how to take hold of important societal issues like this information.

Mevrouw Rajkowski (VVD):

Thank you. Let us make it concrete. This article is relatively new, from January, so just a few weeks ago. What has changed since then?

De heer Pancini:

The article is actually an important call for stricter collaboration with the fact checkers. This is absolutely in line with our interests. We are investigating how we can work in a more effective way with fact checkers across the world in the context of the code of practice and also how to ensure that we can help each other and find positive ways to inform users. I think the letter was an important reminder for us about how we need to work with fact checkers in a more effective way. We are looking into this right now. We hope that in a few weeks’ time we can announce that the new code of practice has been signed.

De voorzitter:

Thank you, Mr Pancini. I will give the floor to Mrs Koekkoek.

Mevrouw Koekkoek (Volt):

I want to ask a question about the importance of the right to information that you rightfully mentioned in your introduction, especially in the context of the dependence on Google products. We, as customers, but also in the context of businesses or education, have seen that there are many different Google services and products. There is also interoperability between these services and products. Therefore, in practice we are a society that is quite dependent on how Google products function with each other. I can see that there is a risk that actually limits the right to information, because all those customers, but also teachers and school students are dependent on what Google suggests and on what is offered. How do you reflect on this? Especially on the negative impact on the right of freedom of information that bigger market players such as yourself might cause?

De heer Pancini:

It is in the Google DNA – and YouTube is absolutely in line with this – to offer products that are open and available to everyone and to create a vibrant ecosystem. The main example is Android. Android is an operating system for mobile phones, which can be tailored and can be used from a different OEM. It is creating a vibrant ecosystem of platforms and applications. Just to give you an idea, the main way for users to access TikTok is through Android. TikTok is a very effective and available competitor for services like YouTube. That is for sure the direction the openness of the platforms that we are creating is taking. That said, the call for interoperability is very important. We are looking into these topics in the context of the DSA and the DMA. When we talk about interoperability and, for example, transparency, it is always very important to understand the balance that we need to find between this very important concept and other equally important concepts like safety, security and privacy. We have to make sure that interoperability and transparency are not creating situations in which we put the safety and the data of our users at risk. I am happy to subscribe to everything you said and to confirm that our view goes in the direction of building open platforms.

De voorzitter:

Mrs Koekkoek.

Mevrouw Koekkoek (Volt):

Maybe a question to specify this. What I hear in your answer is mostly related to market competition and the choices that we can make as a customer. But what I meant is that as users, for example teachers or students, we all sign user agreements when we use products and services. In those product agreements there are certain standards for privacy and for what can be done with our data. Considering that there are different services and products but that the operator is the same, the privacy standards in those agreements are similar. This is what I meant by the market power of those agreements versus the right to information that we all have. How would that perhaps negatively conflict with each other or spiral us in a direction that would actually limit our right to information? Because we are all operating under the same user agreements.

De voorzitter:

Your reaction, Mr Pancini.

De heer Pancini:

That is an excellent question. I think that my colleagues from the Cloud team would probably be better equipped to answer your question. From a consumer point of view, there are so many rules and regulations that are in a certain sense helping the platforms to build their terms and conditions and privacy policies, that from that vantage point I do not see this conflict. I and my colleagues from the Cloud team will be very happy to explore this point in more detail with you.

De voorzitter:

Thank you, Mr Pancini. I would like to give the floor to Mr Ceder on behalf of the Christian Union.

De heer Ceder (ChristenUnie):

Thank you so much for being here, Mr Pancini. I have a question for clarification. Is it true that the end goal for your platform, for Google and YouTube, is that people spend as much time as possible on the platform, with the aim of creating advertisement opportunities and the monetary model? Is that true or do you have another objective? This relates to my next question.

De heer Pancini:

It is not true. I want to confirm that our goal is twofold. Firstly, we want to make sure that our partners, the creators, can have a voice and can find an audience. We also want to create an effective business model with ways to monitor by which creators can help make it a sustainable business. Very soon, we are going to provide the data about what this means in The Netherlands. We are very happy with that. On the other side, we want to make sure that users can have a variety of sources and voices to entertain themselves, to inform themselves, to learn something. To your specific question: you said this could be an act of faith that you are asking. No, it is not an act of faith. What might help to convince you is that if we do not do this in a proper way – for example if we suggest borderline content, controversial content to our users – the advertisers that are helping us to build an effective business would be unhappy and would go away. Therefore, our business would fail.

De voorzitter:

Thank you. Your next question, Mr Ceder.

De heer Ceder (ChristenUnie):

Thank you for answering that question. I have another question related to your answer. As we previously discussed, the algorithm provides videos that would most likely be appealing to people. Is that not just because the platform wants people to stay as long as possible on the platform? If that was not the case, you would not provide the most appealing videos for people. Could you clarify that point? I hear what you are saying, but at the same time, the usage on YouTube and the answers that were given previously do not seem to match. So, just for clarification.

De heer Pancini:

That is an excellent point. That is why, while on one side making sure that users come to our platform and find the content that they love, at the same time we respect a quality time for our users. We built a series of tools for the wellbeing of our users. These tools are for example the possibility to switch off Autoplay, the possibility to get reminders about the time that you are spending online, or the reminder to take a break after watching a certain number of videos. It is really not about the quantity of time that users are spending on the platform, it is about the quality of the time spent on the platform. This is the kind of virtual circle you want to create. In order to assist parents to do this effectively, we provide parents with tools that can help them to make sure that their kids have healthy and positive experiences on our platform. For example, which content they can watch on YouTube but also how much time the kids can spend on YouTube. It is a holistic approach which strives to ensure that users spend quality time on our platform and have a quality experience.

De voorzitter:

Thank you, Mr Pancini. Mrs Van Ginneken.

Mevrouw Van Ginneken (D66):

I have another question about the effects of the recommendation algorithm. Earlier, you already mentioned a few seemingly low numbers of extreme content that is delivered. I am still not quite satisfied with the answers I got. We know that the recommendation algorithm delivers this extreme content to exactly the most receptive and the most vulnerable users. The very essence of the recommendation algorithm is that it brings the content to people, who are most likely to engage with it. The Dutch Intelligence and Security Service warned about the polarizing and radicalizing effect of this mechanism, because it also brings extreme content to those people, who are most likely to act on it in a physical space, as we saw in the United States with the storming of the Capitol. The low numbers you constantly report are, to my taste, somewhat diminishing the urgency of the problem. It gives me the idea that you are giving up on those people and the huge negative impact they, because of your recommendation algorithm, can have on our society. Can you reflect on that?

De heer Pancini:

That is absolutely a very valid point. I would like to mention three additional clarification points. Firstly, once again it is in our business interest that we do not recommend borderline content. For the majority of users, borderline content creating engagement does not bring any value to advertisers and does not create any positive engagement. So, firstly the business argument. But then I want to be a little more specific. It is not only a matter of quantity in the numbers I report. It is also a matter of quality. In order to identify borderline content and specifically content that is not against our policies but that is controversial, we use local experts that are helping us in rating the content. When content is identified as borderline, it is not recommended anymore.

Finally, it obviously is a challenge for us, because we want to find the fine balance between keeping the platform open to different points of view and making sure that we do not run the risk to help people to radicalize. How are we trying to achieve this? With all the tools that I described before. But we also really welcome the support from institutions. For example, I would like to bring to your attention the recent decisions that were made by the courts in The Netherlands about two actions that we took. Two very important speakers, including a politician, were first appealing to us and then to the relevant courts concerning our decisions. The courts confirmed that our decisions were right. I do not want to say in a certain sense that we want to offload these to courts, but I want to tell you that, since sometimes these decisions are so delicate and important, we of course want the judge and jury to enlighten this. We welcome the confirmation and we welcome the rule of law, which helps us to do a good job.

Mevrouw Van Ginneken (D66):

But, referring to the article in The Guardian that my colleague Rajkowski quoted earlier, the researchers stated that all the current measures that you are taking prove insufficient, especially in non-English speaking countries. So, there is still a problem to solve here.

De voorzitter:

Maybe before you start answering, Mr Pancini, Mrs Rajkowski would like to add something as well.

Mevrouw Rajkowski (VVD):

Yes, thank you. Of course, we understand that YouTube does not have all the knowledge when it comes to countries about what is right and what is wrong. If a platform behaves not only like a company, but also like the police and the judge, something is going wrong. I would like to ask you this specific question. How many times, let us say in January of this year, have you found something on the platform that is possibly illegal? How many times did you give a signal to the Dutch police and the Dutch intelligence institutes?

De heer Pancini:

Thank you so much for these questions. Let us start with the first one. The article talks about different platforms. By the way, one example in the article we are looking at is making reference to a video that was linked from Facebook. I think the letter from the fact checkers is a very important call for improving the collaboration. That was also how we followed-up with the fact checkers: to look into ways in which we can work together, especially in the context of the coming code of practice.

On the language side, I confirm that, for example with the attacks on the 5G masts in The Netherlands, we take into consideration local specificities and local languages, including the use of local experts to help us identify borderline content. Regarding your question about how many times, I cannot be so specific, because the data are not yet available. Of course, they have to be processed. If you go to our transparency record however, you will find all the information there relating to how many requests for information we received from law enforcement across the world and how many answers we gave.

Mevrouw Rajkowski (VVD):

Excuse me for interrupting you, Mr Pancini. I am just looking at the time. Of course, I could imagine that this would be your answer, when I asked you about the numbers for January. That was only two weeks ago. I can imagine that you would say that you do not have the data yet. Let me then ask you the same question about January last year. I am not asking you how many times intelligence services asked you to deliver information, but how many times you saw something happen on the platform of which you were thinking: this is someone from The Netherlands trying to create something that we do not like, something that is illegal. How many times have you given signals to the Dutch authorities?

De heer Pancini:

That is a question about delicate information. I think I cannot disclose that in this public hearing. But I welcome you to get in touch with for example Europol or the association that is looking into S.E.S.A.M.E. in The Netherlands to hear how we are collaborating under the rule of law in this regard. Especially the example of S.E.S.A.M.E. is in my view very important. Every time we find a piece of content on our platform that is child abuse material, we communicate this content to the international umbrella organization coordinating action against these horrible events. This association then refers it to the local authorities for following up on investigations, including European law enforcements. This happens for high profile crimes. Our partners can confirm that.

De voorzitter:

Thank you, Mr Pancini. That brings us to the end of this public hearing. I would like to thank you for answering the questions of our Members of Parliament.

We zijn aan het einde gekomen van het tweede deel en daarmee ook aan het einde van deze hoorzitting van de vaste commissie voor Digitale Zaken over de rol van socialemediaplatforms. Ik dank de mensen thuis die ons gevolgd hebben. Ik dank de Kamerleden en natuurlijk onze gasten. Thank you again, Mr. Pancini. Ik wens iedereen een hele plezierige dag en sluit deze vergadering.

Sluiting 11.45 uur.