AI4Debunk Symposium: de rol van AI bij misinformatie en publiek vertrouwen

maandag 18 november 2024 | AI, Event, Hogeschool Utrecht

Op 22 oktober 2024 vond het AI4Debunk Mini-Symposium plaats aan de Hogeschool Utrecht, waar experts, onderzoekers en professionals samenkwamen om te bespreken hoe kunstmatige intelligentie (AI) kan bijdragen aan de strijd tegen desinformatie en het herstel van publiek vertrouwen. Het symposium, onder moderatie van lector Matthijs Smakman, bracht uiteenlopende visies samen over de kracht en de beperkingen van AI in dit complexe veld. Frank Visser, programmamanager bij RAAIT, modereerde de paneldicussie: “De dag begon met de vraag of AI ingezet kon worden om misinformatie tegen te gaan en het publieke vertrouwen in de media te herstellen. Naarmate de dag vorderde werd het antwoord op deze vraag steeds duidelijker, maar het antwoord is complex. We kunnen in ieder geval concluderen dat er op dit vlak een enorme taak voor verantwoorde AI ligt!”


De rol van AI bij factchecking

In de keynote van onderzoeksjournalist Ludo Hekman, hoofdredacteur van Pointer (KRO-NCRV), werd de rol van AI bij factchecking kritisch onder de loep genomen. Hoewel AI nuttig is bij het snel verwerken van grote hoeveelheden data en het herkennen van patronen, blijft menselijke controle onmisbaar. Hekman benadrukte dat AI-modellen kwetsbaar zijn voor fouten en bias en soms zelfs “hallucinaties” vertonen: foutieve resultaten gebaseerd op verkeerde patronen in data.

Mens-in-de-lus-benadering
Bij Pointer kiezen ze daarom voor een ‘mens-in-de-lus-benadering’, waarbij AI het handmatige werk ondersteunt zonder het te vervangen. Zo gebruiken ze AI bijvoorbeeld om grote hoeveelheden beeldmateriaal te scannen op zoek naar specifieke wapens in conflictgebieden. In samenwerking met Lighthouse Reports onderzoekt Pointer waar wapens terechtkomen, vooral in gevoelige regio’s waar wapens mogelijk in verkeerde handen vallen. AI identificeert objecten, zoals bepaalde soorten wapens, maar de uiteindelijke verificatie gebeurt handmatig door journalisten, om fouten te voorkomen en context toe te voegen aan de analyse. Hekman concludeerde dat AI vooral een waardevolle assistent is, maar nog niet zelfstandig betrouwbaar genoeg voor journalistieke verificatie.

Communicatie gericht afstemmen op individu
Een ander perspectief bood Dr. Gundars Bergmanis-Korads van het NATO Stratcom Centre of Excellence, die sprak over AI’s rol in “precision persuasion,” oftewel het gericht afstemmen van communicatie op individuen op basis van data-analyse. AI stelt organisaties in staat om boodschappen te personaliseren en hierdoor effectiever te maken, wat toepassingen heeft in politiek, marketing en strategische communicatie. Hij gaf aan dat de kracht van AI in politieke campagnes niet onderschat moet worden, omdat het publiek op specifieke manieren beïnvloed kan worden zonder dat ze zich hiervan bewust zijn. Dit roept serieuze ethische vragen op, met name over de mogelijkheid dat AI gebruikt wordt om het gedrag van mensen te manipuleren, wat volgens hem alleen door middel van strenge regelgeving en samenwerking tussen overheden en organisaties beheerst kan worden.

Paneldiscussie
Tijdens de paneldiscussie, gemodereerd door Frank Visser (programmamanager bij RAAIT), kwam naar voren dat AI momenteel niet zelfstandig in staat is om feiten van desinformatie te onderscheiden. Jose de Vries van de NOS beschreef hoe het OSINT-team (Open Source Intelligence) van de NOS beeldmateriaal uit conflictgebieden analyseert, waarbij AI hen ondersteunt bij het herkennen van objecten zoals wapens. Hoewel AI beelden kan identificeren, blijft NOS afhankelijk van menselijke verificatie, vooral wanneer het gaat om beelden die viraal gaan of van onbekende bronnen afkomstig zijn. De Vries legde uit dat een enkele bron nooit voldoende is; er moet altijd dubbele of driedubbele verificatie plaatsvinden, vooral bij gevoelige onderwerpen zoals beelden van oorlogszones.

In plaats van de waarheid te vinden, kun je ook de richting zien te vinden waarin meningen zich ontwikkelen, zonder te duiden welke van de standpunten juist zijn.” Hans Bouwknegt noemt dit de ontwikkeling van het dominante perspectief. Bij aandelenkoersen is dit een belangrijk gegeven omdat je daar alleen hoeft te weten of een koers stijgt of daalt. Men gaat er daar vanuit dat alle informatie verweven is in de koers. Maar voor nieuws is het problematischer om zo je waarheid te bepalen.

De invloed van bias in AI-technologieën 
Ook ethische overwegingen kwamen aan bod. Laurens Vreekamp, oprichter van Future Journalism Today, waarschuwde voor de invloed van bias in AI-technologieën, die altijd worden gevormd door de normen en waarden van hun makers. Hij legde uit dat bedrijven en instellingen AI ontwikkelen met specifieke doelen en belangen, en dat deze vaak niet neutraal zijn. Vreekamp noemde als voorbeeld de manier waarop technologiebedrijven uit Silicon Valley AI-systemen ontwikkelen die geworteld zijn in Westerse waarden, wat invloed heeft op hoe informatie wordt verwerkt en gepresenteerd. Dit kan problemen veroorzaken wanneer AI wereldwijd wordt toegepast, zonder rekening te houden met diverse culturele achtergronden.

Preventief informeren over mogelijke misleiding
Tot slot werd het concept van “pre-bunking” besproken – het voorafgaand bestrijden van desinformatie door het publiek preventief te informeren over mogelijke misleiding. De sprekers merkten op dat deze techniek, gecombineerd met traditionele factchecking-methoden, de weerbaarheid van het publiek kan vergroten. Ludo Hekman gaf een voorbeeld van pre-bunking door te wijzen op de noodzaak om vóór verkiezingen of grote nieuwsgebeurtenissen bepaalde veelvoorkomende misleidende narratieven te ontkrachten. Zo kan voorkomen worden dat deze desinformatie een brede impact heeft. Jose de Vries voegde hieraan toe dat pre-bunking effectief kan zijn om publiek te wapenen tegen bepaalde frames die regelmatig op sociale media terugkomen. Een nadeel van pre-bunking kan echter zijn dat het de engagement algoritmen op deze onderwerpen triggert om meer aandacht te geven aan dit onderwerp, terwijl je acties juist bedoeld waren om dit onderwerp niet te laten groeien. Pre-bunking of debunking moet dus weloverwogen worden toegepast.

AI en mediamerken in balans
Na veel discussie met de zaal werd geconcludeerd dat mediamerken de betrouwbare ontkoppelpunten blijven tussen het journalistieke proces en waar de consument op moet kunnen vertrouwen. Alternatieve media en AI krijgen een steeds belangrijker rol, maar zullen ook vanuit traditionele journalistieke principes moeten werken om een betrouwbare nieuwsvoorziening te kunnen bieden.

Met deze uiteenlopende perspectieven bood het AI4Debunk Mini-Symposium een genuanceerd beeld van AI: een krachtig hulpmiddel met veel mogelijkheden, maar ook met duidelijke beperkingen en verantwoordelijkheden. Hoewel AI een waardevolle rol kan spelen, blijft het cruciaal om technologie verantwoord en transparant in te zetten om zowel de journalistieke integriteit als het publiek vertrouwen te waarborgen.