Digital Technology

Een open boek dat nergens op slaat

DKE’s Jerry Spanakis over verantwoorde machine learning modellen, wat algoritmen wel en niet kunnen 'begrijpen' en waarom dit van belang is voor ons allemaal.

Dit is een zinvol artikel. Niet in de zin dat het bijzonder relevant is: dat is aan u om te beslissen... Maar er is een bedoelde betekenis die vertaald is in tekst, die weer is vertaald in een opeenvolging van 0's en 1's, die weer vertaald zijn in tekst en die u nu vertaalt in betekenis.

Tot zover gaat alles goed, maar het interpreteren van de oneindige hoeveelheid content op het internet is niet zo eenvoudig. Jerry Spanakis denkt na over hoe het ongestructureerde te structureren: hij gebruikt algoritmen om manieren te vinden om zin te geven aan alle gegevens waarover we beschikken, om er nuttige informatie uit te halen en om er semantiek aan toe te voegen. Zijn uiteindelijke doel is om die inzichten nuttig te maken voor mensen.

Algoritmes snappen het niet helemaal

"Je moet in gedachten houden dat Twitter bijvoorbeeld niet erg representatief is voor hoe de bevolking denkt. Online informatie en gegevens geven een vertekend beeld van de echte wereld - we moeten die gegevens kritisch beoordelen bij het bepalen van de mogelijke reikwijdte en beperkingen van ons onderzoek ."

Spanakis voegt er nog een disclaimer aan toe: "Zeggen dat een algoritme taal 'begrijpt' is overdreven. De vooruitgang die spraakherkenning heeft geboekt is ongelooflijk; vergelijk Google Translate nu maar eens met tien jaar geleden!" Toch waarschuwt hij: "We moeten op onze hoede zijn voor overmoed. Algoritmes zijn nog steeds vrij slecht met zaken als bijvoorbeeld context en gezond verstand."

De grootste uitdaging waarmee hij werd geconfronteerd bij de analyse van sociale media is de constante evolutie ervan: van teksten naar beelden naar video's en, recenter, naar video's die na een bepaalde tijd weer verdwijnen. "Het wordt een stuk lastiger met dingen als bijvoorbeeld TikTok, iets waar ik me nu in probeer te verdiepen. Gelukkig praten mijn studenten me bij over de laatste trends en ontwikkelingen."

Consumenten helpen

Spanakis probeert zich in te zetten om ingewikkelde processen toegankelijker, minder tech savvy te maken voor consumenten. Hij werd hiertoe aangespoord door zijn ervaringen rond een vertraagde vlucht. "De luchtvaartmaatschappij reageerde helemaal niet op mijn compensatieclaim, totdat ik ze via sociale media onder druk zette. Toen ze ontkenden dat ik in aanmerking kwam, ben ik met mijn zaak naar de regelgevende instanties gestapt. Pas daarna, na zes maanden, kreeg ik mijn geld terug."

Een maatregel ter bescherming van de consument - die zeer moeilijk te controleren is - is dat influencers nu moeten aangeven wanneer zij worden betaald om reclame te maken voor producten op social media. Spanakis werkt daarom nauw samen met de rechtenfaculteit. "Je kunt algoritmes trainen om logo's of zelfs stemmodulaties te detecteren, maar voor nu ligt mijn focus op het bouwen van algoritmes die de bijschriften in de foto's, video's, of vooral de commentaren eronder analyseren."

Spanakis, opgeleid tot computerwetenschapper en engineer, beseft maar al te goed dat technologie niet in een vacuüm bestaat. Een voorbeeld met ernstige gevolgen in de echte wereld is haatzaaiende taal. "Er is eigenlijk heel weinig matiging. Het is moeilijk te detecteren - een algoritme kent een objectieve waarde toe aan uitspraken die in zeer verschillende culturele contexten worden gedaan. Er zijn veel fout-positieven omdat algoritmen bijvoorbeeld moeite hebben met ironie. Bovendien zijn deze social media bedrijven uit op winst en is het misschien ook niet in hun belang om opruiende inhoud die engagement stimuleert, te modereren."

Objectief onzin herkennen

Een prominent recent voorbeeld van moderatie in sociale media was het markeren door Twitter van de tweets van Donald Trump waarin de legitimiteit van de verkiezingsuitslag in de VS werd betwist. "Ik kan me voorstellen dat er veel handmatig werk aan te pas is gekomen. Algoritmes kunnen dingen filteren, maar je hebt nog steeds mensen nodig om ze te controleren - en gezien de enorme hoeveelheid informatie is dat niet praktisch."

"Om content succesvol te laten zijn, om het viraal te laten gaan, moet het mensen aanspreken. Maar om hen in de eerste plaats te bereiken, moet het worden gepromoot door het algoritme van de grote sociale-mediaplatforms - en we weten niet hoe die algoritmen werken." De algoritmes bevorderen inhoud die waarschijnlijk de aandacht zal trekken, de basisvaluta van sociale media, maar dat is een economische, geen burgerlijke noodzaak.

Spanakis maakt zich zorgen over de maatschappelijke impact van de manier waarop die nieuwsfeeds worden gecureerd - en probeert zijn steentje bij te dragen: "Binnen tien uur kan ons algoritme met 80% nauwkeurigheid bepalen of content nep is, alleen al door het patroon van de verspreiding. Op Twitter bijvoorbeeld, hebben fatsoenlijke nieuwsberichten de neiging zich over een langere periode te verspreiden en worden ze gedeeld door mensen met meer volgers die ook meer mensen volgen. Nepnieuws heeft de neiging om zich in vlagen te verspreiden."

Is dit een cruciale slag in de strijd tegen nepnieuws? Niet helemaal. "Je moet rekening houden met de enorme aantallen waar het om gaat en hoeveel mensen binnen die tien uur kunnen worden bereikt en, nog belangrijker, beïnvloed." Spanakis bestudeert nu het corona-gerelateerd nieuws van het afgelopen jaar en in hoeverre de emotionele inslag van een tekst invloed heeft op de reactie van mensen.

Mensen zijn altijd al vatbaar geweest voor manipulatie, maar de digitale technologie biedt actoren te kwader trouw, tot dusver onvoorstelbare instrumenten. Onderzoek en ontwikkeling van haalbare voorzorgsmaatregelen zullen van cruciaal belang zijn voor het functioneren van de burgermaatschappij - en het gezond verstand in het algemeen.
 

Florian Raith

Lees ook