Artificial Intelligence

AI-AI Captain

AI zal de wereld veranderen. En dat mag je redelijk letterlijk nemen. Michal Natorski van UNU-Merit denkt dat de technologie zelfs onbedoeld de besluitvormingsprocessen van VN-agentschappen kan beïnvloeden.

“Ik ontdekte dat het een volledig nieuw gebied van internationale betrekkingen was waar nog geen onderzoek naar was gedaan”, herinnert Michal Natorski zich. Natorski deed jarenlang onderzoek naar de manier waarop internationale organisaties omgingen met crises zoals de Arabische Lente en de invasie van Oekraïne. Vanuit zijn interesse in onzekerheid en urgentie in internationale betrekkingen besloot hij dan ook onderzoek te gaan doen naar AI, en dan met name hoe AI crises zou kunnen voorkomen of beheersen. 

Natorski onderzoekt de interactie tussen regelgeving en het gebruik van AI binnen internationale organisaties, in het bijzonder de VN. “Ik kijk niet alleen hoe wetten de ontwikkeling beïnvloeden, maar vooral ook hoe de technologie beleid kan veranderen.” Het voorbeeld dat hij geeft, is beslist niet ondenkbaar. “De VN gebruikt Microsoft. Er bestaan al AI-plug-ins die e-mails automatisch beantwoorden. Een scenario waarin inboxen met elkaar communiceren zonder dat er ook maar een mens aan te pas komt, zou dus heel goed mogelijk zijn.” 

Volledig geautomatiseerde beleidsvorming

AI kan ook politieke speeches schrijven die helemaal in de stijl zijn van een bepaalde politicus en diens standpunten perfect vertegenwoordigen, als de dataset maar groot genoeg is. Maar de inhoud zal altijd een herhaling zijn van al bestaande informatie. AI herkent patronen en genereert de meest gebruikelijke speech over een willekeurig onderwerp. Dat maakt het een prima communicatietool. Maar Natorski betwijfelt of AI ook gebruikt kan worden om beleid te veranderen of problemen op te lossen die worden veroorzaakt door een situatie die nu aan de orde is. “Er is geen data voor veranderingen die gaande zijn. Als we te veel op AI vertrouwen, komen we niet tot nieuwe scenario’s. Het zou flexibiliteit en innovatie dus zelfs in de weg kunnen staan.”

Natorski is gefascineerd door AI, maar bejubelt de technologie niet. “De mogelijkheden zijn eindeloos, maar er zijn ook duidelijke beperkingen. Israël beschikt over de geavanceerdste technologie ter wereld om risico’s te voorspellen, en toch hebben ze de terroristische aanvallen van 7 oktober niet voorzien.” En als AI ondoordacht wordt gebruikt, kan dat zelfs nieuwe risico’s opleveren. “Het VN-Ontwikkelingsprogramma (UNDP) zette een project op met AI om in kaart te brengen welke Oekraïense gebouwen waren verwoest tijdens de oorlog met Rusland. Op zich een geweldig idee, maar doordat de informatie voor iedereen beschikbaar was, was het ook een ideale bron van informatie voor het Russische leger om te zien hoe nauwkeurig hun projectielen waren. Het bleek bovendien illegaal te zijn in Oekraïne vanwege de oorlog. Uiteindelijk werd het project dan ook stopgezet.”

Van realiteit naar code en weer terug

Dat AI ook risico’s met zich meebrengt, ligt niet alleen aan hoe de technologie wordt gebruikt, maar heeft ook te maken met de inherente beperkingen van AI. “De VN maakt gebruik van computer- en datawetenschappers die input omzetten in data. Die zetten bijvoorbeeld socialmediaposts om in cijfers.” Natorski waarschuwt dat we AI geen menselijke eigenschappen mogen toedichten. AI verwerkt datasets zonder enige kennis van de realiteit. “Kijk bijvoorbeeld naar gezichtsherkenning: AI verwerkt geen gezichten zoals wij ze zien, maar zet unieke gezichtskenmerken om in code.”

Je kunt je afvragen of alles goed in data te vangen is. Kun je bijvoorbeeld de sluimerende wrok van een grote groep mensen kwantificeren als die mensen het gevoel hebben dat het sociaal niet geaccepteerd is om dit te uiten? 

Hoewel de meeste mensen er geen enkele moeite mee hebben hun getagde en eenvoudig categoriseerbare gedachten en voorkeuren te delen met multinationals – beeld je in: een soort Stasi bemand met goedgelovige vrijwilligers – is niet iedereen via data te volgen. “Op de Filippijnen gebruikte het VN-Ontwikkelingsprogramma AI om het armoedeniveau in kaart te brengen via driehoeksmeting op basis van satellietbeelden, geospatiale data en Facebook-marketingdata. Maar hiermee kon de sociale status van mensen zonder smartphone, internet en Facebook-account niet worden bepaald. De methode werd gekozen uit kostenoverwegingen, maar hierdoor glipten veel mensen door de mazen van het net.” AI kan alleen goede resultaten genereren als de relevante werkelijkheid wordt omgezet in data.

Geopolitieke relevantie

Er valt nog veel meer te zeggen over AI. Zo is de technologie een grote energieverbruiker en kunnen er conflicten ontstaan rond de grondstoffen die nodig zijn om halfgeleiders te produceren. Dat het geopolitieke belang toeneemt, blijkt wel uit de zogenaamde ‘chipoorlog’, waarbij China de geavanceerdste technologieën om microchips te produceren wordt ontzegd en de VS en Europa meer zelf gaan produceren in plaats van dit uit te besteden aan Azië. 

Natorski is erg sceptisch over een AI-utopie, vooral vanwege de gelijkenissen met de opkomst van internet enkele decennia geleden. “Van internet werd in eerste instantie ook gezegd dat het een doorbraak was voor de democratie. Nu gebruiken grootmachten het juist voor het tegenovergestelde.” Beleidsmakers waren dus al gewaarschuwd. Ze wisten al vroeg dat AI zowel ten goede als ten slechte kan worden ingezet. “Het is net als met elektriciteit. Je kunt stroom gebruiken voor projectielen of voor leeslampen. Dezelfde technologie, een ander doel. Door wat er gebeurd is met internet, beseften politici al snel dat ze iets moesten doen.”

Dringend behoefte aan regelgeving

“In het slechtste geval zijn we allemaal gedoemd. Grote Amerikaanse bedrijven proberen ons ervan te overtuigen dat ze generatieve AI zelf moeten kunnen reguleren. Ze proberen de aandacht te verschuiven van AI in het dagelijks leven naar het gebruik van AI om potentiële veiligheidsbedreigingen aan te pakken. Maar ik ben meer geïnteresseerd in een scenario waarin een technologie voorafgaand aan het gebruik wordt gereguleerd, of op zijn minst niet al te lang daarna, om het worstcasescenario te voorkomen.” AI ontwikkelt zich echter razendsnel en de regelgeving zal altijd achter de feiten aan blijven lopen. “De Europese AI-verordening is een eerste poging tot een serieuze, alomvattende wet op basis waarvan sancties kunnen worden opgelegd aan bedrijven die zich niet aan de regels houden. Maar de onderhandelingen over deze wet vonden grotendeels plaats vóórdat Chat GPT de krantenkoppen haalde. Daardoor moesten er in de latere fases van het wetgevingsproces nog veel aanpassingen worden gedaan om in te spelen op de technische ontwikkelingen.” 

AI ontwikkelt zich sneller dan dat we alle mogelijke vertakkingen in kaart kunnen brengen. “De technologie is bijna volwassen, maar heeft nog steeds mankementen. Bovendien gebruikt AI zonder toestemming auteursrechtelijk beschermde content. 2023 was het jaar van Open AI. 2024 wordt misschien het jaar waarin AI-bedrijven worden aangeklaagd omdat ze intellectueel eigendomsrechtelijk beschermde content van anderen gebruiken om hun modellen te trainen. Op dit moment is er praktisch geen regelgeving.” Natorski denkt niet dat er een bindend mondiaal AI-verdrag komt. “Ik denk eerder dat er regionale richtlijnen zullen komen, zoals de Europese AI-verordening. Als er wel mondiale regelgeving komt, zal die gericht zijn op specifieke onderwerpen, zoals gezondheid of zelfrijdende auto’s, waarvoor veel specifiekere regels nodig zijn om standaardisatie mogelijk te maken…”

Relevant en realistisch

In 2021 nam UNESCO de Aanbeveling voor de Ethiek van Kunstmatige Intelligentie aan, een niet-bindende set waarden en principes die als uitgangspunt kunnen dienen voor toekomstige regelgeving. Maar punten als ‘geen schade toebrengen’, ‘privacy’ en ‘een bloeiend ecosysteem’ zijn natuurlijk moeilijk verenigbaar met een energieslurpende technologie die een gouden eeuw belooft van geautomatiseerde massabewaking en oorlogsvoering met drones.

De VN ontwikkelt of gebruikt momenteel ruim 200 AI-tools. Het is nog een hele kunst om te bepalen of een tool goed werkt. Want hoe weet je nu of iets anders zou zijn gelopen als er geen preventieve maatregelen waren genomen vanwege een voorspelling? En is het wel verstandig om militaire interventies te doen om een groter conflict dat is voorspeld te voorkomen? Je trekt dan min of meer ten strijde omdat AI het zegt. “We experimenteren om de beperkingen van de technologie te onderzoeken. Sommige tools worden niet meer gebruikt, maar andere maken deel uit van het beleidsvormingproces, zoals de hongerkaart van de Voedsel- en Landbouworganisatie of de geautomatiseerde geospatiale detectie van verwoeste infrastructuur na overstromingen of aardbevingen die VN-agentschappen gebruiken.” 

“Oplossingen moeten bij de cultuur passen. En helaas komen vooroordelen in de data voort uit onze eigen vooroordelen in de analoge wereld, die worden verveelvoudigd door digitale tools”, vertelt Natorski. “AI-tools moeten relevant zijn voor mensen. Maar we moeten ook een realistisch beeld hebben van wat AI kan en hoe de technologie werkt. Daar hebben we onvoldoende inzicht in, juist vanwege de aard van AI. AI zal nooit perfect worden, maar we moeten iets doen zodat we de technologie grondig kunnen onderzoeken.” 

Text: Florian Raith

Lees ook

  • Als patiënt in een ziekenhuis zie je dagelijks veel verschillende gezichten aan je bed: een verpleegkundige die je bloeddruk meet, een arts of verpleegkundig specialist die jou informeert over het zorgplan en een voedingsdeskundige die jou voorziet van het juiste eten en drinken. Hoewel al deze...

  • Vaatchirurg en bijzonder hoogleraar Clinical Engineering Lee Bouwman houdt zich bezig met de implementatie van baanbrekende technieken in de gezondheidszorg. Hiervoor is samenwerking tussen technische en klinische deskundigen onontbeerlijk. Met inmiddels een waaier aan gezamenlijke innovaties als...

  • Dani Shanley en Joshi Hogenboom over synthetische data, de voors en tegens van interdisciplinariteit, en waarom AI er waarschijnlijk niet voor zal zorgen dat we kunnen stoppen met het bestuderen van de wereld waarin we leven.