Kritische reflectie Eva-item Klöpping ‘AI in de toekomst’

Op 22 mei 2025 was Alexander Klöpping te gast in het programma ‘Eva’ van de AVRO/TROS. Hij presenteerde daar een ‘toekomstscenario’ waarin AI ‘slimmer’ zou worden dan mensen. Dit zogenaamde toekomstscenario verdient mijns inziens een kritisch weerwoord. De ochtend na de uitzending heb ik onderstaande reactie geschreven gericht aan de redactie van Eva. Ik heb het op 15 juni 2025 verstuurd. Inmiddels hebben overigens ook anderen al gereageerd op het item, zoals Ilyaz Nasrullah die in deze column deels vergelijkbare punten maakt. Hieronder mijn reactie:

Beste redactie van Eva,

Op 22 mei was Alexander Klöpping bij u in de uitzending om te spreken over ‘AI in de toekomst’. Graag stuur ik u een kritische reflectie op het scenario dat hij schetste. Mijn naam is Dr. Birna van Riemsdijk, ik ben Associate Professor aan de Universiteit Twente. Ik heb meer dan 20 jaar onderzoekservaring in de AI (zie mijn website met meer info over mijn achtergrond). De afgelopen 10+ jaar hebben wij onderzoek gedaan naar software die rekening houdt met normen en waarden van mensen (infographic).

Dhr. Klöpping vertelt over een toekomst waarin AI slimmer wordt dan mensen. Dit soort AI wordt ook wel Artificial General Intelligence (AGI) of superintelligentie genoemd, zoals hij vertelt. Hij geeft meermaals aan dat het AGI narratief door grote AI en tech bedrijven verspreid wordt. Hij laat o.a. Dario Amodei aan het woord, CEO van AI bedrijf Anthropic. Hij presenteert een toekomstscenario dat gebaseerd is op project AI 2027: een project van – naar zijn zeggen – gerenommeerde onderzoekers.

Ik benoem graag drie punten als kritisch weerwoord tegenover het gepresenteerde narratief:

PR van tech bedrijven

Zoals dhr. Klöpping aangeeft, wordt het AGI narratief verspreid door grote tech bedrijven. De allereerste vraag die dan mijns inziens gesteld zou moeten worden, is wat het belang van deze bedrijven is bij het verspreiden van dit narratief. Het antwoord is: groot. Immers, wanneer aan hun technologie grote krachten en mogelijkheden worden toegedicht, kunnen nog grotere sommen geld worden verdiend en opgehaald bij investeerders. Deze kritische reflectie blijft in het item geheel achterwege. Sterker nog, het feit dat grote tech bedrijven deze verhalen verspreiden wordt gebruikt om het narratief nog meer kracht bij te zetten. Ik vind dit een moeilijk te verdedigen journalistieke keuze.

Gevoed door eugenetica

Het verhaal over AGI en superintelligentie wordt gepresenteerd als een ideologisch-neutrale technologische ontwikkeling. Technologie is echter nooit neutraal.

Onderzoekers Dr. Timnit Gebru en Emil Torres laten zien dat ideeën rond AGI geworteld zijn in een verzameling ideologieën waaronder transhumanisme, effective altruism en longtermism die zij afkorten als de ‘TESCREAL bundle’. TESCREAL is een verzameling ideologieën die gevoed wordt door eugenetische overtuigingen. Waar traditionele eugenetica de mensheid wil ‘verbeteren’ langs biologische weg, willen aanhangers van TESCREAL dit met technologie doen. Centraal in dit streven naar ‘verbetering’ staat het verhogen van het gemiddelde IQ van de bevolking. Dit verklaart ook de aantrekkingskracht van AI voor deze groepen: ‘intelligentie’ als hoogste ideaal.

Dit zijn buitengewoon destructieve racistische en validistische overtuigingen. Mensen met een lager IQ worden als minder waard gezien, en een probleem voor het gemiddelde intelligentieniveau van de mensheid. IQ-testen werden in de vorige eeuw gebruikt om ‘aan te tonen’ dat zwarte mensen minder intelligent zouden zijn dan witte mensen: ‘wetenschappelijk’ racisme. Nick Bostrom, filosoof en auteur van het boek ‘Superintelligence’, heeft zwarte mensen dommer dan witte mensen genoemd. Zijn instituut aan Oxford is vorig jaar opgeheven.

Kijkend naar de website van project AI 2027, kunnen we zien dat initiatiefnemers gelieerd zijn aan organisaties die AGI en superintelligentie nastreven. Daniel Kokotajlo, executive director, heeft gewerkt voor OpenAI – het bedrijf achter ChatGPT dat tot doel heeft AGI te ontwikkelen. Thomas Larsen heeft bij MIRI gewerkt: een organisatie die voortgekomem is uit het Singularity Institute. Joonas Vollmer heeft volgens de website het Center for Long-Term Risk opgericht. Singularitanism en longtermism zijn ideologieën uit de TESCREAL bundle. In de uitzending worden de personen achter project AI 2027 meermaals omschreven als ‘gerenommeerde onderzoekers’. Echter, afgaande op de website heeft geen van hen een aanstelling als onderzoeker bij een universiteit. Een van hen is zelfs nog bezig met zijn master’s degree, zo geeft de website aan.

De uitzending geeft daarmee mijns inziens een onjuist beeld van de status van dit project, en laat na de overtuigingen die eraan ten grondslag liggen kritisch te bevragen.

Computationeel onmogelijk

Dit alles zou wellicht nog te verdedigen zijn wanneer het gepresenteerde scenario inderdaad mogelijk of zelfs waarschijnlijk zou zijn zoals in de intro van het programma gesuggereerd wordt. Echter, ook dit klopt niet. Onderzoek van Prof. Dr. Iris van Rooij, hoogleraar in computationele cognitiewetenschappen aan de Radboud Universiteit Nijmegen, en collega’s hebben aangetoond dat het realiseren van AGI met machines die leren op basis van data computationeel onhaalbaar is. Simpel gezegd: het kan niet. De zogenaamde ‘kansen’ op AGI waar in de uitzending over gesproken wordt, zijn uitspraken die niet op feiten gebaseerd zijn. Het is een vaker gebruikte retorische truc om te stellen dat zelfs bij een geringe kans op het geschetste scenario aandacht hiervoor op zijn plaats zou zijn. Met zo’n redenering kun je alles relevant verklaren zolang je maar een kans groter dan 0 poneert dat het bewaarheid wordt.

Ik begrijp dat goede verslaggeving over AI uitdagend is. Echter, met het geven van een podium aan een ideologisch problematisch en technisch onjuist narratief dat gezien kan worden als PR voor grote AI en tech bedrijven – gepresenteerd in een 14 (!) minuten durend item – bewijst het programma het publieke debat over AI mijns inziens geen dienst. Schadelijke effecten van (Generatieve) AI zijn er zeker, maar daarbij gaat het bijvoorbeeld om het reproduceren van vooringenomenheid, het hoge energieverbruik, de werkomstandigheden van mensen die data leveren voor het trainen van AI, en het gebruik van data zonder toestemming. Wat betreft het narratief rond AGI en superintelligentie is mijns inziens vooral demystificatie van wat AI is en kan op zijn plaats, zoals aanbevolen in het WRR rapport ‘Opgave AI’.

Ik hoop u hiermee van nuttige achtergrondinformatie te hebben kunnen voorzien rond dit – zeker belangrijke! – thema.

Vriendelijke groet,

Birna van Riemsdijk, Universiteit Twente

Comments are closed.