Uitgelicht evenement CyberSec 2025 Meer info
Uitgelicht evenement SITS Nederland 2025 Meer info
Uitgelicht evenement TECHEX Europe 2025 Meer info
Uitgelicht evenement IDM Europe 2025 Meer info
Uitgelicht evenement Webinar: Today’s Top 4 Cyber Attacks and How to Defend Against Them Meer info
Uitgelicht evenement CyberSec 2025 Meer info
Uitgelicht evenement SITS Nederland 2025 Meer info
Uitgelicht evenement TECHEX Europe 2025 Meer info
Uitgelicht evenement IDM Europe 2025 Meer info
Uitgelicht evenement Webinar: Today’s Top 4 Cyber Attacks and How to Defend Against Them Meer info

Tussen AI-hype en scepsis: de realiteit van generatieve AI

Mensen aan beide kanten van het AI-spectrum verdienen geld en genereren verkeer door overdreven claims te doen over generatieve AI (genAI). Aan de ene kant van het spectrum zijn er de AI-fanatici, promotors en cheerleaders. Veel van deze mensen (bijv. OpenAI-CEO Sam Altman, NVIDIA-CEO Jensen Huang) verdienen hun brood door genAI te positioneren als een potentiële redder van de mensheid. Deze promotors verwijzen graag naar de mogelijke existentiële risico’s van AI; hun waarschuwingen dienen echter voornamelijk als marketinginstrument. Door te benadrukken hoe gevaarlijk genAI kan zijn in de verkeerde handen, positioneren boosters zoals Altman hun initiatieven als van levensbelang. Zoals te verwachten, is deze tactiek vooral populair vlak voor nieuwe financieringsrondes. Aan de andere kant van het AI-spectrum bevinden zich de cynici en sceptici, van wie sommigen de AI-boosters zelfs “charlatans” of “oplichters” noemen. Onder de sceptici zijn er verschillende kampen. Er zijn interne sceptici—onderzoekers en academici die momenteel aan AI-projecten werken—en er zijn externe sceptici die mogelijk in het verleden met AI bezig waren, maar nu vooral hun persoonlijke merk opbouwen door de hype rond genAI te ontkrachten (bijv. NYU-professor Gary Marcus, de Britse technologiecommentator Ed Zitron). Omdat het gedrag van de boosters vrij eenvoudig te doorgronden is, besteden we iets meer aandacht aan de bonte wereld van AI-scepsis.

Maatschappelijke schade en ethische kwesties

Cynici hebben veel verschillende redenen om sceptisch te zijn over de huidige genAI-gekte. Volgens Gartner’s 2025 Hype Cycle for AI is genAI onlangs verschoven van de piek van opgeblazen verwachtingen naar het dal van desillusie. Dat wil niet zeggen dat genAI geen positieve impact zal blijven hebben op samenleving, bedrijfsleven, onderwijs, gezondheidszorg en andere domeinen; toch beginnen veel onderzoekers zich steeds vaker af te vragen of de voordelen werkelijk opwegen tegen de nadelen.

Veel ethisch georiënteerde academici maken zich zorgen over algoritmische vooringenomenheid, desinformatie en andere mogelijke maatschappelijke schade door genAI. In hun boek The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want omschrijven onderzoekers Emily Bender (University of Washington) en Alex Hanna (DAIR) sommige chatbots bijvoorbeeld als “een racistische stapel lineaire algebra,” vanwege hun neiging raciale ongelijkheden te versterken.

Naast desinformatie en algoritmische bias maken veel sceptici zich zorgen over klimaatkwesties en de enorme hoeveelheid energie die nodig is voor de datacenters achter genAI-modellen. Anderen vrezen dat genAI het kritisch denkvermogen uitholt, massale werkloosheid veroorzaakt en miljoenen werknemers buitenspel zet.


Bedrijfshype en onhoudbare economie

Een andere groep uitgesproken AI-sceptici richt zich op de wankele financiële situatie van veel grote spelers in de genAI-sector. Zo voorspelt Ed Zitron regelmatig dat de genAI-bubbel zal barsten, wat leidt tot het instorten van aandelenkoersen en een daaropvolgende recessie. Gary Marcus beschrijft de genAI-wereld eveneens als economisch instabiel, gezien de torenhoge operationele kosten in vergelijking met de beperkte inkomsten.

Marcus, Zitron en andere critici nemen ook aanstoot aan het idee dat de huidige genAI-modellen—en in het bijzonder de voortdurende opschaling van LLM’s—ooit zullen leiden tot artificial general intelligence (AGI) of superintelligentie. Om eerlijk te zijn, Marcus denkt niet dat AGI onbereikbaar is, maar hij pleit voor een hybride, neurosymbolische AI-benadering in plaats van de huidige nadruk op schaalvergroting van LLM’s.


Existentiële risico’s

Weer een andere tak van kritiek richt zich op mogelijke existentiële gevaren, zoals AI-gestuurde oorlogen, menselijke uitsterving en grootschalige sociale instabiliteit. Zo schreef OpenAI-medeoprichter en voormalig chief scientist Eliezier Yudkowsky in maart 2023 een essay in Time Magazine, waarin hij waarschuwde dat zonder een moratorium op genAI-onderzoek “letterlijk iedereen op aarde zal sterven.” Samen met AI-onderzoeker Nate Soares werkt hij aan een boek met de al even heftige titel: If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All.

Geoffrey Hinton, die in de jaren ’80 meewerkte aan de ontwikkeling van neurale netwerken, ziet eveneens existentiële risico’s. In een interview met CBS News (april 2025) zei hij: “De beste manier om het emotioneel te begrijpen, is onszelf voor te stellen als iemand met een schattige tijgerwelp. Tenzij je er heel zeker van kunt zijn dat hij je niet wil doden zodra hij groot is, moet je je zorgen maken.” Yoshua Bengio, een voormalige collega van Hinton en eveneens pionier in neurale netwerken, waarschuwt op vergelijkbare wijze voor AI die slimmer wordt dan de mens en de macht overneemt.

Om te herhalen: ook AI-boosters verwijzen graag naar de existentiële risico’s van AI, al is dat meestal om hun eigen projecten te promoten, fondsen te werven of zich te profileren als beleidsautoriteit. Bedrijven in genAI jagen vaak op overheidscontracten en investeringskapitaal, en profileren zichzelf daarom als onmisbare spelers in het voorkomen van catastrofes.


AI-centrists nemen een gematigde positie in

Een kanttekening: “centrist” is een relatief begrip. Wat de een als gematigd ziet, noemt een ander een “fanaticus” of een “doomer.” Toch zijn er enkele mensen (bijv. Anthropic-CEO Dario Amodei) die openlijk de negatieve effecten van huidige genAI-modellen bespreken, zelfs als dat tegen hun financiële belangen ingaat.

Hoewel Amodei volop deelneemt aan de AI-wapenwedloop, is hij realistisch over veel genAI-kwesties. Ik ben het met hem eens dat AGI vooral een marketingterm is, en waardeer zijn eerlijkheid over de onzekere financiële vooruitzichten van genAI-bedrijven—met name wat betreft het opschalen van LLM’s (iets waar zijn bedrijf zelf ook mee bezig is).

In een recent interview in de Big Technology-podcast van Alex Kantrowitz zei Amodei:
“Over de onderliggende technologie begin ik meer vertrouwen te krijgen. Er is niet géén onzekerheid. [Er is onzekerheid.] Ik denk dat de exponentiële groei waar we nu in zitten, zomaar kan stagneren. Misschien is er een kans van 20 à 25% dat de modellen binnen de komende twee jaar stoppen met verbeteren—om redenen die we niet begrijpen, of misschien wel begrijpen, zoals beperkingen in data of rekenkracht.”

Hoewel sommigen de Anthropic-CEO een AI-doomer noemen, vind ik veel van zijn opmerkingen realistisch en verfrissend.


Belangrijkste lessen

In de huidige, overgehypte genAI-wereld zijn er zowel luidruchtige AI-fanatici als uitgesproken sceptici. Bij het beoordelen van al deze meningen is het belangrijk om rekening te houden met de financiële belangen van de spreker. De CEO van ’s werelds grootste chipbedrijf zal AI logischerwijs vergelijken met iets net zo essentieel als elektriciteit; omgekeerd proberen veel critici hun boeken te verkopen, verkeer te genereren of hun eigen merk te versterken door de technologie in twijfel te trekken. Hoewel de mogelijkheden (en risico’s) van genAI reëel zijn, is het verstandig om de overdrijving van zowel de boosters als de doomers met een flinke korrel zout te nemen.

Nieuwsbrief

Meld je aan voor onze nieuwsbrief

Blijf op de hoogte van onze laatste producten en aanbiedingen door je aan te melden voor onze nieuwsbrief