De hype rond kunstmatige intelligentie is échte stupiditeit

door ir. Ilyaz Nasrullah

Een griezelige ontwikkeling

“Het heeft allemaal te maken met de stilzwijgende veronderstelling dat zodra iets gecomputeriseerd is, dat het dan beter is. Dat is een heel griezelige ontwikkeling. Net zo griezelig als de hoge, overspannen verwachtingen die men heeft van de mogelijkheden van de computer in het hoger onderwijs. Die verwachtingen zijn volslagen irreëel. En het gevaar bestaat dat educatieve voorbereidingen, zoals het opleiden van capabele docenten en de zorg voor een infrastructuur waarbinnen zij kunnen functioneren, verwaarloosd worden.”
Edsger W. Dijkstra in 1984, informaticus en winnaar van de Turing Award (1972)

Gefeliciteerd. U behoort tot een (veel te) kleine groep mensen die nadenkt over de rol van technologie op de werkvloer. Dat is hard nodig, nu er al ruim twee jaar allerlei kwakzalvers ongegeneerd het evangelie van ‘ey aai’ verkondigen op sociale én in de traditionele media.

Omdat de hype rond generatieve* AI zo dominant is, komt mijn betoog dat volgt vast ongebruikelijk op u over. Ik geef namelijk zonder pardon drie zwaarwegende argumenten waarom deze technologie geen plek moet hebben bij u op de werkvloer.

Dit doe ik niet om u ervan te overtuigen om het gebruik van ChatGPT, Copilot, Gemini uit uw organisatie te bannen. Dat is überhaupt niet mogelijk, nu generatieve AI aan ons opgedrongen wordt door spelers als Microsoft, Google en Meta die dit soort software (gratis) beschikbaar stellen in besturingssystemen als Windows, tekstverwerkers als Word en Google Docs, alledaagse apps als WhatsApp en wat al niet meer. Generatieve AI is – in ieder geval voorlopig – onontkoombaar.

Onontkoombaarheid leidt gauw tot onoplettendheid. Dat is riskant, omdat het gebruik van generatieve AI niet onschuldig is. Deze software roept namelijk een hoop strategische, organisatorische, (persoonlijke) ontwikkelings-, juridische en ethische vragen op die een organisatie moet beantwoorden voordat zij deze technologie omarmt.

Het is mijn bedoeling om u te ontmoedigen beleid te ontwikkelen dat het gebruik van generatieve AI in uw organisatie najaagt. En als dat mij niet lukt, om u op z’n minst te provoceren om uw argumenten vóór zulk beleid expliciet te maken.

Ik sluit dit betoog daarom af met een vraag aan u. Bent u er klaar voor?

*Mijn kritiek richt zich hier uitsluitend op de hype rond generatieve AI, en dus niet op systemen die bijvoorbeeld energieverbruik optimaliseren of de slijtage van assets voorspellen.

Het langzame einde van menselijke sturing

“I can’t imagine the cowardly, cowed, and counterfeit-embracing mentality that it would take for a thinking human being to ask such a system to write in their place, say, an email to a colleague in distress, or an essay setting forth original ideas, or even a paragraph or a single sentence thereof.”
Douglas Hofstadter in 2023, hoogleraar cognitieve wetenschappen

Microsoft noemt zijn generatieve AI software ‘Copilot’, een copiloot. In de keynote waarin dit pakket werd aangekondigd, definieerde Microsoft deze software als “een applicatie die gebruikmaakt van moderne AI, die door taal aangestuurd kan worden en jou ondersteunt met cognitieve taken”.

Deze definitie geeft de indruk dat de software een slim hulpje is, en dat de ‘gebruiker’ degene is die achter het stuur zit. Maar wie is eigenlijk de piloot, en wie de copiloot?

Een van de meest genoemde toepassingen van generatieve AI is bijvoorbeeld dat het ons helpt om een writer’s block te doorbreken door alvast wat ideeën, zinnen of afbeeldingen voor ons op het scherm te zetten. De behoefte voor dit soort ondersteuning is er niet voor niets, want het is lastig om ideeën uit het niets te creëren als je hier niet geoefend in bent. Er is dan ook een wildgroei van AI-tools voor brainstorming.

Maar als het de software is die de ideeën genereert die de mens daarna uitwerkt, is het dan niet juist de software die achter het stuur zit met de mens in de rol van hulpje?

Problematisch is dat we door het omarmen van generatieve AI als ideeënspuwer geheel onterecht zeggen dat de vaardigheid om zelf nieuwe ideeën te kunnen bedenken helemaal niet zo belangrijk is. En dat wat we niet belangrijk vinden, gaat op den duur verloren.

Onbedoeld maken de predikers van AI dit argument ook. Dan halen zij het voorbeeld van de rekenmachine aan om te bewijzen hoe irrationeel critici van de AI-hype zijn: “In de jaren tachtig van de vorige eeuw gingen docenten nog de straten op om te protesteren tegen de komst van rekenmachines in de klaslokalen.” Wat ze vergeten te vermelden, is dat het rekenniveau sinds de komst van de rekenmachine inderdaad dramatisch is geworden. Nog steeds hebben bijvoorbeeld beginnende pabo-studenten moeite met rekensommen uit groep 8.

Dit is niet de ‘schuld’ van de rekenmachine, maar wel van onze houding ten opzichte van rekenvaardigheid. Als samenleving vonden we dit met de komst van de rekenmachine ineens minder belangrijk, en sindsdien ging het niveau omlaag. Zo zal het ook gaan met ons vermogen om ideeën te bedenken en creatief te zijn.

De aftakeling van vaardigheden gaan we niet direct zien. Mensen die al jaren voor de introductie van generatieve AI aan het werk waren, hebben kennis, vaardigheden en ervaring die minder snel verloren raken. Maar hoe meer ‘beginnend’ iemand is, hoe duidelijker dat verval zal zijn. Om niet te spreken van de huidige generatie scholieren en studenten die nog aan hun carrière moet beginnen.

Inherent onbetrouwbaar

“The fact that [AI] can pass so many forms of assessment merely reflects that those assessments were not designed to test knowledge and understanding, but rather to test whether people had collected and memorised information.
Now these technologies are here, we need humans to excel at what AI cannot do.”

Rose Luckin in 2023, hoogleraar learner-centred design

Om marketingredenen leggen AI-bedrijven hun generatieve AI-modellen graag langs een menselijke meetlat. Het klinkt natuurlijk indrukwekkend als generatieve AI iets ‘beter dan de mens’ kan. Een veelgehoorde uitspraak nu is bijvoorbeeld dat generatieve AI wiskundeproblemen op PhD-niveau kan oplossen. Wat betekent zo’n uitspraak precies?

Het is belangrijk om te weten hoe de AI-bedrijven het voor elkaar krijgen dat hun systemen goed presteren in ‘menselijke’ tests. Het verbaast u misschien te weten dat generatieve AI-systemen simpelweg getraind zijn op de vragen en antwoorden van allerlei testen, toetsen en tentamens. Het is een beetje alsof een eindexamenleerling de vragen en antwoorden van de komende examens al in handen heeft.

Het gaat daarom ook mis als een generatief AI-systeem vragen krijgt die afwijken van de ‘standaardvragen’ (dit is ook de situatie die het meest voorkomt op het werk, want in de praktijk is alles net anders dan op school). En het gaat grondig mis als zo’n systeem een complexe vraag nog nooit gezien heeft. Zo vond recent de Amerikaanse wiskundeolympiade plaats. Geen enkel generatief AI-systeem scoorde hoger dan vijf procent op deze vragen , simpelweg omdat geen enkel systeem de vragen en antwoorden eerder had gezien.

Van intelligentie is dan ook geen sprake. Experts vergelijken generatieve AI daarom graag met een papegaai: deze systemen praten wel, maar begrijpen niets. Kunstmatige intelligentie bestaat niet, althans niet de sciencefictionvariant van AI waar de meeste mensen aan denken bij het horen van die term.

De problemen beginnen als we geloven dat deze systemen wél intelligent zijn en inderdaad net zo goed of beter dan de mens presteren.

Een bekende casus komt uit de eerste maanden na de lancering van ChatGPT. OpenAI pronkte met het gegeven dat GPT-4 verschillende beroepsexamens succesvol aflegde. Zo haalde GPT-4 toentertijd een score in maar liefst het 90e percentiel van de Uniform Bar Exam , een gestandaardiseerd toelatingsexamen voor de advocatuur in de Verenigde Staten.

Misschien wel hierom besloot Steven A. Schwartz, een Amerikaanse advocaat met 30 jaar werkervaring, in 2023 om ChatGPT een pleitnota te laten schrijven voor een rechtszaak waar hij aan werkte. Het resultaat? De advocaat, niet zijn cliënt, kreeg een boete van 5000 dollar opgelegd. De pleitnota bleek namelijk door ChatGPT verzonnen jurisprudentie te bevatten; een blunder die zelfs de incompetentste advocaat niet zou maken, laat staan een die in het 90e percentiel scoort op het toelatingsexamen.

Dit voorval waarschuwt niet alleen voor de inherente onbetrouwbaarheid van generatieve AI, maar laat ook het verschil zien tussen de competenties die nodig zijn om een toets te halen en welke er nodig zijn in de beroepspraktijk. De opkomst van generatieve AI dwingt zowel werkgevers als onderwijsinstellingen om goed over dat verschil na te denken.

Wat is er uniek aan menselijke vermogens en op welke manier zijn die van meerwaarde in de beroepspraktijk? Hoe worden die vermogens goed geëvalueerd (in recruitment), ontwikkeld (op de werkvloer) en ingezet (in de operatie)? Aan al deze vragen gaan we voorbij als we lukraak op de AI-trein stappen, wat we doen als we bijvoorbeeld het beoordelen van cv’s aan de computer uitbesteden.

Uitbuiting van mens en natuur krijg je er gratis bij

“Pioniers als Douglas Engelbart (De uitvinder van de muis en hypertext) dachten dat computers de positie van werknemers en burgers zouden versterken, wat niet zo’n vreemde gedachte was. Eenzelfde geloof zag je twee decennia geleden. Toen ging het over hoe de onlinewereld, inclusief sociale media, de democratie zou versterken en informatie zou decentraliseren. Die paden lagen er inderdaad, maar de mensen die de touwtjes in handen hadden, kozen daar uiteindelijk niet voor.”
Daron Acemoglu in 2023, ontwikkelingseconoom en winnaar van de Nobelprijs voor Economie (2024)

Al in de eerste maanden na de lancering van ChatGPT maakten AI-bedrijven duidelijk dat het businessmodel van tools op uitbuiting gebaseerd is. Zo nam Google begin 2023 een opmerkelijk standpunt in richting de Australische regering. Google stelde toen dat de wet op auteursrecht toe moet staan dat auteursrechtelijk beschermd materiaal van het internet geschraapt wordt om generatieve AI-software te trainen. Aangezien Google dit materiaal al gebruikt, impliceert het bedrijf hiermee dus ook dat het in overtreding is van de wet – waarom is er anders een wijziging nodig?

De motivatie voor dit voorstel is geen geheim: zonder de kwalitatief hoogwaardige, door mensen gecreëerde werken te gebruiken als ‘trainingsdata’, presteert generatieve AI vele malen slechter dan het al doet. Google plaatst met dit voorstel zijn nauwe eigenbelang dus boven dat van de miljoenen mensen die het bedrijf nodig heeft – maar niet vergoedt – om hun diensten te ontwikkelen. Andere AI-bedrijven doen net zo hard mee aan deze exploitatie en lobbyen bij overheden wereldwijd voor soortgelijk auteursrechtelijk beleid.

Bedrijven en individuen moeten hun eigen standpunt bepalen ten opzichte van grootschalige uitbuiting als dit. En de exploitatie beperkt zich niet alleen tot auteursrecht. Het is al langer duidelijk dat de ontwikkelingsmethoden van generatieve AI gepaard gaan met grote maatschappelijke, klimaat- en ecologische schade.

Zo is bekend dat de mensachtige logica van generatieve AI (zoals het veiligheidsfilter van ChatGPT) onder erbarmelijke omstandigheden door werkers in lagelonenlanden wordt gemaakt , , schat onderzoeksbureau Gartner dat binnen niet al te lange tijd het gigantische energieverbruik van AI-tools groter zal zijn dan dat van de wereldwijde menselijke beroepsbevolking tezamen en is er de ecologische schade die het trainen van dit soort software veroorzaakt. Dat laatste bestaat uit directe schade, zoals het verbruik van miljoenen liters water , en indirecte schade, door bijvoorbeeld de winning van zeldzame metalen om de voor generatieve AI benodigde hardware (GPU’s en TPU’s) te produceren. Voor een volledigere bespreking van dit alles verwijs ik naar mijn zesdelige essayreeks Welkom in de AI-fabriek voor Trouw en de gelijknamige podcast die ik voor BNR Nieuwsradio maakte.

Stel dat werknemers generatieve AI mogen of moeten gebruiken, zegt de werkgever daarmee dan achter al deze praktijken van de AI-bedrijven te staan? Net zoals bedrijven hun relatie met Big Oil heroverwegen vanwege het beleid dat deze bedrijven voeren, is het verstandig om de relatie met Big Tech op dezelfde manier te bekijken.

Reflectie

Het doel van dit betoog is om u te provoceren tot het beantwoorden van principiële vragen over de rol van generatieve AI binnen uw bedrijf. Uiteraard doet dit betoog geen recht aan de veelheid van onderwerpen die spelen als het gaat om het gebruik van deze software. Het dient als beginpunt voor een discussie over de positionering van uw bedrijf ten opzichte van deze technologie en haar leveranciers.

Dit is relevant, omdat er in de media en door Big Tech-bedrijven de indruk gewekt wordt dat generatieve AI de onvermijdelijke toekomst van de samenleving, het onderwijs en het werk is. Er zijn genoeg redenen om aan zulke claims te twijfelen , maar omdat een pr-campagne van dit formaat het wereldbeeld van werkgevers hoe dan ook beïnvloedt, is positionering ten opzichte van deze technologie vereist.

Mijn vraag aan u is daarom: zelfs als generatieve AI tot alles in staat zou zijn wat geclaimd wordt, leidt deze technologie dan werkelijk tot een werkomgeving die bevredigend is voor u en uw werknemers?

Foto van auteur Ilyaz Nasrullah voor zijn Essay - Impact AI op de arbeidsmarkt

Bio van auteur

Ilyaz Nasrullah is één van Nederlands meest vooraanstaande experts op het gebied van digitale technologie. Hij is een specialist op het gebied van kunstmatige intelligentie en mensgerichte technologie. Ilyaz gelooft in het nut en de noodzaak van innovatie, maar is ook kritisch op de stilzwijgende aanname dat alle innovatie per definitie vooruitgang betekent. Wat hem drijft is het verlangen om technologie op zo’n manier in te zetten dat het werkt voor iedereen.

In zijn dagelijks werk adviseert Ilyaz overheden, bedrijven, onderwijs- en onderzoeksinstellingen op het gebied van kunstmatige intelligentie, virtual en augmented reality en mensgerichte toepassingen van digitale technologie. Hij heeft onder andere gewerkt voor uiteenlopende organisaties als Eneco, Royal IHC, de gemeente Rotterdam, de TU Delft en de Hogeschool Rotterdam.

Ilyaz is de maker van de spraakmakende podcast en essayreeks ‘Welkom in de AI-fabriek’. Verder is hij bekend van zijn tegendraadse tech-columns in Trouw en zijn krachtige tv-, radio- en podcast-optredens bij onder andere Nieuwsuur, EenVandaag, NPO Radio 1 en BNR Nieuwsradio.

Bronnenlijst

  1. https://www.nrc.nl/nieuws/1984/06/21/informaticus-e-w-dijkstra-de-programmeurs-maken-er-een-rommeltje-van-kb_000027862-a3457994
  2. https://www.theatlantic.com/ideas/archive/2023/06/generative-artificial-intelligence-universities/674473/
  3. https://www.trouw.nl/onderwijs/hoe-moeilijk-is-de-rekentoets-voor-pabostudenten-dit-zijn-vragen-op-basisschoolniveau~b558c092/
  4. https://www.theguardian.com/commentisfree/2023/jul/14/ai-artificial-intelligence-disrupt-education-creativity-critical-thinking
  5. https://garymarcus.substack.com/p/reports-of-llms-mastering-math-have
  6. https://www.technologyreview.com/2023/03/14/1069823/gpt-4-is-bigger-and-better-chatgpt-openai/
  7. https://www.nytimes.com/2023/06/22/nyregion/lawyers-chatgpt-schwartz-loduca.html
  8. https://fd.nl/economie/1479626/chatgpt-nu-al-uitrollen-was-een-van-de-meest-onverantwoorde-dingen-van-de-voorbije-decennia
  9. https://www.theguardian.com/technology/2023/aug/09/google-says-ai-systems-should-be-able-to-mine-publishers-work-unless-companies-opt-out
  10. https://time.com/6247678/openai-chatgpt-kenya-workers/
  11. https://www.wsj.com/articles/chatgpt-openai-content-abusive-sexually-explicit-harassment-kenya-workers-on-human-workers-cf191483
  12. https://www.gartner.com/en/newsroom/press-releases/2022-10-18-gartner-unveils-top-predictions-for-it-organizations-and-users-in-2023-and-beyond
  13. https://arxiv.org/pdf/2304.03271.pdf
  14. https://www.trouw.nl/dossier/welkom-in-de-ai-fabriek/