Felienne Hermans over het AI-gesprek: niet alles wat technisch kan, is wenselijk
Op het gebied van AI is iedereen bang om de boot te missen. De belofte van slimmer, sneller en efficiënter werken is te aanlokkelijk om te negeren. Maar of het verstandig is om alles wat mogelijk is ook klakkeloos in te zetten, daar zet Felienne Hermans, hoogleraar Computer Science Education aan de Vrije Universiteit Amsterdam en docent informatica aan de Open Schoolgemeenschap Bijlmer, haar vraagtekens bij.
Tijdens Over de Vloer bij Mediahuis in Amsterdam, waar HR-verantwoordelijken uit verschillende organisaties hun inzichten, dilemma’s en worstelingen op het gebied van AI deelden, hield Hermans een beschouwende inleiding over de denkwereld achter algoritmes. Niet de techniek zelf stond centraal in haar betoog, maar de denkwereld erachter en de gevolgen daarvan voor werk, organisaties en samenleving.
Tijdens Over de Vloer bij Mediahuis in Amsterdam, waar HR-verantwoordelijken uit verschillende organisaties hun inzichten, dilemma’s en worstelingen op het gebied van AI deelden, hield Hermans een beschouwende inleiding over de denkwereld achter algoritmes. Niet de techniek zelf stond centraal in haar betoog, maar de denkwereld erachter en de gevolgen daarvan voor werk, organisaties en samenleving.

10 Takeaways van hoogleraar Felienne Hermans
Wat is de denkwereld achter AI en hoe kunnen bedrijven zich wapenen tegen de duistere kanten ervan?
- Technologie is nooit waardevrij
AI en algoritmes weerspiegelen altijd de aannames, normen en belangen van de mensen die ze ontwerpen. Wat als ‘objectief’ of ‘neutraal’ wordt gepresenteerd, draagt in werkelijkheid een specifieke wereldvisie met zich mee. Maak expliciet welke waarden leidend zijn bij de inzet van technologie. - Niet alles wat kan, draagt bij aan goed werk
De vraag of technologie beschikbaar is, is minder relevant dan de vraag of zij bijdraagt aan menswaardig, betekenisvol en gezond werk. Durf af te zien van toepassingen die wel efficiënt lijken, maar vakmanschap, autonomie of betrokkenheid uithollen. - Tempo is geen strategie
De druk om ‘de boot niet te missen’ verleidt organisaties tot meebewegen zonder richting. Maar wie snelheid verwart met vooruitgang, verliest regie. Bepaal eerst waar je naartoe wilt, kies daarna welke technologie daarbij past. - AI vermindert onzekerheid, maar niet per se werk
Veel AI-gebruik is ingegeven door onzekerheid: angst om fouten te maken, de juiste toon te missen of achter te blijven. Dat is iets anders dan echte productiviteitswinst. Maak prestatiedruk en onzekerheid bespreekbaar, om het risico te verkleinen dat ze verborgen worden achter technologie. - Meer output is niet automatisch meer waarde
AI kan individuen helpen sneller te produceren, maar dat betekent niet dat organisaties er beter van worden. Integendeel: collectieve kennis en kwaliteit kunnen erdoor verschralen. Stuur op langetermijnwaarde, niet op kortetermijnproductie. - Kritisch denken ontstaat door ervaring, niet door tools
Het vermogen om fouten, vertekeningen en onzin te herkennen groeit met jarenlange ervaring. Dat laat zich niet automatiseren. Bescherm leerprocessen, vooral bij jonge medewerkers. Efficiëntie mag leren niet verdringen. - Technologie mag geen afstand creëren tussen mensen
Het plaatsen van systemen tussen leidinggevenden, HR en medewerkers verzwakt relaties en vertrouwen. Zet technologie in ter ondersteuning van het gesprek, nooit als vervanging ervan. - AI versterkt bestaande ongelijkheden
Omdat AI leert van het verleden, reproduceert en vergroot zij bestaande stereotypen en machtsverhoudingen. Ga de ongemakkelijke gesprekken over bias, inclusie en representatie niet uit de weg. Ze zijn onvermijdelijk en noodzakelijk. - Verantwoord experimenteren vraagt discipline
Zonder duidelijke doelen, meetpunten en stopcriteria is ‘experimenteren’ vooral spelen.
Technologische vernieuwing vereist dezelfde zorgvuldigheid als menselijk beleid. - Regie houden is een leiderschapstaak
Laat AI niet ‘gewoon gebeuren’. Niet kiezen is ook kiezen. Verantwoordelijkheid nemen betekent richting geven, ook als dat betekent dat je niet meebeweegt met de rest.
De boot missen? Of de verkeerde boot nemen
Hermans fileert de dominante reflex in organisaties om vooral mee te bewegen met technologische ontwikkelingen. “We moeten de boot niet missen,” is een veelgehoorde uitspraak. Maar juist die formulering problematiseert ze. Want volgens haar wordt zelden de vervolgvraag gesteld: waar gaat die boot eigenlijk naartoe, en van wie is die boot?
In dat kader wijst zij op de politieke en economische machtsstructuren achter technologie. Tijdens de inauguratie van Donald Trump stonden niet toevallig verschillende techmiljardairs op de voorste rij. Voor Hermans benadrukt dat één punt: technologie is geen neutrale kracht. Achter algoritmes zitten belangen, ideologieën en keuzes. Soms is het verstandiger om niet op elke boot te springen en bewust te kiezen voor een andere koers.
Wat menselijk, relationeel of contextueel is, zoals gesprekken voeren, ervaringen begrijpen, betekenis duiden, wordt sneller gezien als ‘makkelijk’ en krijgt minder waardering. Die hiërarchie werkt door in de technologie die wordt gebouwd: grootschalig, abstract en moeilijk uitlegbaar. En vaak losgezongen van de menselijke werkelijkheid waarin die technologie terechtkomt.
Dat verklaart volgens haar waarom techmakers zich regelmatig terugtrekken achter het argument: “Wij maken alleen de technologie; wat mensen ermee doen, is niet ons probleem.” In de praktijk hebben algoritmes echter directe invloed op verkiezingen, publieke opinie, werkdruk, inclusie en veiligheid.
Haar boodschap is helder: laat je niet wijsmaken dat je het niet kunt begrijpen. Taalmodellen zijn statistische systemen die patronen voorspellen, geen morele of betrouwbare oordeelsvormers. Voor organisaties betekent dit dat ze niet moeten terugschrikken voor technologie, maar wel verantwoordelijkheid moeten nemen voor de context waarin die wordt ingezet.
Hermans waarschuwt dat dit gevolgen heeft voor onderwijs, journalistiek en werk. Wanneer iedereen met eigen gegenereerde beelden, teksten en ‘feiten’ werkt, ontstaat versnippering van de werkelijkheid. Dat vraagt om extra waakzaamheid, niet om verdere automatisering.
Juist in tijden van onzekerheid en verandering is directe verbinding essentieel. AIs een digitaal schot bedoeld is om frictie te vermijden, kan dat er ongemerkt toe leiden dat noodzakelijke gesprekken helemaal niet meer worden gevoerd.
Voor verantwoordelijken betekent dit een actieve rol: richting geven, leren beschermen en waarden expliciet maken. Niet door tempo te bepalen, maar door koers te kiezen.
Wie regie wil houden, moet durven vertragen, vragen stellen en soms bewust níet meebewegen. Dat is geen rem op innovatie, maar een voorwaarde voor verantwoord en toekomstbestendig werk.
In dat kader wijst zij op de politieke en economische machtsstructuren achter technologie. Tijdens de inauguratie van Donald Trump stonden niet toevallig verschillende techmiljardairs op de voorste rij. Voor Hermans benadrukt dat één punt: technologie is geen neutrale kracht. Achter algoritmes zitten belangen, ideologieën en keuzes. Soms is het verstandiger om niet op elke boot te springen en bewust te kiezen voor een andere koers.
De denkwereld van informatici
Om te begrijpen hoe AI zich ontwikkelt, moeten we volgens Hermans kijken naar de cultuur van de informatica zelf. In dat vakgebied leveren vooral moeilijke, complexe en technisch indrukwekkende oplossingen status op. Ze noemt dat treffend ‘digitale spierballen’: laten zien wat je kunt, los van de vraag of het maatschappelijk waardevol is.Wat menselijk, relationeel of contextueel is, zoals gesprekken voeren, ervaringen begrijpen, betekenis duiden, wordt sneller gezien als ‘makkelijk’ en krijgt minder waardering. Die hiërarchie werkt door in de technologie die wordt gebouwd: grootschalig, abstract en moeilijk uitlegbaar. En vaak losgezongen van de menselijke werkelijkheid waarin die technologie terechtkomt.
Wetenschap is niet neutraal
Een belangrijk inzicht uit Hermans’ verhaal is dat informaticaopleidingen nauwelijks aandacht besteden aan vragen als: hoe komt kennis tot stand, wie bepaalt wat belangrijk is en wie draagt verantwoordelijkheid voor de gevolgen? Waar andere technische disciplines expliciet reflecteren op methodologie, ethiek en regelgeving, ontbreekt die reflectie vaak in de informatica.Dat verklaart volgens haar waarom techmakers zich regelmatig terugtrekken achter het argument: “Wij maken alleen de technologie; wat mensen ermee doen, is niet ons probleem.” In de praktijk hebben algoritmes echter directe invloed op verkiezingen, publieke opinie, werkdruk, inclusie en veiligheid.
Complexiteit als machtsmiddel
Hermans laat zien dat de complexiteit van AI niet alleen een technisch gegeven is, maar ook een machtsmiddel. Hoe ingewikkelder systemen worden gepresenteerd, hoe lastiger het wordt om er kritische vragen over te stellen. De suggestie dat AI kan ‘denken’ of ‘begrijpen’, helpt daarbij.Haar boodschap is helder: laat je niet wijsmaken dat je het niet kunt begrijpen. Taalmodellen zijn statistische systemen die patronen voorspellen, geen morele of betrouwbare oordeelsvormers. Voor organisaties betekent dit dat ze niet moeten terugschrikken voor technologie, maar wel verantwoordelijkheid moeten nemen voor de context waarin die wordt ingezet.
De wereld laat zich niet vangen in waar of niet waar
Een terugkerend thema in de inleiding is het spanningsveld tussen binaire logica en menselijke werkelijkheid. Waar informatica uitblinkt in ja-nee-antwoorden, is de echte wereld ambigu, gelaagd en contextafhankelijk. Dat wordt problematisch wanneer AI wordt ingezet voor taal, beeld en betekenis. In deze domeinen is waarheid niet altijd eenduidig.Hermans waarschuwt dat dit gevolgen heeft voor onderwijs, journalistiek en werk. Wanneer iedereen met eigen gegenereerde beelden, teksten en ‘feiten’ werkt, ontstaat versnippering van de werkelijkheid. Dat vraagt om extra waakzaamheid, niet om verdere automatisering.
Menselijke verbinding onder druk
Hermans waarschuwt voor het plaatsen van technologie tussen mensen. Systemen die gesprekken vervangen, bijvoorbeeld tussen leidinggevenden en medewerkers, ondermijnen vertrouwen en relatie. Technologie kan ondersteunen, structureren of voorbereiden, maar mag het menselijke gesprek niet vervangen.Juist in tijden van onzekerheid en verandering is directe verbinding essentieel. AIs een digitaal schot bedoeld is om frictie te vermijden, kan dat er ongemerkt toe leiden dat noodzakelijke gesprekken helemaal niet meer worden gevoerd.
Niet tegen technologie, wel voor verantwoordelijkheid
Hermans’ verhaal is geen pleidooi tegen AI, maar tegen gedachteloos meebewegen. De kern van haar betoog: niet alles wat technisch mogelijk is, draagt bij aan goed werk of een gezonde organisatie. Experimenteren mag, maar alleen met duidelijke doelen, meetpunten en stopcriteria. Zonder die discipline is experimenteren vooral spelen.Voor verantwoordelijken betekent dit een actieve rol: richting geven, leren beschermen en waarden expliciet maken. Niet door tempo te bepalen, maar door koers te kiezen.
Conclusie: duurzaam werkgeverschap vraagt regie
De inleiding van Felienne Hermans laat zien dat AI geen IT-vraagstuk is, maar een leiderschapsvraag. Duurzaam werkgeverschap vraagt om organisaties die niet worden voortgedreven door wat technisch kan, maar door wat menselijk wenselijk is.Wie regie wil houden, moet durven vertragen, vragen stellen en soms bewust níet meebewegen. Dat is geen rem op innovatie, maar een voorwaarde voor verantwoord en toekomstbestendig werk.