Het HR-AI-gesprek: tussen regie en realiteit

HR Directie in gesprek over HR leiderschap in AI. Met inzichten over HR Leiderschap: HR bepaalt koers, niet tempo

Niet alles wat kan, moet

AI is in organisaties geen toekomstvraag meer, maar een deel van de dagelijkse praktijk van HR-verantwoordelijken. Zij hebben te maken met medewerkers die ermee werken, managers die resultaten verwachten en bestuurders die tempo willen maken. Tijdens Over de Vloer bij Mediahuis in Amsterdam, deelden HR-professionals uit verschillende organisaties hun inzichten, dilemma’s en worstelingen op dit gebied.

De centrale vraag die op tafel lag: wat betekenen de nieuwe technologische mogelijkheden voor werk, mensen en leiderschap?

Take-aways uit de discussie HR-Directeuren

  1. HR draagt de gevolgen van AI, maar zit nog te weinig aan het stuur.
  2. AI levert niet automatisch tijdwinst op en vergroot soms juist de werkdruk.
  3. Medewerkers gebruiken AI al, vaak sneller dan het beleid kan bijbenen.
  4. Verbieden voelt veilig, maar duwt het gebruik vooral ondergronds.
  5. AI versterkt bestaande verschillen als ondersteuning ontbreekt.
  6. Wat kwaliteit, vakmanschap en leren opleveren, laat zich lastig meten. Het is daardoor niet meteen zichtbaar wat je verliest door de inzet van AI.
  7. Experimenteren zonder duidelijke doelen en stopcriteria is riskant.
  8. Verantwoord experimenteren begint klein, gecontroleerd en dataveilig.
  9. Richting geven betekent ook: bewust besluiten wat je níét doet.

Regie is meer dan beslissen

Een terugkerend thema in het gesprek is dat regie in de praktijk anders voelt dan in theorie. HR wordt vaak aangesproken op de ethische en menselijke gevolgen van AI, terwijl de keuzes over technologie elders in de organisatie worden gemaakt. “De technologie komt ergens anders binnen, maar de gevolgen landen bij ons.” Dat besef maakt regie noodzakelijk, maar niet vanzelfsprekend.

In de dagelijkse praktijk schuurt dat met andere perspectieven, met name vanuit IT en business, waar technische haalbaarheid, veiligheid en schaalbaarheid leidend zijn. Die logica’s schuiven niet automatisch in elkaar. Daarbij speelt voor HR regelmatig een drempel: de vrees om de technologie niet volledig te doorgronden. Dat gevoel maakt het lastiger om kritisch te zijn of richting te geven. Tegelijkertijd groeit het besef dat niet kiezen óók een keuze is. Door geen positie in te nemen, ontstaat impliciet een koers waarin snelheid en efficiëntie leidend worden, en menselijke afwegingen pas achteraf worden ingebracht.

Daarbij komt dat terughoudendheid zich soms vertaalt in verbieden. “Een verbod voelt veilig, maar lost weinig op.” In het gesprek leeft breed het besef dat verbieden het gebruik vooral ondergronds duwt. Juist daarmee verdwijnen leerervaringen en het gezamenlijke gesprek over normen, terwijl medewerkers ondertussen wel blijven experimenteren, individueel en ongezien.

Jongeren: vaardig, maar nog lerend in oordeelsvorming

In het gesprek komt de rol van jonge medewerkers nadrukkelijk naar voren. Zij bewegen zich vaak moeiteloos door nieuwe technologieën en pakken AI-tools snel op. Die vaardigheid wordt echter regelmatig verward met kritisch vermogen. Terwijl juist dat laatste zich pas ontwikkelt door ervaring: door fouten te maken, context te leren lezen en de gevolgen van keuzes te overzien.

“Ze weten vaak precies welke knop ze moeten indrukken, maar nog niet wanneer ze dat beter niet kunnen doen,” merkt iemand op. Omdat technologie professioneel oogt en stellig communiceert, ontstaat al snel de aanname dat het resultaat wel zal kloppen. Zeker wanneer alles efficiënt moet, blijft er weinig ruimte om te leren hoe het werk écht in elkaar zit.

Daarbij speelt ongelijkheid een rol. Niet iedereen beschikt over dezelfde taalvaardigheid, digitale vaardigheden of hetzelfde zelfvertrouwen. “Wie al sterk is, profiteert het meest.” Zonder begeleiding en ondersteuning kan AI bestaande verschillen tussen medewerkers versterken in plaats van verkleinen. Het gesprek benadrukt dat organisaties hier een verantwoordelijkheid hebben: zorgen dat experimenteren niet alleen is weggelegd voor wie al vooroploopt.

Wanneer technologie tussen mensen in komt te staan

In het gesprek wordt ook stilgestaan bij het risico van taalmodellen als tussenschakel tussen bestuur, HR en medewerkers. Wat begint als ondersteuning, kan ongemerkt afstand creëren. “Je krijgt teksten die netjes zijn, maar waar niemand zich echt in herkent.”

De neiging om frictie te vermijden is begrijpelijk, maar juist die frictie is vaak betekenisvol. Als boodschappen eerst worden gladgestreken, verdwijnt zicht op waar het schuurt. Daarmee vervaagt ook verantwoordelijkheid: wie spreekt er eigenlijk? Bestuurders riskeren dat hun stem anoniemer wordt, medewerkers dat hun reactie wordt geïnterpreteerd in plaats van gehoord. Het gesprek maakt duidelijk dat taalmodellen kunnen helpen bij voorbereiding of reflectie, maar problematisch worden zodra zij het gesprek zelf vervangen. Vertrouwen ontstaat niet uit perfecte formuleringen, maar uit herkenbaarheid en direct contact.

Weten waarom je experimenteert

Het gesprek eindigt bij de vraag waar AI in organisaties eigenlijk voor dient. Zonder helder doel dreigt technologie een oplossing te worden op zoek naar een probleem. “Als je niet weet wat je wilt verbeteren, weet je ook niet of het werkt.” Tegelijkertijd is de angst om fouten te maken geen reden om stil te blijven staan.

In het gesprek klinkt ook zorg over wat onderweg verdwijnt. “Hoe stuur je op kwaliteit als alles om snelheid draait?” Vakmanschap, leren door fouten maken en informele kennisdeling laten zich lastig meten, maar vormen wel de kern van duurzaam werk. Wanneer sturing vooral plaatsvindt op output en efficiëntie, komen juist deze waarden ongemerkt onder druk te staan.

Juist kleine, gerichte experimenten maken leren mogelijk, mits ze plaatsvinden binnen duidelijke kaders. Dat vraagt om expliciete doelen, evaluatiemomenten en stopcriteria. Ook beveiliging en datagebruik spelen daarbij een cruciale rol. Experimenteren betekent niet dat alles meteen open moet of dat gevoelige informatie mag zwerven. Door vooraf vast te leggen welke data wel en niet worden gebruikt, wie toegang heeft en hoe resultaten worden beoordeeld, behouden organisaties regie. Verantwoord experimenteren blijkt daarmee geen rem op innovatie, maar een voorwaarde om technologie in dienst te laten staan van mens en werk.