Het nummer dat elke HR-directeur zou moeten alarmeren
Hier is het: volgens een studie over 47 landen, 57% van de werknemers geeft toe dat ze verborgen houden hoe ze AI op het werk gebruiken.
Andere studies schatten het iets lager uit. EEN Cornerstone OnDemand-rapport gevonden 48,8% van werknemers die hun AI-gebruik verbergen. EEN Enquête van Security Magazine zet het op 32%. In elke methodologie, in elk land is de bevinding consistent: een aanzienlijk deel van uw personeel gebruikt AI en vertelt het u niet.
De twist die dit echt interessant maakt: 53,4% van de C-suite-leiders verbergt ook hun eigen AI-gebruik, ondanks dat ze de meest frequente gebruikers zijn. De mensen die de toon zetten, verbergen hetzelfde waarover ze verwachten dat hun teams transparant zijn.
Dit is geen randprobleem. Het is structureel.
De Sparagus las: Wanneer werknemers verbergen hoe ze werken, verliezen organisaties het zicht op wat er werkelijk op de grond gebeurt. Je kunt niet meten wat je niet kunt zien. Je kunt niet verbeteren wat je niet weet dat er is. En je kunt zeker geen samenhangende AI-strategie bouwen bovenop een cultuur waarin mensen het gevoel hebben dat ze in het geheim moeten werken.
Waarom werknemers hun gebruik verbergen (het is niet wat je denkt)
De instinctieve verklaring voor AI-schaamte is angst: werknemers zijn bang om als lui gezien te worden, of om vervangen te worden door de tools die ze gebruiken. Dat verhaal is duidelijk en intuïtief. Het is ook grotendeels verkeerd.
Onderzoek wijst steeds op een andere hoofdoorzaak: gebrek aan opleiding en onduidelijk beleid.
Volgens Analyse van HR Dive, zwijgen werknemers vooral omdat ze zich niet uitgerust voelen. Ze hebben zichzelf geleerd om tools zoals ChatGPT of Claude te gebruiken door middel van vallen en opstaan, zonder goedkeuring van de organisatie, zonder richtlijnen en zonder te weten of wat ze doen goedgekeurd is. In die context is zwijgen de rationele keuze.
62,6% van de Gen Z-werknemers hebben hun werk voltooid met behulp van AI en het als geheel eigen werk gepresenteerd. Dat is geen vertrouwen in hun AI-vaardigheden. Dat is angst om beoordeeld te worden omdat je ze gebruikt.
De AI-enquête van EY Agency ontdekte dat een meerderheid van de werknemers echt enthousiast is over AI en er meer gebruik van wil maken. Wat ze blokkeert is geen weerstand. Het is een gebrek aan communicatie van het leiderschap en een gebrek aan praktische begeleiding om dit in hun eigenlijke werk te integreren.
De Sparagus las: De acceptatie van AI in de meeste organisaties faalt niet omdat werknemers resistent zijn. Het mislukt omdat werkgevers de tools hebben gekocht en de uitrol hebben overgeslagen. Je kunt niet van mensen verwachten dat ze iets met vertrouwen adopteren als je ze niet hebt verteld waar het voor is, hoe je het op de juiste manier gebruikt, of dat het zelfs in hun rol wordt gesanctioneerd. De stilte van medewerkers is feedback. Er wordt gewoon niet naar geluisterd.
De opleidingskloof is groter dan de meeste bedrijven zich realiseren
Als er één nummer in dit hele debat is dat aanleiding zou moeten geven tot onmiddellijke actie, dan is het wel deze:
Alleen 7,5% van de werknemers hebben een uitgebreide training gevolgd met AI-tools. Dat cijfer is vrijwel identiek aan het jaar daarvoor, toen het 7,0% was. Een jaar van wijdverbreide toepassing van AI en de penetratie van opleidingen is met een half procentpunt gestegen.
Het wordt nog erger. Van de werknemers die een AI-training hebben gevolgd, 85% kan het niet toepassen op hun eigenlijke werk. De training die er is, is te algemeen, te theoretisch en staat te los van de specifieke taken die mensen elke dag uitvoeren.
Alleen 44% van de Amerikaanse werknemers heb überhaupt een AI-training gevolgd. In een periode waarin AI-tools in elke sector worden uitgerold, betekent dit dat de meerderheid van de beroepsbevolking deze verschuiving volledig op eigen houtje doormaakt.
Het resultaat is een verborgen adoptielaag: werknemers die AI informeel gebruiken, zonder kader, zonder kwaliteitscontrole en zonder dat de organisatie leert van wat werkt. Elke dag die voorbijgaat zonder gestructureerde ondersteuning, is een dag van gemiste kansen.
De Sparagus las: Bedrijven geven geld uit aan licenties en infrastructuur. Ze geven niet proportioneel geld uit aan mensen. Die onbalans is geen budgetkwestie. Het is een vraag om prioriteiten te stellen. Een organisatie die AI-tools inzet zonder training, bouwt op zand. De productiviteitsstijging, de kwaliteitsverbeteringen, het concurrentievoordeel: het hangt allemaal af van mensen die weten hoe ze de tools goed moeten gebruiken. Dat gebeurt niet door osmose.
De managervariabele: één ding dat alles verandert
Gallup's onderzoek identificeert de sterkste voorspeller van AI-adoptie binnen een team: of de manager het gebruik van AI actief onderschrijft en modelleert.
Wanneer managers AI ondersteunen, bereikt de teamadoptie 79%. Zonder die ondersteuning: 34%. Dat is een schommeling van 45 procentpunten, aangedreven door één variabele.
Deze bevinding heeft een directe implicatie dat de meeste AI-strategieën negeren: het middenkader is de cruciale hefboom, niet de aankondiging van de C-suite, niet de presentatie uit alle handen, niet het selectieproces van de tool. Als managers zelf AI niet gebruiken, dit openlijk demonstreren en ruimte creëren voor hun teams om te experimenteren, stopt de adoptie, ongeacht wat er aan de top wordt beslist.
Het AI at Work 2025-rapport van BCG sluit hierop aan: 42% van de leidinggevenden zeggen dat generatieve AI-adoptie zorgt voor spanning en verdeeldheid in hun organisatie. Het grootste deel van die spanning zit in de middenlagen, waar de transformatie het meest ontwrichtend is en waar investeringen in verandermanagement meestal afwezig zijn.
De Sparagus las: Als je wilt weten waarom je AI-uitrol niet aan kracht wint, kijk dan naar je managers. Niet of ze het initiatief hebben goedgekeurd, maar of ze de tools zelf gebruiken, of ze er openlijk over praten met hun teams en of ze psychologische veiligheid creëren voor experimenten en mislukkingen. AI-adoptie is eerder een probleem met leiderschapsgedrag dan een technologieprobleem.
De dimensie van gegevensprivacy: een echte beperking, geen excuus
Er is nog een derde factor die de oorzaak is van verborgen AI-gebruik en die het verdient om serieus te worden genomen in plaats van te worden afgewezen: echte zorgen over gegevensprivacy.
Veel werknemers werken met gevoelige informatie: klantgegevens, interne financiële cijfers, persoonlijke dossiers. Ze weten echt niet of het veilig is om die gegevens in een AI-tool in te voeren. Bij gebrek aan een duidelijk bedrijfsbeleid is de voorzichtige keuze om ofwel geen gebruik te maken van AI, ofwel om het stilletjes te gebruiken met geanonimiseerde of gewijzigde gegevens.
Dit is geen irrationeel gedrag. Volgens de AI-wet van de EU, met verplichtingen voor Belgische bedrijven vóór augustus 2026, en onder de GDPR, zijn er legitieme vragen over waar gegevens naartoe gaan wanneer ze een AI-systeem van derden binnenkomen. De het wet- en regelgevingslandschap rond AI in de werkgelegenheid evolueert snel, en werknemers die zonder begeleiding werken, zijn terecht voorzichtig.
Het probleem is dat de meeste organisaties deze vragen niet voor hun mensen hebben beantwoord. Er is geen lijst met goedgekeurde tools. Geen richtlijnen voor gegevensclassificatie. Geen duidelijke grens tussen „gebruik dit vrij” en „plaats hier nooit klantgegevens”.
De Sparagus las: Een duidelijk, praktisch AI-gebruiksbeleid is geen conformiteitsformaliteit. Het is een activeringsdocument. Het vertelt werknemers wat ze kunnen gebruiken, hoe en met welke gegevens. Zonder dit systeem houden de voorzichtige mensen zich terug en nemen de minder voorzichtige risico's die tot echte aansprakelijkheid zouden kunnen leiden. Beide uitkomsten zijn slecht. Het schrijven van dat beleid is een van de belangrijkste dingen die een HR- of juridisch team op dit moment kan doen.
Hoe goed er eigenlijk uitziet
De organisaties die dit goed doen, hebben een aantal consistente kenmerken gemeen.
- Ze hebben een genoemd AI-beleid waarin goedgekeurde tools, acceptabele gebruikssituaties en regels voor gegevensverwerking worden gespecificeerd. Het is toegankelijk, leesbaar en wordt bijgewerkt naarmate het landschap verandert.
- Hun managers modelleren adoptie zichtbaar. Het gebruik van AI gebeurt niet achter gesloten deuren. Senioren praten openlijk over hoe ze tools gebruiken, wat werkt, wat niet, en wat ze nog aan het uitzoeken zijn.
- De training is rolspecifiek, niet generiek. In plaats van een uur een overzicht te krijgen van wat grote taalmodellen zijn, investeren ze erin een marketingteam te laten zien hoe ze AI kunnen gebruiken voor inhoudelijke briefings, of een financieel team hoe ze rapportageworkflows kunnen automatiseren. Praktisch, toegepast, meteen bruikbaar.
- Ze meten wat er gebeurt. Ze weten welke teams welke tools gebruiken, hoe vaak en met welk effect. Ze beschouwen de acceptatie van AI als een bedrijfsmaatstaf, niet als een aanname.
Dit zijn geen complexe of dure ingrepen. Ze gaan vooral over intentionaliteit en communicatie.
In het kort
Het AI-schaamteprobleem is een symptoom van een veel eenvoudiger onderliggend probleem: de meeste organisaties lanceerden AI-tools zonder de culturele en opleidingsinfrastructuur te lanceren die nodig was om ze te ondersteunen. Het resultaat is een personeelsbestand dat voorloopt op wat het management denkt dat het is, waarbij ze hulpmiddelen gebruiken die ze niet hebben aangeleerd, op manieren die ze niet hebben begeleid, en zich daarover niet houden.
De kosten zijn niet alleen ongerealiseerde productiviteit. Het is het grootste nadeel van een organisatie die niet weet wat haar mensen eigenlijk doen, er niet van kan leren en het niet kan verbeteren.
De oplossing is niet geavanceerd. Het vereist een duidelijk beleid, zichtbaar leiderschap, rolspecifieke training en managers die worden vertrouwd om de verandering door te voeren. De bedrijven die de komende 12 maanden in deze vier dingen investeren, zullen meetbaar voorlopen op bedrijven die dat niet doen.