Le problème honteux de l'IA : pourquoi vos employés utilisent l'IA en secret

Plus de la moitié de vos employés utilisent l'IA au travail sans vous en parler. Voici ce qui le motive, ce que cela coûte à votre organisation et ce qu'il faut faire pour y remédier.

April 20, 2026
Purple Elipse - Sparagus
9 min de lecture

Résumé de l'article en 30 secondes

La majorité des employés du monde entier utilisent des outils d'IA au travail sans en informer leurs responsables. Ce phénomène, de plus en plus appelé « honte de l'IA », n'est pas principalement dû à l'embarras. Cela est dû à un déficit de formation si important que la plupart des employés n'ont pas la confiance nécessaire pour utiliser ouvertement les outils qu'ils ont découverts par eux-mêmes. Dans le même temps, les entreprises investissent dans l'infrastructure de l'IA tout en sous-investissant dans les personnes censées l'utiliser. Cet article explique ce que montrent les données, pourquoi c'est plus important que ne le pensent la plupart des équipes de direction et ce que les organisations doivent faire différemment.

Le numéro qui devrait alerter chaque directeur des ressources humaines

La voici : selon une étude portant sur 47 pays, 57 % des employés admettent avoir dissimulé la manière dont ils utilisent l'IA au travail.

D'autres études le situent légèrement en dessous. UNE Rapport Cornerstone OnDemand trouvé 48,8 % des employés cachant leur utilisation de l'IA. UNE Sondage réalisé par Security Magazine le situait à 32 %. Quelle que soit la méthodologie et le pays, le résultat est constant : une proportion importante de votre personnel utilise l'IA sans vous le dire.

La tournure qui rend cela vraiment intéressant : 53,4 % des cadres dirigeants cachent également leur propre utilisation de l'IA, bien qu'ils soient les utilisateurs les plus fréquents de tous. Les personnes qui donnent le ton cachent les mêmes choses sur lesquelles elles attendent de leurs équipes qu'elles fassent preuve de transparence.

Il ne s'agit pas d'un problème marginal. C'est une question structurelle.

Le Sparagus disait : Lorsque les employés cachent leur façon de travailler, les organisations perdent en visibilité sur ce qui se passe réellement sur le terrain. Vous ne pouvez pas mesurer ce que vous ne pouvez pas voir. Vous ne pouvez pas améliorer ce dont vous ignorez l'existence. Et vous ne pouvez certainement pas élaborer une stratégie d'IA cohérente sur la base d'une culture dans laquelle les gens ressentent le besoin de travailler en secret.

Pourquoi les employés cachent leur utilisation (ce n'est pas ce que vous pensez)

L'explication instinctive de la honte de l'IA est la peur : les employés ont peur d'être considérés comme paresseux ou d'être remplacés par les outils qu'ils utilisent. Ce récit est clair et intuitif. C'est également largement faux.

Les recherches mettent constamment en évidence une cause fondamentale différente : manque de formation et politiques peu claires.

D'après L'analyse de HR Dive, les employés gardent le silence principalement parce qu'ils ne se sentent pas équipés. Ils ont appris eux-mêmes à utiliser des outils tels que ChatGPT ou Claude par essais et erreurs, sans approbation de l'organisation, sans directives et sans savoir si ce qu'ils faisaient était approuvé. Dans ce contexte, rester silencieux est le choix rationnel.

62,6 % des travailleurs de la génération Z ont réalisé des travaux utilisant l'IA et les ont présentés comme étant entièrement les leurs. Ce n'est pas une question de confiance dans leurs compétences en IA. C'est l'angoisse d'être jugé pour les avoir utilisés.

Le Sondage EY Agentic AI a constaté qu'une majorité de travailleurs sont réellement enthousiasmés par l'IA et souhaitent l'utiliser davantage. Ce n'est pas la résistance qui les bloque. C'est un manque de communication de la part des dirigeants et un manque de conseils pratiques sur la manière de l'intégrer dans leur travail réel.

Le Sparagus disait : L'adoption de l'IA dans la plupart des organisations n'est pas un échec en raison de la résistance des employés. C'est un échec parce que les employeurs ont acheté les outils et n'ont pas procédé au déploiement. Vous ne pouvez pas vous attendre à ce que les gens adoptent quelque chose en toute confiance si vous ne leur avez pas dit à quoi cela sert, comment l'utiliser correctement, ou si cela est même sanctionné dans leur rôle. Le silence des employés est un feedback. C'est juste qu'on ne l'entend pas.

Le déficit de formation est pire que ne le pensent la plupart des entreprises

S'il y a un chiffre dans tout ce débat qui devrait inciter à une action immédiate, c'est celui-ci :

Uniquement 7,5 % des employés ont reçu une formation approfondie avec les outils d'IA. Ce chiffre est presque identique à celui de l'année précédente, où il était de 7,0 %. Une année d'adoption généralisée de l'IA et le taux de pénétration de la formation ont augmenté d'un demi-point de pourcentage.

La situation ne fait qu'empirer. Parmi les employés qui ont reçu une formation en matière d'IA, 85 % ne peuvent pas l'appliquer à leur emploi actuel. La formation qui existe est trop générique, trop théorique et trop déconnectée des tâches spécifiques que les gens accomplissent au quotidien.

Uniquement 44 % des employés américains ont reçu une quelconque formation en matière d'IA. À une époque où les outils d'IA sont déployés dans tous les secteurs, cela signifie que la majorité de la main-d'œuvre fait face à cette évolution de manière entièrement autonome.

Il en résulte une couche d'adoption cachée : des employés qui utilisent l'IA de manière informelle, sans cadre, sans contrôle qualité et sans aucun apprentissage organisationnel de ce qui fonctionne. Chaque jour qui passe sans mise en place structurée est une journée pleine d'opportunités manquées.

Le Sparagus disait : Les entreprises dépensent en licences et en infrastructures. Ils ne dépensent pas proportionnellement pour les personnes. Ce déséquilibre n'est pas une question budgétaire. C'est une question de priorisation. Une organisation qui déploie des outils d'IA sans formation s'appuie sur du sable. Les gains de productivité, l'amélioration de la qualité, l'avantage concurrentiel : tout dépend de personnes qui savent bien utiliser les outils. Cela ne se produit pas par osmose.

La variable manager : une chose qui change tout

Les recherches de Gallup identifie le meilleur indicateur de l'adoption de l'IA au sein d'une équipe : si le manager approuve activement et modélise l'utilisation de l'IA.

Lorsque les managers soutiennent l'IA, l'adoption par les équipes atteint 79 %. Sans ce soutien : 34 %. Il s'agit d'une variation de 45 points de pourcentage due à une variable.

Cette découverte a une implication directe que la plupart des stratégies d'IA ignorent : le management intermédiaire est le levier essentiel, pas l'annonce de la direction, ni la présentation générale, ni le processus de sélection des outils. Si les managers n'utilisent pas eux-mêmes l'IA, ne la démontrent pas ouvertement et ne créent pas d'espace permettant à leurs équipes d'expérimenter, l'adoption stagne, quelle que soit la décision prise au sommet.

Rapport du BCG sur l'IA au travail 2025 se connecte à ceci : 42 % des cadres affirment que l'adoption générative de l'IA crée des tensions et des divisions au sein de leur organisation. La majeure partie de cette tension se situe dans les couches intermédiaires, là où la transformation est la plus perturbatrice et où les investissements dans la gestion du changement sont le plus souvent absents.

Le Sparagus disait : Si vous voulez savoir pourquoi le déploiement de votre IA ne gagne pas en popularité, consultez vos responsables. Il ne s'agit pas de savoir s'ils ont approuvé l'initiative, mais s'ils utilisent les outils eux-mêmes, s'ils en parlent ouvertement avec leurs équipes et s'ils créent une sécurité psychologique en cas d'expérimentation et d'échec. L'adoption de l'IA est un problème de comportement des dirigeants avant d'être un problème technologique.

La dimension de confidentialité des données : une véritable contrainte, pas une excuse

Il existe un troisième facteur à l'origine de l'utilisation cachée de l'IA qui mérite d'être pris au sérieux plutôt que d'être ignoré : les véritables préoccupations en matière de confidentialité des données.

De nombreux employés travaillent avec des informations sensibles : données clients, chiffres financiers internes, dossiers personnels. Ils ne savent vraiment pas s'il est possible de saisir ces données en toute sécurité dans un outil d'IA. En l'absence d'une politique d'entreprise claire, le choix prudent consiste soit à ne pas utiliser l'IA, soit à l'utiliser discrètement avec des données anonymisées ou modifiées.

Il ne s'agit pas d'un comportement irrationnel. En vertu de la loi européenne sur l'IA, qui impose des obligations aux entreprises belges avant août 2026, et du RGPD, des questions légitimes se posent quant à la destination des données lorsqu'elles entrent dans un système d'IA tiers. Le le paysage juridique et réglementaire de l'IA en matière d'emploi évolue rapidement, et les employés qui travaillent sans directives ont raison de faire preuve de prudence.

Le problème est que la plupart des organisations n'ont pas répondu à ces questions pour leurs employés. Il n'existe aucune liste d'outils approuvée. Aucune directive de classification des données. Il n'y a pas de frontière claire entre « utilisez-le librement » et « ne mettez jamais les données des clients ici ».

Le Sparagus disait : Une politique d'utilisation de l'IA claire et pratique n'est pas une formalité de conformité. C'est un document d'habilitation. Il indique aux employés ce qu'ils peuvent utiliser, comment et avec quelles données. Sans cela, les plus prudents se retiennent et les moins prudents prennent des risques qui pourraient créer une véritable responsabilité. Les deux résultats sont mauvais. La rédaction de cette politique est l'une des tâches les plus efficaces qu'une équipe des ressources humaines ou juridiques puisse faire à l'heure actuelle.

À quoi ressemble réellement le bien

Les organisations qui font les choses correctement partagent quelques caractéristiques cohérentes.

  • Ils ont une politique d'IA nommée qui spécifie les outils approuvés, les cas d'utilisation acceptables et les règles de traitement des données. Il est accessible, lisible et mis à jour en fonction de l'évolution du paysage.
  • Leurs managers modélisent l'adoption de manière visible. L'utilisation de l'IA ne se fait pas à huis clos. Les personnes âgées parlent ouvertement de la façon dont elles utilisent les outils, de ce qui fonctionne, de ce qui ne fonctionne pas et de ce qu'elles sont encore en train de découvrir.
  • La formation est spécifique au rôle et non générique. Au lieu d'avoir un aperçu d'une heure de ce que sont les grands modèles linguistiques, ils s'attachent à montrer à une équipe marketing comment utiliser l'IA pour les résumés de contenu, ou à une équipe financière comment automatiser les flux de production de rapports. Pratique, appliqué, immédiatement utile.
  • Ils mesurent ce qui se passe. Ils savent quelles équipes utilisent quels outils, à quelle fréquence et dans quel but. Ils considèrent l'adoption de l'IA comme un indicateur commercial, et non comme une hypothèse.

Il ne s'agit pas d'interventions complexes ou coûteuses. Ils concernent principalement l'intentionnalité et la communication.

En bref

Le problème de l'IA honteux est le symptôme d'un problème sous-jacent bien plus simple : la plupart des organisations ont lancé des outils d'IA sans lancer l'infrastructure culturelle et de formation nécessaire pour les soutenir. Il en résulte une main-d'œuvre qui est en avance sur ce que les dirigeants pensent qu'elle est, qui utilise des outils qui ne lui ont pas été enseignés, d'une manière qui n'a pas été guidée et qui reste silencieuse à ce sujet.

Le coût n'est pas simplement dû à une productivité latente. C'est l'inconvénient cumulé d'une organisation qui ne sait pas ce que font réellement ses employés, qui ne peut pas en tirer des leçons et qui ne peut pas l'améliorer.

Le correctif n'est pas sophistiqué. Cela nécessite une politique claire, un leadership visible, une formation spécifique aux rôles et des managers dignes de confiance pour mener à bien le changement. Les entreprises qui investiront dans ces quatre domaines au cours des 12 prochains mois auront une longueur d'avance mesurable sur celles qui ne le feront pas.

FOIRE
AUX QUESTIONS

Purple Elipse - Sparagus
FAQ
Purple Elipse - Sparagus
Newsletter

Restez à jour

En vous inscrivant à notre newsletter, vous acceptez de recevoir des communications conformément à notre politique de confidentialité.

Merci ! Votre candidature a été reçue !
Oups ! Une erreur s'est produite lors de l'envoi du formulaire.