L’adoption de l’intelligence artificielle (IA) sur le lieu de travail s’accélère plus rapidement que la plupart des organisations ne peuvent la sécuriser, laissant l’utilisation des employés de plus en plus non surveillée et risquée.
Selon une nouvelle étude de Cyberhaven, société de sécurité des données basée sur l’IA, près de 40 % de toutes les interactions des employés avec les outils d’IA impliquent désormais des données d’entreprise sensibles. Alors que les travailleurs contournent les canaux officiels pour utiliser des outils spécialisés comme Claude et DeepSeek, les organisations se retrouvent divisées entre des adoptants « frontières » et des « retardataires » qui perdent le contrôle de leurs ressources informationnelles les plus précieuses.
Cyberhaven Labs, l’équipe de recherche interne de l’entreprise, a publié jeudi ses conclusions basées sur le traçage des données qui suivent la manière dont les informations circulent entre les points finaux, les applications SaaS et les outils d’IA en temps réel. Dans de nombreux cas, les entreprises privilégient la croissance et l’expérimentation. Viennent ensuite la sécurité, la gouvernance et la surveillance.
Dans le même temps, la plupart des utilisations de l’IA se font aujourd’hui dans des outils qui comportent des risques élevés. Les employés saisissent régulièrement des données sensibles dans un écosystème vaste et croissant d’outils GenAI, d’assistants de codage et d’agents personnalisés.
Pour de nombreuses organisations, l’utilisation de l’IA est une sorte de Far West, selon le rapport. Les outils prolifèrent plus rapidement que les politiques, l’utilisation des employés dépasse souvent la visibilité et les données sensibles circulent entre les modèles, les applications et les comptes avec un contrôle centralisé limité.
« Il est de plus en plus difficile de sécuriser l’utilisation généralisée des outils, mais ce que les organisations peuvent et doivent faire, c’est s’assurer que leurs solutions de sécurité des données incluent l’utilisation de l’IA », a déclaré Nishant Doshi, PDG de Cyberhaven, à TechNewsWorld.
La prolifération des outils d’IA inonde les réseaux d’entreprise
Une petite cohorte d’organisations pionnières déploie de manière agressive des centaines d’outils pour près de 70 % de leur personnel. Les retardataires restent bloqués à 2 % d’adoption. Cette fracture crée un vide dans lequel les employés, poussés par les exigences de productivité, contournent les garde-fous de l’entreprise pour construire leurs propres écosystèmes Shadow AI.
La recherche de Cyberhaven rapporte cinq résultats principaux :
- Les organisations ayant les taux d’adoption de l’IA les plus élevés utilisent plus de 300 outils GenAI au sein de leur environnement d’entreprise.
- Les modèles chinois à poids ouvert sont désormais les favoris des entreprises, représentant la moitié de l’utilisation basée sur les points de terminaison parmi les utilisateurs de Cyberhaven.
- Les outils GenAI restent risqués dans tous les domaines. Lorsque l’on examine les 100 applications GenAI SaaS les plus utilisées, 82 % sont classées comme présentant un risque « moyen », « élevé » ou « critique ».
- Un tiers des employés accèdent aux outils GenAI à partir de comptes personnels, ce qui augmente le risque global et le Shadow AI.
- Les employés fournissent des données sensibles aux outils d’IA, puisque plus d’un tiers (39,7 %) de toutes les interactions avec les outils d’IA impliquent des données sensibles.
La répartition suivante montre à quel point le nombre d’outils GenAI utilisés augmente parmi les entreprises les plus agressives.
Selon Cyberhaven, plus de quatre applications SaaS GenAI sur cinq les plus utilisées sont classées comme présentant un risque moyen, élevé ou critique.
« Les organisations doivent comprendre et retracer le cycle de vie complet des données pour les sécuriser correctement », a insisté Doshi.
Frontier Gap : stratégie ou culture permissive ?

Les organisations frontalières mettent très probablement en œuvre une stratégie d’entreprise officielle qui encourage les employés à intégrer l’IA dans leur flux de travail quotidien, a suggéré Doshi. Un tel encouragement conduit alors à une culture interne plus permissive en faveur de l’expérimentation de nouvelles fonctionnalités et technologies d’IA, sanctionnées ou non.
« Les entreprises à la traîne sont principalement freinées par une posture de sécurité privilégiant le bloc d’abord et par des systèmes de données existants fragmentés qui rendent l’intégration officielle trop risquée ou complexe », a-t-il déclaré.
Un manque de confiance inhérent est également en jeu. Ces organisations ne font pas totalement confiance à leurs employés pour utiliser ces outils en toute sécurité ou conformément aux valeurs de l’entreprise.
« Cela crée un fossé dans lequel les dirigeants de ces organisations considèrent l’IA comme une menace à gérer. Les entreprises frontières la considèrent comme un moteur de productivité qui peut être activé en toute sécurité », a-t-il ajouté.
Les modèles d’IA chinois entrent rapidement dans l’entreprise
Un changement surprenant dans l’équilibre des pouvoirs en matière d’IA montre que les modèles chinois à pondération ouverte passent du statut d’étrangers à ceux de base des entreprises presque du jour au lendemain. Des produits comme DeepSeek entraînent une augmentation fulgurante de l’utilisation de l’IA basée sur les points de terminaison.
Cette poussée fait suite à la sortie en janvier 2025 de DeepSeek-R1, qui a prouvé que la Chine pouvait égaler – et, dans des tâches spécifiques comme le codage, potentiellement dépasser – les modèles frontières américains, selon Doshi. Pour de nombreux employés, l’attrait d’une performance supérieure et la facilité de contourner les filtres de l’entreprise l’emportent sur la prudence géopolitique. Ces facteurs créent une empreinte massive et non surveillée du silicium chinois au sein des réseaux occidentaux.
« Les capacités comparables de ces modèles, combinées à la tendance de LMArena à proposer des modèles à poids ouvert, ont conduit à 50 % d’utilisation basée sur les points finaux », a-t-il confirmé.
Les travailleurs inconscients exposent des données sensibles
Comme indiqué ci-dessus, un nombre alarmant de 39,7 % des interactions impliquent des données sensibles. Au moins une partie de cela résulte du fait que les employés téléchargent sciemment des informations exclusives telles que le code source. Cela entraîne également des problèmes de sensibilité involontaires lorsque les utilisateurs intègrent des outils d’IA dans des flux de travail standard tels que le CRM et la R&D.

Les employés fournissent aux outils d’IA un large éventail d’informations commerciales sensibles, notamment le code source, la recherche, les ventes, les ressources humaines et les finances.
« L’IA est encore une technologie relativement nouvelle, et les employés ne comprennent pas pleinement ce que signifie mettre des données sensibles dans un système d’IA. Cela signifie que vos données ne restent plus sous le contrôle de l’entreprise et résident désormais chez un fournisseur d’IA », a déclaré Doshi.
Pire encore, certains de ces fournisseurs entraînent leurs modèles avec les données soumises par les utilisateurs. Pour les employés, cependant, a-t-il ajouté, il n’est peut-être pas clair ce qui constitue des données sensibles ni comment fonctionne l’IA.
« Par conséquent, le manque de sensibilisation à la sécurité parmi les employés est un problème majeur dans l’utilisation de l’IA en entreprise. De plus, ce manque de sensibilisation est une raison pour laquelle de nombreuses organisations hésitent à encourager l’utilisation de l’IA, optant pour une politique de « bloquer d’abord » », a-t-il expliqué.
Les comptes personnels, un coupable voilé
Soixante pour cent de l’utilisation de Claude et Perplexité se fait via les comptes personnels des employés. Il contribue à ce que Shadow AI surpasse les outils d’entreprise sanctionnés en termes d’expérience utilisateur et d’utilité.
Claude et Perplexity sont des cas extrêmes car ce sont des outils spécialisés. Les utilisateurs adoptent largement Claude comme le meilleur codeur, et Perplexity est un moteur de recherche d’IA spécialement conçu.
« Je pense que les gens utilisent spécifiquement Claude et Perplexity à ces fins, respectivement, car ils offrent une meilleure expérience utilisateur que les outils d’entreprise autorisés », a proposé Doshi.
Il convient que l’IA fantôme constitue, en général, un problème croissant, car les outils d’IA peuvent traiter des informations sensibles à la vitesse d’une machine. Les copies dérivées des données les plus précieuses d’une organisation peuvent rapidement proliférer en dehors du contrôle central.
« Lutter contre cela nécessite une sécurité et une gouvernance des données solides », a-t-il déclaré.
Activité risquée des applications GenAI
Le rapport classe 82 % des 100 principales applications GenAI comme « risquées ». Mais cela ne signifie pas que le marché actuel de l’IA d’entreprise ne parvient pas à fournir les fonctionnalités spécifiques dont les employés ont besoin, selon Doshi.
Le graphique ci-dessous présente les niveaux de risque parmi les outils GenAI SaaS les plus utilisés.

Selon Cyberhaven, plus de quatre applications SaaS GenAI sur cinq les plus utilisées sont classées comme présentant un risque moyen, élevé ou critique.
Le pourcentage élevé d’applications à risque résulte du fait que les employés donnent la priorité à une accessibilité fluide plutôt qu’aux canaux officiels. Beaucoup de ces applications de niche proposent des flux de travail spécialisés qui ne nécessitent aucune expertise en matière d’invite, permettant aux travailleurs de contourner la courbe d’apprentissage.
Prenons NoteGPT comme exemple. Il fournit un résumeur IA, un transcripteur, un convertisseur PDF et un rédacteur prêts à l’emploi.
« De plus, de nombreux nouveaux outils d’entreprise qui promettent à la fois sécurité et innovation n’ont souvent pas les capacités des outils créés et publiés par les développeurs ou même des outils GenAI plus basiques tels que Claude », a prévenu Doshi.
Mort du Chatbot et au-delà
L’évolution vers des agents intégrés et des outils de codage ouvre la voie à une nouvelle ère. Le chatbot IA autonome, avec son interface de style ChatGPT, est peut-être déjà en faveur d’une IA invisible et intégrée.
Cependant, Doshi pense qu’il est trop tôt pour en être sûr. Les chercheurs constatent seulement un plateau dans l’adoption des applications d’IA, tandis que les agents de codage d’IA spécialisés continuent de croître.
« Plutôt que d’y voir des chatbots en déclin, je dirais que certains outils d’IA, comme les agents de codage, ont fait un excellent travail en appliquant l’IA à des domaines spécialisés et reçoivent ainsi la reconnaissance de leurs utilisateurs, conduisant à une croissance », a-t-il suggéré.
Les données montrent que l’utilisation de l’IA est plus répandue parmi les ingénieurs. Doshi a estimé qu’il était logique pour eux de se tourner vers des outils de codage et des agents intégrés pour leurs flux de travail quotidiens spécifiques, plutôt que vers un employé marketing qui peut avoir besoin d’un outil GenAI pour des tâches de base ponctuelles.
Quelles sont les prochaines étapes pour l’IA sur le lieu de travail
Selon Doshi, l’utilisation de l’IA, sanctionnée ou non, continuera d’augmenter. Le nombre d’applications d’IA utilisées et le pourcentage d’employés qui les utilisent constitueront des références solides pour les entreprises qui ont adopté l’IA ou envisagent de le faire pour générer des gains de productivité stratégiques.
Certaines personnes ont qualifié 2025 d’Année des agents de l’IA. Bien que ce soit en partie vrai, il prédit que davantage d’entreprises développeront et adopteront des agents d’IA dans les années à venir.
« Ce n’est qu’un début, ce qui rend la sécurisation et la gouvernance de ces outils d’autant plus vitales », a-t-il insisté.
Les graphiques de cet article ont été fournis par Cyberhaven.
