L’adoption rapide de l’intelligence artificielle par les entreprises dépasse la capacité des organisations à sécuriser leurs opérations, selon un nouveau rapport sur la sécurité des infrastructures indiquant que les attaques basées sur l’IA se développent déjà plus rapidement que les défenses traditionnelles ne peuvent réagir.
Dans son rapport sur la sécurité de l’IA ThreatLabz 2026, Zscaler prévient que les entreprises ne sont pas préparées à la prochaine vague de cyber-risques liés à l’IA, même si l’IA est désormais intégrée aux opérations commerciales.
Le rapport, basé sur une analyse de près d’un billion de transactions IA/ML sur la plateforme Zscaler Zero Trust Exchange entre janvier et décembre 2025, prédit que les entreprises atteignent un point critique où l’IA est passée d’un outil de productivité à un vecteur principal de conflit autonome à la vitesse des machines.
« L’IA n’est plus seulement un outil de productivité, mais un vecteur principal d’attaques autonomes à la vitesse d’une machine, à la fois par des logiciels criminels et par des États-nations », a déclaré Deepen Desai, vice-président exécutif de Zscaler pour la cybersécurité, dans un communiqué.
« À l’ère de l’IA agentique », a-t-il poursuivi, « une intrusion peut passer de la découverte au mouvement latéral puis au vol de données en quelques minutes, rendant les défenses traditionnelles obsolètes. »
L’adoption dépasse la surveillance
Le rapport prévient que l’adoption de l’IA s’accélère plus rapidement que la surveillance des entreprises et révèle que, malgré une croissance de 200 % de l’utilisation de l’IA dans des secteurs clés, de nombreuses organisations ne disposent toujours pas d’un inventaire de base de modèles d’IA et de fonctionnalités d’IA intégrées.
Les résultats de Zscaler valident exactement ce contre quoi nous avions mis en garde l’année dernière, a noté Stu Bradley, vice-président senior des solutions de risque, de fraude et de conformité chez SAS, une société de logiciels d’analyse et d’intelligence artificielle à Cary, en Caroline du Nord. « Les entreprises adoptent l’IA plus rapidement qu’elles ne construisent les garde-fous de gouvernance appropriés, et maintenant nous commençons à voir les conséquences », a-t-il déclaré à TechNewsWorld.
« La plupart des organisations ne disposent toujours pas d’un inventaire complet de l’endroit où l’IA s’exécute ni des données qu’elle touche », a-t-il poursuivi. « Nous parlons de millions d’interactions d’IA non gérées et d’innombrables téraoctets de données potentiellement sensibles circulant dans des systèmes que personne ne surveille. Vous n’avez pas besoin d’être un RSSI pour reconnaître le risque inhérent à cela. »
« Vous vous retrouvez avec l’IA partout et aucun contrôle nulle part », a ajouté Ryan McCurdy, vice-président du marketing chez Liquibase, une société d’automatisation des modifications de bases de données à Austin, au Texas.
« Les gens collent les données des clients, des extraits de code et le contexte de production dans des assistants parce que c’est le moyen le plus rapide d’accomplir leur travail », a-t-il déclaré à TechNewsWorld. « Dans le même temps, les fournisseurs intègrent l’IA dans les outils que vous utilisez déjà, de sorte que son utilisation se propage sans examen de sécurité formel. »
« Le risque n’est pas théorique », a-t-il déclaré. « Lorsque vous ne pouvez pas inventorier où l’IA fonctionne et ce qu’elle touche, vous ne pouvez pas appliquer de politique ou enquêter sur les incidents en toute confiance. »
Michael Bell, PDG de Suzu Testing, un fournisseur de services de cybersécurité basés sur l’IA à Las Vegas, a expliqué que tous les principaux fournisseurs SaaS intègrent des fonctionnalités d’IA dans leurs produits. « Ces fonctionnalités sont souvent actives par défaut, héritent des autorisations existantes et échappent à la détection par les filtres de sécurité existants », a-t-il déclaré à TechNewsWorld.
« Vos employés ne choisissent pas d’utiliser l’IA », a-t-il déclaré. « L’IA se produit simplement en arrière-plan des outils qu’ils utilisent déjà. C’est un profil de risque fondamentalement différent de celui de l’IA fantôme, car vous ne pouvez pas le résoudre en bloquant ChatGPT au niveau du pare-feu. L’IA est déjà à l’intérieur des applications que vous avez sanctionnées. »
Attaques lancées à la vitesse de la machine
Les chercheurs de Zscaler ont également signalé que les systèmes d’IA d’entreprise sont vulnérables à la vitesse des machines. Ils ont découvert que la plupart des systèmes d’IA d’entreprise pouvaient être compromis en seulement 16 minutes, et que des failles critiques étaient découvertes dans 100 % des systèmes analysés.
Alors que les discussions sur la sécurité de l’IA se concentrent souvent sur des menaces futures hypothétiques, note le rapport, les tests de l’équipe rouge de Zscaler ont révélé une réalité plus immédiate : lorsque les systèmes d’IA d’entreprise sont testés dans des conditions adverses réelles, ils se brisent presque immédiatement.
« Les systèmes d’IA sont rapidement compromis car ils reposent sur plusieurs autorisations fonctionnant ensemble, que ces autorisations soient accordées via des comptes de service ou héritées d’un accès au niveau utilisateur », a expliqué Sunil Gottumukkala, PDG d’Averlon, une société de sécurité cloud basée sur l’IA à Redmond, Washington.
« Un compte d’identité peut accéder à des données sensibles, un autre peut déclencher des actions automatisées et un troisième peut écrire sur des systèmes de production », a-t-il déclaré à TechNewsWorld. « Individuellement, ces autorisations semblent souvent légitimes. Ensemble, elles peuvent créer des chaînes d’attaques involontaires contre des données sensibles ou des systèmes critiques. »
« Certaines entreprises se concentrent encore sur les identifiants des employés pour distinguer les autorisations appropriées, mais le nombre d’identités non humaines à humaines est actuellement de 82 : 1, avec moins de surveillance exercée sur l’accès et les capacités du modèle d’IA », a expliqué Troy Leach, directeur de la stratégie à la Cloud Security Alliance, une organisation à but non lucratif dédiée aux meilleures pratiques du cloud.
« De plus, le nombre tentaculaire d’API et l’autonomie des agents d’IA pour avoir ou accorder un accès privilégié aux outils créent de nouvelles façons de contourner les contrôles de sécurité », a-t-il déclaré à TechNewsWorld. « La pratique de la rotation et de la révocation des autorisations doit évoluer vers des efforts plus dynamiques pour suivre le rythme de l’innovation. »
La plupart des entreprises considèrent la sécurité de l’IA comme une extension de la sécurité des applications, mais la surface d’attaque est fondamentalement différente, a ajouté Brad Micklea, PDG et co-fondateur de Jozu, un développeur d’outils basé à Toronto pour empaqueter, déployer, gouverner et gérer en toute sécurité des modèles d’IA.
« Les modèles ne sont pas du code », a-t-il déclaré à TechNewsWorld. « Ce sont des artefacts avec des données d’entraînement, des pondérations et des dépendances intégrées qui peuvent être empoisonnées à tout moment de la chaîne d’approvisionnement. Les outils AppSec traditionnels n’inspectent pas les composants internes du modèle parce qu’ils n’ont pas été conçus pour cela. »
La ruée vers l’or de l’IA génère un code de mauvaise qualité
De nombreuses entreprises se précipitent pour se lancer dans la ruée vers l’or de l’IA, c’est pourquoi des équipes de développement inexpérimentées utilisent l’IA pour diffuser du code de mauvaise qualité qui introduit des bugs et des vulnérabilités de sécurité, a expliqué Eric Hulse, directeur de recherche chez Command Zero, une société d’automatisation des cyber-enquêtes à Austin, au Texas.
« Les départements de l’entreprise sans processus de sécurité formels proposent des fonctionnalités avec l’aide de l’IA mais sans vérification appropriée », a-t-il déclaré à TechNewsWorld. « D’un point de vue technique, ces systèmes sont déployés avec la posture de sécurité d’un prototype, et non d’un système de production. »
« Nous constatons des points de terminaison de modèles exposés sans authentification appropriée, des vulnérabilités d’injection rapide et des intégrations d’API non sécurisées avec des autorisations excessives », a-t-il déclaré. « Les configurations par défaut sont expédiées directement en production. En fin de compte, il s’agit d’un tout nouveau domaine, et tout le monde se précipite pour revendiquer, augmenter ses revenus et arriver sur le marché le plus rapidement possible. »
« Dans la hâte de commercialiser rapidement l’IA, les équipes d’ingénierie et de produits font souvent des économies pour respecter des délais de lancement serrés », a ajouté Randolph Barr, RSSI de Cequence Security, une société mondiale de sécurité des API et de gestion de robots.
« Lorsque cela se produit, les contrôles de sécurité de base sont ignorés et ces raccourcis sont intégrés à la production », a-t-il déclaré à TechNewsWorld. « Ainsi, alors que les organisations commencent absolument à réfléchir à la protection des modèles, à l’injection rapide, aux fuites de données et à la détection des anomalies, ces efforts ne signifient pas grand-chose si vous n’avez pas verrouillé l’identité, l’accès et la configuration à un niveau fondamental.
Le rapport note également qu’en 2025, les transferts de données d’entreprise vers des applications d’IA/ML ont atteint 18 033 téraoctets, soit une augmentation de 93 % d’une année sur l’autre et à peu près l’équivalent de 3,6 milliards de photos numériques.
L’ampleur de ce risque est quantifiée par 410 millions de violations de la politique de prévention des pertes de données (DLP) liées au seul ChatGPT, a-t-il ajouté, y compris les tentatives de partage des numéros de sécurité sociale, du code source et des dossiers médicaux.
Selon le rapport, ces résultats indiquent que la gouvernance de l’IA est passée d’un débat politique à une nécessité opérationnelle immédiate. Il a averti qu’à mesure que ces référentiels se développent, ils deviennent des cibles prioritaires pour le cyberespionnage.
Pas besoin de paniquer
Le principal point à retenir du rapport est que l’IA fait déjà partie du travail quotidien et que les gens y transfèrent de véritables données commerciales, souvent sans se rendre compte du risque, a noté Riaan Gouws, directeur technique de Forward Edge-AI, une société d’intelligence artificielle axée sur la sécurité publique, la sécurité nationale et les technologies anti-fraude à San Antonio, au Texas.
« Les entreprises n’ont pas besoin de paniquer, mais elles doivent rattraper leur retard rapidement », a-t-il déclaré à TechNewsWorld. « Décidez quels outils sont autorisés, placez des garde-fous autour des données sensibles et assurez-vous que la sécurité peut réellement voir ce qui est utilisé. »
« Ce que le rapport met finalement en évidence n’est pas un problème d’IA, mais un problème de gouvernance des identités », a ajouté Rosario Mastrogiacomo, directeur de la stratégie chez Sphere Technology Solutions, une société de logiciels et de services de gouvernance des données à Hoboken, dans le New Jersey.
« Jusqu’à ce que les entreprises reconnaissent les systèmes d’IA comme des identités qui nécessitent une découverte, une propriété, une surveillance comportementale et une gestion du cycle de vie, nous continuerons à voir une innovation impressionnante associée à une sécurité fragile », a-t-il déclaré à TechNewsWorld. « Les organisations qui y parviendront ne ralentiront pas l’adoption de l’IA. Elles la rendront durable. »
