Netskope a publié une information sur la prolifération rapide de l’IA générative (GenAI) ainsi que la persistance de l’IA générative dans l’ombre et les violations des politiques de données des entreprises analysées.
L’étude de Netskope, connue sous le titre Cloud and Threat Report (2026), indique également que les efforts de contrôle et de supervision de l’utilisation de la génération IA peuvent tester la capacité des équipements de sécurité pour avancer dans la résolution des problèmes hérités, comme le phishing et la perte de Les données transmises par des applications personnelles ont aggravé certains de ces problèmes.
• Les violations des données politiques associées à l’utilisation d’applications de l’IA générative ont été dupliquées au cours de l’année, et l’entreprise médiatique a expérimenté 223 incidents en un mois.
• Les applications personnelles dans le nube suivent une source importante de perte de données au cours de l’année, car 60 % des incidents d’affaires internes sont liés aux instances d’applications personnelles dans le nu qui expédient des données réglementées, propriété intellectuelle, code source et les créances à un niveau préoccupant, y compris dans les entreprises où elles sont adoptées de manière générative.
• Le phishing représente une partie significative des intentions d’accès initiales, avec une légère réduction interannuelle des clics des utilisateurs, en raison de l’augmentation de l’IA génératrice des organisations.
Le défi de la GenAI : l’apparition de nouveaux criminels
Au cours de la dernière année, les entreprises ont fait des progrès significatifs dans la mise en œuvre de versions d’outils d’IA génératives approuvées, comme ChatGPT et Gemini. La plupart des utilisateurs de l’étude utilisent ces outils d’IA générative approuvés par l’entreprise et seulement 47 % utilisent des applications d’IA générative privée, avant 78 % de cette année. De plus, 90 % des entités étudiées ont établi une politique visant à bloquer l’activation de la plupart des applications de l’IA génératrices potentiellement problématiques, avant 80 % de cette année.
Le nombre total d’utilisateurs de demandes d’IA génératrice a augmenté de 200 % au cours de l’année passée et le volume de sollicitudes s’est multiplié par cinq.
L’indice mondial des violations de la politique des données de l’IA générative a également augmenté au cours de l’année, et les entreprises ont expérimenté un média de 223 incidents au mois (le double de l’année précédente) ; Les 25 % des entreprises étudiées ont subi au moins 2 100 incidents de violation de la politique des données de l’IA générative à l’époque.
Les problèmes des viejos sont répandus
Inclus avec une enquête plus actuelle sur les nouveaux problèmes de sécurité posés par l’IA génératrice, les retours de toujours, comme l’utilisation d’applications personnelles de stockage sur le Web et le phishing, ainsi que des problèmes de sécurité avertis.
Les charges de données parfois contrôlées (comme les données personnelles, financières ou sanitaires) représentent la catégorie d’infractions politiques la plus élevée, avec un 54 %, dans de nombreux cas confirmés par l’utilisation indépendante d’outils de génération.
Les 25% des entreprises étudiées ont subi au moins 2100 incidents de violation de la politique des données de l’IA générative à l’époque
En cas de phishing, même si l’incident a diminué de 27 % interannuellement, chaque organisation a visité 87 de chaque 10 000 utilisateurs en cliquant sur les liens spécifiques.
«Les équipes de sécurité des entreprises sont en constante évolution et sont en contact avec de nouveaux retours sur la façon dont les entreprises évoluent et les adversaires innovent», affirme Ray Canzanese, directeur de Netskope Threat Labs. « Sans embargo, l’adoption de l’IA générative a modifié les règles du jeu. Sobre todo, supone un panorama de amenazas que ha cogido por sorpresa a muchos equipos en cuanto a su alcance y complejidad, hasta el punto de la sensación de qui se están esforzando para seguir el ritmo y de que pierden de vista algunos aspectsos basicos de la seguridad. Les responsables des équipes de sécurité doivent élargir leur stratégie dans cet esprit pour être conscients de l’IA génératrice, en faisant évoluer la politique et en élargissant l’efficacité des outils existants, comme le DLP, pour favoriser l’équilibre entre l’innovation et la sécurité à tous les niveaux».
