Netskope a révélé dans une nouvelle enquête que plus d’un tiers des données confidentielles partagées avec les applications de IA Generativa (genAI) est soumis à un contrôle légal, ce qui pourrait permettre aux entreprises de prendre en charge les coûts de filtration des données.

Les entreprises sont désormais prêtes à prendre des mesures proactives pour gérer ces risques, avec un 65 % d’entre elles mettant en œuvre une formation en temps réel pour guider les utilisateurs dans leur interaction avec les applications genAI. Selon l’étude, cette formation est cruciale pour atténuer les risques liés aux données, car 57 % des utilisateurs changent leurs habitudes en recevant des alertes d’assurance.

«Les entreprises doivent être conscientes du fait que l’utilisateur de genAI peut exposer par inadvertance des informations sensées, diffuser de fausses informations ou même introduire des contenus malveillants. Elle exige un plan solide de gestion des risques pour protéger les données, la réputation et la continuité du commerce», a affirmé James Robinson, directeur de la sécurité de l’information de Netskope.

Filtrations dans les applications de IA Generativa

L’information de Netskope Threat Labs indique que 75 % des entreprises enquêtées bloquent au moins une application genAI, reflétant la préoccupation des responsables technologiques pour limiter les risques de filtration des informations confidentielles. Sans embargo, sauf que les entreprises mettent en œuvre des contrôles spécifiques pour éviter la divulgation de données sensibles dans les sollicitudes, ce qui indique un retour à l’adoption de solutions avancées de prévention de la perte de données (DLP) nécessaires à l’utilisation de manière générale sûr.

L’étude, basée sur des données globales, a découvert que 96 % des entreprises utilisaient actuellement genAI, une citation qui a été triplée au cours de la dernière année. En conséquence, les entreprises utilisent désormais 10 applications genAI, en comparaison avec les 3 années précédentes. De plus, le 1% des entreprises les plus avancées dans l’adoption de genAI utilisant 80 applications, une augmentation significative depuis les 14 dernières années.

Cette utilisation majeure a augmenté l’échange de codes entre propriétaires dans ces applications, ce qui représente 46% de toutes les violations politiques de données documentées. Cette tendance complique le contrôle des risques, exigeant un effet de DLP plus robuste.

Conseils utiles pour les entreprises

Netskope recommande aux entreprises de réviser, d’adapter et d’ajuster leurs programmes de protection spécifiquement à l’IA ou genAI en utilisant des initiatives comme le cadre de gestion des risques d’IA du NIST. Entre les étapes spécifiques pour faire face au risque de génération, il suffit de prendre la peine :

  • Connaissez votre état actuel : Commencez à évaluer ce que les utilisateurs font actuellement de l’IA et de l’apprentissage automatique, des canalisations de données et des applications genAI. Identifier les vulnérabilités et les failles dans les contrôles de sécurité
  • Implémenter les contrôles de base : Établissez des moyens de sécurité essentiels, comme des contrôles d’accès, des mécanismes d’authentification et de cifration
  • Planifique contrôles avancés : Plus que nécessaire, établissez un plan de travail pour des contrôles de sécurité avancés. Tenez compte du modèle de mesures, de la détection des anomalies, de la surveillance continue et de la détection des comportements pour identifier les mouvements de données spécifiques au passage des événements au sein des applications générales qui se produisent chez les patrons habituels des utilisateurs.
  • Mida, lance, révise, réitère : Évaluez périodiquement l’efficacité de vos mesures de sécurité. Adaptés et raffinés en fonction des expériences du monde réel et des améliorations émergentes

A lire également