Parce que le panorama des mesures est plus fragmenté, les mesures internes sont également liées à l’une des principales préoccupations des responsables de la sécurité des organisations. De plus, l’irruption de l’IA génétique peut aggraver les choses avec des agents distincts à l’intérieur de l’éducation du risque, en agissant comme des super-utilisateurs avec de hauts privilèges, qui vous permettent d’accéder aux données et aux systèmes sensibles. Selon Proofpoint, l’entreprise responsable de la cybersécurité centrale des personnes et des agents de l’IA, les copilotes autonomes pourraient superviser cette année les humains comme source de filtration.

Les organisations ont été lancées pour adopter des agents autonomes qui peuvent naviguer, écrire un code et agir sur plusieurs systèmes. Cependant, si ces systèmes sont mal configurés, les agents peuvent réduire les flux de travail qui exposent des données sensibles ou affaiblissent les contrôles de sécurité ; et dans des scénarios défavorables, le comportement de l’agent peut être manipulé pour enregistrer des résultats non autorisés.

« Les programmes traditionnels sur les possibilités internes sont conçus pour le comportement humain, ce qui concerne vos motivations, opportunités, accès et contrôles à travers le courrier électronique, le noyau, les plates-formes de collaboration et les applications commerciales. L’IA amplifie chaque de ces dimensions avec de nouvelles En ce qui concerne le risque, de nouvelles fonctions de détection et de nouvelles responsabilités interfonctionnelles en matière de gestion, tout en mettant en pratique les organisations en charge des ressources dédiées au risque interne. Les agents ne sont pas des outils, si leur identité est propre, et les équipes de sécurité tendent également à se concentrer sur eux. « Gérer vos privilèges, superviser vos comportements et évaluer vos risques », affirment les enquêteurs de Proofpoint.

Maire exposition de données sensibles

Dans cet espace de travail agent, où les personnes et les agents de l’IA travaillent codo a codo, augmentent les comportements accidentels, imprudents et opportunistes. De ce fait, les assistants basés sur de grands modèles de langage, comme Copilot, ChatGPT et Gemini, facilitent l’exposition des données sensibles lorsque les utilisateurs partagent leur forme sans intention de passer par des invites, pendant que les agents d’IA peuvent répondre à des informations internes ou extrayantes de sources. restringidas.

En conséquence, les travailleurs qui avaient des profils de bas niveau pourraient développer des scénarios à haut impact, et tout acteur malveillant pourrait convoquer les systèmes d’IA à travers des invites pour révéler des flux de travail sensibles ou exécuter des attaques. L’IA élimine de nombreuses barrières techniques pour guider les utilisateurs lors des actions qui nécessitent un script, des connaissances du système ou des capacités de l’administrateur.

Les incidents internes s’aggravent également dans le milieu des turbulences de l’entreprise. Cela succède lorsque les organisations se lancent dans la caisse furtive de talents, ce qui amène beaucoup de professionnels à collecter des données sensibles d’une entreprise à un autre changement de lieu. Il est également observé dans les fusions, les acquisitions ou les désinversions, car ils créent des modèles d’accès caóticos, des données de transition, des propriétés peu claires des systèmes et des employés employés, ainsi que toutes ces conditions idéales pour les maladies pratiques. L’amisisme, avec l’IA, l’espionnage corporatif, qui continue cette année, se voit plus facilement, ce qui aide à enquêter sur les concurrents, en imitant les sollicitudes légitimes de l’activité occulte.

Vision unifiée pour la détection de la température

Mais il n’y a pas tout à faire avec des aspects négatifs. En 2026, Proofpoint a annoncé que l’IA ne ferait que lancer la détection, mais qu’elle remodelerait la forme pour enquêter, prioriser et résoudre les risques internes. La technologie se transformera en un multiplicateur de forces pour le tri des incidents, accélérant la prise de décision, permettant ainsi de corréler les signaux de bas niveau, avec les intentions de début de session ou les accès inhabituels, pour identifier les incidents de priorité maximale, ainsi que d’acquérir de grands volumes de télémétrie et de déploiement. résumés pour comprendre en quelques minutes avant de demander des heures de révision du manuel.

Cette année-là, les organisations ont commencé à traiter les signaux humains, les données d’identité et les événements techniques comme les flux séparés. L’évolution prochaine de la gestion des risques internes dépendra de la connexion de ces zones, donc une vision unifiée permettra aux équipes de sécurité une intervention plus temprana et des contrôles précis.

L’IA exige un asimismo directeur clair, des politiques d’utilisation acceptables, des interprétations éthiques et des normes de confidentialité. Les équipes de risques internes doivent définir les normes de gestion, délimiter les autorisations pour les agents, accorder l’autorisation de déshabilitation, ainsi qu’établir les principes pour une IA responsable, l’utilisation consentie des données et la transparence. Abordar todo ello demanda un enfoque coordinado en toda l’organisation.

« Pour maintenir l’avant-garde des risques intérieurs, les organisations doivent unifier les signaux d’identité, le comportement et les techniques ; adopter la détection et la réponse motivées par l’IA ; et renforcer la gouvernance interfonctionnelle. En faisant cela, vous devrez mettre en œuvre les mesures émergentes et construire une base solide pour l’avenir du travail entre les humains et les agents de l’IA », ont déclaré les experts en amenazas de Proofpoint.

A lire également