Dans le paysage numérique en évolution rapide d’aujourd’hui, l’adoption généralisée des outils d’IA (intelligence artificielle) transforme le mode de fonctionnement des organisations. Des chatbots aux modèles d’IA génératifs, ces applications basées sur le SaaS offrent de nombreux avantages, allant d’une productivité accrue à une prise de décision améliorée. Les employés utilisant des outils d’IA bénéficient des avantages de réponses rapides et de résultats précis, ce qui leur permet d’effectuer leur travail de manière plus efficace et plus efficiente. Cette popularité se reflète dans les chiffres stupéfiants associés aux outils d’IA.

Le chatbot viral d’OpenAI, ChatGPT, compte environ 100 millions d’utilisateurs dans le monde, tandis que d’autres outils d’IA génératifs comme DALL·E et Bard ont également gagné en popularité grâce à leur capacité à générer un contenu impressionnant sans effort. Le marché de l’IA générative devrait dépasser 22 milliards de dollars d’ici 2025, indiquant la dépendance croissante aux technologies de l’IA.

Cependant, au milieu de l’enthousiasme suscité par l’adoption de l’IA, il est impératif de répondre aux préoccupations des professionnels de la sécurité dans les organisations. Ils soulèvent des questions légitimes sur l’utilisation et les autorisations des applications d’IA au sein de leur infrastructure : qui utilise ces applications et à quelles fins ? Quelles applications d’IA ont accès aux données de l’entreprise et quel niveau d’accès leur a-t-on accordé ? Quelles sont les informations que les employés partagent avec ces applications ? Quelles sont les implications en matière de conformité ?

L’importance de comprendre quelles applications d’IA sont utilisées et l’accès dont elles disposent ne peut être surestimée. C’est la première étape fondamentale mais impérative pour comprendre et contrôler l’utilisation de l’IA. Les professionnels de la sécurité doivent avoir une visibilité totale sur les outils d’IA utilisé par les employés.

Cette connaissance est cruciale pour trois raisons :

1) Évaluer les risques potentiels et se protéger contre les menaces

Il permet aux organisations de évaluer les risques potentiels associés aux applications d’IA. Sans savoir quelles applications sont utilisées, les équipes de sécurité ne peuvent pas évaluer et se protéger efficacement contre les menaces potentielles. Chaque outil d’IA présente une surface d’attaque potentielle dont il faut tenir compte : la plupart des applications d’IA sont basées sur le SaaS et nécessitent des jetons OAuth pour se connecter aux principales applications d’entreprise telles que Google ou O365. Grâce à ces jetons, les joueurs malveillants peuvent utiliser des applications d’IA pour se déplacer latéralement dans l’organisation. La découverte des applications de base est disponible avec les outils SSPM gratuits et constitue la base de la sécurisation de l’utilisation de l’IA.

De plus, la connaissance des applications d’IA utilisées au sein de l’organisation aide à prévenir l’utilisation par inadvertance d’applications fausses ou malveillantes. La popularité croissante des outils d’intelligence artificielle a attiré des acteurs malveillants qui créent des versions contrefaites pour tromper les employés et obtenir un accès non autorisé à des données sensibles. En connaissant les applications d’IA légitimes et en éduquant les employés à leur sujet, les organisations peuvent minimiser les risques associés à ces imitations malveillantes.

2) Mettre en œuvre des mesures de sécurité robustes

Identifier les autorisations accordées aux applications d’IA par les employés, aide les organisations mettre en œuvre des mesures de sécurité robustes. Différents outils d’IA peuvent avoir des exigences de sécurité et des risques potentiels différents. En comprenant les autorisations accordées aux applications d’IA et si ces autorisations présentent ou non un risque, les professionnels de la sécurité peuvent adapter leurs protocoles de sécurité en conséquence. S’assurer que des mesures appropriées sont en place pour protéger les données sensibles et empêcher les autorisations excessives est la deuxième étape naturelle pour suivre la visibilité.

3) Gérer efficacement l’écosystème SaaS

Comprendre l’utilisation des applications d’IA permet aux organisations de passer à l’action et gérer efficacement leur écosystème SaaS. Il fournit des informations sur le comportement des employés, identifie les failles de sécurité potentielles et permet des mesures proactives pour atténuer les risques (révoquer les autorisations ou l’accès des employés, par exemple). Il aide également les organisations à se conformer aux réglementations sur la confidentialité des données en garantissant que les données partagées avec les applications d’IA sont correctement protégées. La surveillance de l’intégration inhabituelle de l’IA, des incohérences dans l’utilisation ou simplement la révocation de l’accès aux applications d’IA qui ne devraient pas être utilisées sont des mesures de sécurité facilement disponibles que les CISO et leurs équipes peuvent prendre aujourd’hui.

En conclusion, les applications d’IA offrent d’immenses opportunités et avantages aux organisations. Cependant, ils introduisent également des défis de sécurité qui doivent être résolus. Alors que les outils de sécurité spécifiques à l’IA en sont encore à leurs débuts, les professionnels de la sécurité doivent utiliser les capacités de découverte SaaS existantes et Gestion de la posture de sécurité SaaS (SSPM) solutions pour répondre à la question fondamentale qui sert de base à l’utilisation sécurisée de l’IA : qui dans mon organisation utilise quelle application d’IA et avec quelles autorisations ? Il est facile de répondre à ces questions fondamentales en utilisant les outils SSPM disponibleséconomisant de précieuses heures de travail manuel.

A lire également