Cisco adopte une approche radicale de la sécurité de l’IA dans sa nouvelle solution AI Defense.

Dans une interview exclusive dimanche avec Rowan Cheung de The Rundown AI, le vice-président exécutif et CPO de Cisco, Jeetu Patel, a déclaré qu’AI Defence « adopte une approche radicale pour relever les défis que les solutions de sécurité existantes ne sont pas équipées pour relever ».

AI Defense, annoncé la semaine dernière, vise à gérer les risques liés au développement et au déploiement d’applications d’IA, ainsi qu’à identifier les domaines où l’IA est utilisée dans une organisation.

AI Defense peut protéger les systèmes d’IA contre les attaques et sauvegarder le comportement des modèles sur toutes les plates-formes grâce à des fonctionnalités telles que :

  • Détection des applications d’IA fantômes et sanctionnées dans les cloud publics et privés ;
  • Tests automatisés de modèles d’IA pour des centaines de problèmes potentiels de sûreté et de sécurité ; et
  • La validation continue protège contre les menaces potentielles en matière de sûreté et de sécurité, telles que l’injection rapide, le déni de service et la fuite de données sensibles.

La solution permet également aux équipes de sécurité de mieux protéger les données de leur organisation en fournissant une vue complète des applications d’IA utilisées par les employés, de créer des politiques qui restreignent l’accès aux outils d’IA non autorisés et de mettre en œuvre des protections contre les menaces et la perte de données confidentielles tout en garantissant la conformité.

« L’adoption de l’IA expose les entreprises à de nouveaux risques que les solutions de cybersécurité traditionnelles ne couvrent pas », a déclaré Kent Noyes, responsable mondial de l’IA et de la cyber-innovation chez la société de services technologiques World Wide Technology à Saint-Louis, dans un communiqué. « Cisco AI Defense représente une avancée significative en matière de sécurité de l’IA, en offrant une visibilité complète des actifs d’IA d’une entreprise et une protection contre l’évolution des menaces. »

Étape positive pour la sécurité de l’IA

MJ Kaufmann, auteur et instructeur chez O’Reilly Media, opérateur d’une plateforme d’apprentissage pour les professionnels de la technologie, à Boston, a confirmé l’analyse de Cisco des solutions de cybersécurité existantes. « Cisco a raison », a-t-elle déclaré à TechNewsWorld. « Les outils existants ne parviennent pas à répondre à de nombreuses attaques opérationnelles contre les systèmes d’IA, telles que les attaques par injection rapide, les fuites de données et les actions de modèles non autorisées. »

« Les responsables de la mise en œuvre doivent agir et mettre en œuvre des solutions ciblées pour y remédier », a-t-elle ajouté.

Cisco est dans une position unique pour fournir ce type de solution, a noté Jack E. Gold, fondateur et analyste principal chez J.Gold Associates, une société de conseil informatique basée à Northborough, dans le Massachusetts. télémétrie qui peut être utilisée pour renforcer les capacités de l’IA qu’ils souhaitent protéger », a-t-il déclaré à TechNewsWorld.

Cisco souhaite également assurer la sécurité sur toutes les plates-formes (sur site, cloud et multi-cloud) et sur tous les modèles, a-t-il ajouté.

« Il sera intéressant de voir combien d’entreprises adopteront cette solution », a-t-il déclaré. « Cisco va certainement dans la bonne direction avec ce type de capacité, car les entreprises, en général, n’envisagent pas cette question de manière très efficace. »

Fournir une protection multimodèle et multicloud est important pour la sécurité de l’IA.

« Les solutions d’IA multimodèles et multicloud élargissent la surface d’attaque d’une organisation en introduisant de la complexité dans des environnements disparates avec des protocoles de sécurité incohérents, de multiples points de transfert de données et des défis de coordination de la surveillance et de la réponse aux incidents — des facteurs que les acteurs malveillants peuvent plus facilement exploiter. » Patricia Thaine, PDG et co-fondatrice de Private AI, une société de sécurité et de confidentialité des données à Toronto, a déclaré à TechNewsWorld.

Concernant les limitations

Bien que l’approche de Cisco consistant à intégrer des contrôles de sécurité au niveau de la couche réseau via son maillage d’infrastructure existant soit prometteuse, elle révèle également des limites, a affirmé Dev Nag, PDG et fondateur de QueryPal, un chatbot de support client basé à San Francisco.

« Bien que la visibilité au niveau du réseau fournisse une télémétrie précieuse, de nombreuses attaques spécifiques à l’IA se produisent au niveau des couches d’application et de modèle que la surveillance du réseau à elle seule ne peut pas détecter », a-t-il déclaré à TechNewsWorld.

« L’acquisition de Robust Intelligence l’année dernière donne à Cisco des capacités importantes en matière de validation de modèles et de protection d’exécution, mais l’accent mis sur l’intégration réseau pourrait entraîner des lacunes dans la sécurisation du cycle de vie réel du développement de l’IA », a-t-il déclaré. « Des domaines critiques tels que la formation à la sécurité des pipelines, la vérification du modèle de chaîne d’approvisionnement et le réglage précis des garde-corps nécessitent une intégration approfondie avec les outils MLOps qui va au-delà du paradigme traditionnel centré sur le réseau de Cisco. »

« Pensez aux problèmes que nous avons rencontrés avec les attaques de chaînes d’approvisionnement open source où le code incriminé est ouvertement visible », a-t-il ajouté. « Les modèles d’attaques contre la chaîne d’approvisionnement sont presque impossibles à détecter par comparaison. »

Nag a noté que du point de vue de la mise en œuvre, Cisco AI Defense semble être principalement un reconditionnement de produits de sécurité existants avec des capacités de surveillance spécifiques à l’IA superposées.

« Même si leur vaste empreinte de déploiement offre des avantages en termes de visibilité à l’échelle de l’entreprise, la solution semble pour l’instant plus réactive que transformatrice », a-t-il soutenu. « Pour certaines organisations qui débutent leur parcours vers l’IA et qui travaillent déjà avec les produits de sécurité Cisco, Cisco AI Defense peut fournir des contrôles utiles, mais celles qui recherchent des capacités d’IA avancées auront probablement besoin d’architectures de sécurité plus sophistiquées spécialement conçues pour les systèmes d’apprentissage automatique.

Pour de nombreuses organisations, l’atténuation des risques liés à l’IA nécessite des testeurs d’intrusion humains qui comprennent comment poser aux modèles des questions qui obtiennent des informations sensibles, a ajouté Karen Walsh, PDG d’Allegro Solutions, une société de conseil en cybersécurité à West Hartford, Connecticut.

« La publication de Cisco suggère que leur capacité à créer des garde-fous spécifiques au modèle atténuera ces risques pour empêcher l’IA d’apprendre sur de mauvaises données, de répondre à des demandes malveillantes et de partager des informations involontaires », a-t-elle déclaré à TechNewsWorld. « À tout le moins, nous pourrions espérer que cela permettra d’identifier et d’atténuer les problèmes de base afin que les testeurs d’intrusion puissent se concentrer sur des stratégies de compromission de l’IA plus sophistiquées. »

Besoin critique sur la voie de l’AGI

Kevin Okemwa, écrivant pour Windows Central, note que le lancement d’AI Defense ne pourrait pas arriver à un meilleur moment alors que les principaux laboratoires d’IA se rapprochent de la production d’une véritable intelligence artificielle générale (AGI), censée reproduire l’intelligence humaine.

« À mesure que l’AGI se rapproche d’année en année, les enjeux ne pourraient pas être plus élevés », a déclaré James McQuiggan, défenseur de la sensibilisation à la sécurité chez KnowBe4, un fournisseur de formation à la sensibilisation à la sécurité à Clearwater, en Floride.

« La capacité d’AGI à penser comme un humain doté d’intuition et d’orientation peut révolutionner les industries, mais elle introduit également des risques qui pourraient avoir des conséquences considérables », a-t-il déclaré à TechNewsWorld. « Une solution de sécurité IA robuste garantit que l’AGI évolue de manière responsable, en minimisant les risques tels que des prises de décision erronées ou des conséquences involontaires. »

« La sécurité de l’IA n’est pas seulement un « bon à avoir » ou une chose à laquelle il faut penser dans les années à venir », a-t-il ajouté. « C’est essentiel à mesure que nous progressons vers l’AGI. »

Une catastrophe existentielle ?

Okemwa a également écrit : « Bien que l’IA Defense soit un pas dans la bonne direction, son adoption dans les organisations et les principaux laboratoires d’IA reste à voir. Il est intéressant de noter que le PDG d’OpenAI (Sam Altman) reconnaît la menace que représente la technologie pour l’humanité, mais estime que l’IA sera suffisamment intelligente pour l’empêcher de provoquer une catastrophe existentielle.

« Je vois un certain optimisme quant à la capacité de l’IA à s’autoréguler et à prévenir des résultats catastrophiques, mais je remarque également dans son adoption que l’alignement des systèmes d’IA avancés sur les valeurs humaines est encore une réflexion après coup plutôt qu’un impératif », Adam Ennamli, responsable des risques et de la sécurité. à la Banque générale du Canada, a déclaré à TechNewsWorld.

« L’idée selon laquelle l’IA résoudra ses propres risques existentiels est dangereusement optimiste, comme le démontrent les systèmes d’IA actuels qui peuvent déjà être manipulés pour créer du contenu nuisible et contourner les contrôles de sécurité », a ajouté Stephen Kowski, directeur technique sur le terrain chez SlashNext, une société de sécurité informatique et réseau. entreprise, à Pleasanton, en Californie.

« Les garanties techniques et la surveillance humaine restent essentielles puisque les systèmes d’IA sont fondamentalement motivés par leurs données de formation et leurs objectifs programmés, et non par un désir inhérent de bien-être humain », a-t-il déclaré à TechNewsWorld.

« Les êtres humains sont plutôt créatifs », a ajouté Gold. « Je n’adhère pas à toutes ces absurdités apocalyptiques. Nous trouverons un moyen de faire fonctionner l’IA pour nous et de le faire en toute sécurité. Cela ne veut pas dire qu’il n’y aura pas de problèmes en cours de route, mais nous n’allons pas tous nous retrouver dans « Matrix ».

A lire également