En matière de cybersécurité en 2025, l’intelligence artificielle est une priorité pour de nombreux analystes et professionnels.

L’intelligence artificielle sera déployée à la fois par les adversaires et les défenseurs, mais les attaquants en bénéficieront davantage, a affirmé Willy Leichter, directeur marketing d’AppSOC, un fournisseur de sécurité des applications et de gestion des vulnérabilités à San Jose, en Californie.

« Nous savons que l’IA sera de plus en plus utilisée des deux côtés de la cyber-guerre », a-t-il déclaré à TechNewsWorld. « Cependant, les attaquants continueront à être moins contraints car ils se soucieront moins de la précision de l’IA, de l’éthique ou des conséquences imprévues. Des techniques telles que le phishing hautement personnalisé et la recherche de faiblesses héritées des réseaux bénéficieront de l’IA.

« Bien que l’IA ait un énorme potentiel défensif, il existe davantage de contraintes – à la fois juridiques et pratiques – qui ralentiront son adoption », a-t-il déclaré.

Chris Hauk, défenseur de la confidentialité des consommateurs chez Pixel Privacy, un éditeur de guides en ligne sur la sécurité et la confidentialité des consommateurs, prédit que 2025 sera une année d’IA contre IA, car les gentils utiliseront l’IA pour se défendre contre les cyberattaques alimentées par l’IA.

« Ce sera probablement une année de combats, les deux parties utilisant les informations recueillies lors des attaques précédentes pour mettre en place de nouvelles attaques et de nouvelles défenses », a-t-il déclaré à TechNewsWorld.

Atténuer les risques de sécurité de l’IA

Leichter a également prédit que les cyber-adversaires commenceraient à cibler plus souvent les systèmes d’IA. « La technologie de l’IA élargit considérablement la surface d’attaque avec l’émergence rapide de menaces pesant sur les modèles, les ensembles de données et les systèmes d’exploitation en langage machine », a-t-il expliqué. « De plus, lorsque les applications d’IA passent du laboratoire à la production, l’impact total sur la sécurité ne sera compris que lorsque les inévitables violations se produiront. »

Karl Holmqvist, fondateur et PDG de Lastwall, une société de sécurité d’identité basée à Honolulu, est du même avis. « Le déploiement massif et incontrôlé d’outils d’IA – qui sont souvent déployés sans bases de sécurité solides – entraînera de graves conséquences en 2025 », a-t-il déclaré à TechNewsWorld.

« Faute de mesures de confidentialité et de cadres de sécurité adéquats, ces systèmes deviendront des cibles privilégiées pour les violations et les manipulations », a-t-il déclaré. «Cette approche du Far West en matière de déploiement de l’IA laissera les données et les systèmes de prise de décision dangereusement exposés, poussant les organisations à donner la priorité de toute urgence aux contrôles de sécurité fondamentaux, aux cadres d’IA transparents et à la surveillance continue pour atténuer ces risques croissants.»

Leichter a également soutenu que les équipes de sécurité devront assumer davantage de responsabilités dans la sécurisation des systèmes d’IA en 2025.

« Cela semble évident, mais dans de nombreuses organisations, les premiers projets d’IA ont été pilotés par des data scientists et des spécialistes métiers, qui contournent souvent les processus conventionnels de sécurité des applications », a-t-il déclaré. « Les équipes de sécurité mèneront une bataille perdue d’avance si elles tentent de bloquer ou de ralentir les initiatives d’IA, mais elles devront placer les projets d’IA malveillants sous l’égide de la sécurité et de la conformité. »

Leichter a également souligné que l’IA élargirait la surface d’attaque des adversaires ciblant les chaînes d’approvisionnement de logiciels en 2025. « Nous avons déjà vu les chaînes d’approvisionnement devenir un vecteur d’attaque majeur, car les piles de logiciels complexes s’appuient fortement sur du code tiers et open source. », a-t-il déclaré. « L’explosion de l’adoption de l’IA élargit cette cible avec de nouveaux vecteurs d’attaque complexes sur les ensembles de données et les modèles. »

« Comprendre la lignée des modèles et maintenir l’intégrité des ensembles de données changeants est un problème complexe, et actuellement, il n’existe aucun moyen viable pour un modèle d’IA de désapprendre des données toxiques », a-t-il ajouté.

Menaces d’empoisonnement des données sur les modèles d’IA

Michael Lieberman, CTO et co-fondateur de Kusari, une société de sécurité de la chaîne d’approvisionnement en logiciels basée à Ridgefield, dans le Connecticut, considère également l’empoisonnement de grands modèles de langage comme un développement important en 2025. « Les attaques d’empoisonnement des données visant à manipuler les LLM deviendront plus répandues, bien que cette méthode est probablement plus gourmande en ressources que des tactiques plus simples, telles que la distribution de LLM ouverts malveillants », a-t-il déclaré à TechNewsWorld.

« La plupart des organisations ne forment pas leurs propres modèles », a-t-il expliqué. « Au lieu de cela, ils s’appuient sur des modèles pré-entraînés, souvent disponibles gratuitement. Le manque de transparence concernant les origines de ces modèles permet aux acteurs malveillants d’introduire facilement des modèles nuisibles, comme en témoigne l’incident du logiciel malveillant Hugging Face. Cet incident s’est produit début 2024 lorsqu’il a été découvert qu’une centaine de LLM contenant des portes dérobées cachées pouvant exécuter du code arbitraire sur les machines des utilisateurs avaient été téléchargées sur la plateforme Hugging Face.

« Les futurs efforts d’empoisonnement des données cibleront probablement des acteurs majeurs comme OpenAI, Meta et Google, qui entraînent leurs modèles sur de vastes ensembles de données, rendant de telles attaques plus difficiles à détecter », a prédit Lieberman.

« En 2025, les attaquants deviendront probablement plus rapides que les défenseurs », a-t-il ajouté. « Les attaquants sont motivés par des raisons financières, tandis que les défenseurs ont souvent du mal à obtenir des budgets adéquats, car la sécurité n’est généralement pas considérée comme une source de revenus. Il faudra peut-être une rupture importante de la chaîne d’approvisionnement de l’IA – semblable à l’incident de SolarWinds Sunburst – pour inciter l’industrie à prendre la menace au sérieux.

Grâce à l’IA, davantage d’acteurs malveillants lanceront des attaques plus sophistiquées en 2025. « À mesure que l’IA deviendra plus performante et accessible, la barrière à l’entrée pour les attaquants moins qualifiés diminuera tout en accélérant la vitesse à laquelle les attaques peuvent être menées. « , a expliqué Justin Blackburn, ingénieur senior en détection des menaces cloud chez AppOmni, une société de logiciels de gestion de la sécurité SaaS, à San Mateo, en Californie.

« De plus, l’émergence de robots basés sur l’IA permettra aux auteurs de menaces d’exécuter des attaques à grande échelle avec un minimum d’effort », a-t-il déclaré à TechNewsWorld. « Armés de ces outils basés sur l’IA, des adversaires encore moins performants pourraient être en mesure d’obtenir un accès non autorisé à des données sensibles et de perturber les services à une échelle auparavant réservée à des attaquants plus sophistiqués et bien financés. »

Les bébés de script grandissent

En 2025, l’essor de l’IA agentique – une IA capable de prendre des décisions indépendantes, de s’adapter à son environnement et d’agir sans intervention humaine directe – exacerbera également les problèmes des défenseurs. « Les progrès de l’intelligence artificielle devraient permettre aux acteurs non étatiques de développer des cyber-armes autonomes », a déclaré Jason Pittman, professeur agrégé à l’école de cybersécurité et de technologie de l’information du campus mondial de l’Université du Maryland à Adelphi, dans le Maryland.

« Agentic AI fonctionne de manière autonome avec des comportements orientés vers un objectif », a-t-il déclaré à TechNewsWorld. « De tels systèmes peuvent utiliser des algorithmes de pointe pour identifier les vulnérabilités, infiltrer les systèmes et faire évoluer leurs tactiques en temps réel sans intervention humaine. « 

« Ces fonctionnalités le distinguent des autres systèmes d’IA qui s’appuient sur des instructions prédéfinies et nécessitent une intervention humaine », a-t-il expliqué.

« Comme pour le ver Morris au cours des décennies passées, la diffusion de cyber-armes agents pourrait commencer par un accident, ce qui est encore plus gênant. En effet, l’accessibilité des outils d’IA avancés et la prolifération des cadres d’apprentissage automatique open source abaissent les obstacles au développement de cyber-armes sophistiquées. Une fois créée, la puissante fonctionnalité d’autonomie peut facilement conduire l’IA agentique à échapper à ses mesures de sécurité.

Aussi nuisible que puisse être l’IA entre les mains d’acteurs malveillants, elle peut également contribuer à mieux sécuriser les données, comme les informations personnellement identifiables (PII). « Après avoir analysé plus de six millions de fichiers Google Drive, nous avons découvert que 40 % des fichiers contenaient des informations personnelles qui exposaient les entreprises à un risque de violation de données », a déclaré Rich Vibert, co-fondateur et PDG de Metomic, une plateforme de confidentialité des données à Londres.

« À l’aube de 2025, nous verrons de plus en plus d’entreprises donner la priorité aux méthodes automatisées de classification des données afin de réduire la quantité d’informations vulnérables enregistrées par inadvertance dans des fichiers accessibles au public et des espaces de travail collaboratifs dans les environnements SaaS et cloud », a-t-il poursuivi.

« Les entreprises déploieront de plus en plus d’outils basés sur l’IA capables d’identifier, d’étiqueter et de sécuriser automatiquement les informations sensibles », a-t-il déclaré. « Ce changement permettra aux entreprises de suivre le rythme des grandes quantités de données générées quotidiennement, garantissant ainsi que les données sensibles sont continuellement protégées et que l’exposition inutile des données est minimisée. »

Néanmoins, 2025 pourrait également marquer le début d’une vague de déception parmi les professionnels de la sécurité lorsque le battage médiatique autour de l’IA prendra de l’ampleur. « Les RSSI diminueront la priorité de l’utilisation de l’IA de 10 % en raison du manque de valeur quantifiable », a écrit Cody Scott, analyste principal chez Forrester Research, une société d’études de marché dont le siège est à Cambridge, dans le Massachusetts, dans un blog d’entreprise.

« Selon les données 2024 de Forrester, 35 % des RSSI et DSI dans le monde considèrent comme une priorité absolue l’exploration et le déploiement de cas d’utilisation de la génération IA pour améliorer la productivité des employés », a-t-il noté. « Le marché des produits de sécurité a rapidement vanté les avantages attendus de la génération AI en matière de productivité, mais le manque de résultats pratiques entretient la désillusion. »

« L’idée d’un centre d’opérations de sécurité autonome utilisant la génération AI a généré beaucoup de battage médiatique, mais elle ne pourrait pas être plus éloignée de la réalité », a-t-il poursuivi. « En 2025, la tendance se poursuivra et les praticiens de la sécurité sombreront encore plus dans le désenchantement à mesure que des défis tels que des budgets inadéquats et des avantages non réalisés de l’IA réduiront le nombre de déploiements d’IA de génération axés sur la sécurité. »

A lire également