Près de huit décideurs informatiques mondiaux sur dix affirment que l’intelligence artificielle constitue désormais une menace importante pour la sécurité, selon un nouveau rapport sur la cyberguerre publié mardi.
Les cyberconflits entrent dans une nouvelle phase à mesure que l’IA devient profondément ancrée dans les économies, les organisations et la vie numérique quotidienne, selon le quatrième rapport annuel Armis sur l’état de la cyberguerre, basé sur une enquête menée auprès de 1 900 décideurs informatiques du monde entier dans des entreprises de plus de 1 000 employés.
Mais cette dépendance s’accompagne d’une exposition, note-t-il. Aujourd’hui, 79 % des décideurs informatiques déclarent que les attaques basées sur l’IA constituent une menace importante pour la sécurité de leur organisation.
« Les attaques basées sur l’IA se déplacent plus rapidement et permettent à des adversaires moins expérimentés de lancer des attaques sophistiquées à un rythme accéléré, ce qui les rend difficiles à détecter pour les équipes de sécurité classiques », a déclaré à TechNewsWorld Nadir Izrael, CTO et co-fondateur d’Armis Labs, la branche de recherche d’Armis, une société de gestion de la cyber-exposition et de sécurité à San Francisco.
Izrael, qui a rédigé l’introduction du rapport de 23 pages, a ajouté qu’une majorité des personnes interrogées (69 %) conviennent que l’IA permettra aux acteurs non étatiques d’opérer avec une sophistication au niveau de l’État-nation. « Les barrières à l’entrée ont disparu, même si l’impact des attaques continue de croître », a-t-il déclaré.
« Aujourd’hui, nous sommes confrontés à des attaques de cybersécurité de plus en plus sophistiquées, motivées par la croissance de l’IA », a expliqué Seth Spergel, associé directeur chez Merlin Ventures, de McLean, en Virginie, un réseau de filiales qui investit, permet et développe des entreprises de cybertechnologie.
« Si l’IA alimente une nouvelle génération d’outils défensifs, elle rend également beaucoup plus accessibles les types d’attaques qui étaient autrefois le domaine d’acteurs menaçants très expérimentés », a-t-il déclaré à TechNewsWorld. « En conséquence, les organisations voient les États-nations et les criminels sonder leurs défenses à un volume nettement plus élevé qu’auparavant. »
De la nuisance à la menace sophistiquée
Les attaques basées sur l’IA ont pratiquement supprimé la barrière à l’entrée des attaques sophistiquées, a affirmé Jim Sherlock, vice-président de la R&D en IA et en cybersécurité chez ProCircular, une société de conseil en cybersécurité à Coralville, Iowa.
« Traditionnellement, le pirate informatique occasionnel exécutait des exploits pré-emballés qu’ils ne comprenaient pas contre des cibles qu’ils avaient trouvées par accident », a-t-il déclaré à TechNewsWorld. « C’étaient des nuisances, pas des menaces existentielles. »
« Ce que permet l’IA est tout autre chose », a-t-il poursuivi. « Un adversaire peu compétent peut désormais déployer des agents autonomes qui raisonnent sur un environnement cible, enchaînent les exploits en utilisant le contexte actuel, s’adaptent aux réponses défensives et prennent des décisions de mouvements latéraux à la volée. »
« Un script kiddie exécute l’exploit de quelqu’un d’autre et espère que cela fonctionnera », a-t-il déclaré. « Un attaquant équipé d’IA construit sa propre chaîne d’exploits à la volée et sait qu’il le fera. »
« La frontière entre les logiciels malveillants courants et les attaques à l’échelle de l’État-nation se rétrécit », a-t-il ajouté. « Ce qui nécessitait auparavant des ressources et une expertise nécessite désormais simplement une intention. »
Accélération d’attaque
Rajeev Raghunarayan, responsable de la commercialisation chez Averlon, une société de sécurité cloud basée sur l’IA à Redmond, dans l’État de Washington, a affirmé que les attaques basées sur l’IA constituent une menace importante, non seulement parce qu’elles sont plus sophistiquées, mais aussi parce qu’elles opèrent à une vitesse et à une échelle différentes.
« Des recherches récentes, y compris la documentation d’Anthropic sur une campagne de cyberespionnage assistée par l’IA, montrent que les attaquants ont commencé à automatiser certaines parties du cycle de vie de l’attaque, telles que la reconnaissance, la découverte de vulnérabilités et les mouvements latéraux », a-t-il déclaré à TechNewsWorld.
« Cela change la donne pour les défenseurs », a-t-il poursuivi. « La plupart des organisations ont déjà une visibilité sur leurs risques, mais ont du mal à y réagir rapidement. Lorsque l’IA réduit le temps entre la découverte et l’exploitation des vulnérabilités, l’écart entre la découverte d’un problème et sa résolution devient la fenêtre de risque critique. »
« De nombreuses organisations sous-estiment ce changement », a-t-il déclaré. « L’IA abaisse les barrières pour les attaquants, permettant même à des acteurs moins sophistiqués d’opérer à grande échelle, ce qui augmente la pression sur des équipes de sécurité déjà limitées. La question n’est plus seulement de savoir quelles vulnérabilités existent, mais à quelle vitesse vous pouvez hiérarchiser et corriger celles qui sont importantes avant que les attaquants ne les exploitent. »
« L’IA réduit le délai entre l’accès initial et la compromission complète de quelques heures à quelques minutes, et la plupart des opérations de sécurité reposent toujours sur l’hypothèse que les analystes humains ont le temps d’enquêter avant que les choses n’empirent », a ajouté Michael Bell, PDG de Suzu Testing, à Las Vegas, un fournisseur de services de cybersécurité basés sur l’IA.
« Lorsqu’un agent autonome se déplace déjà dans votre réseau plus rapidement que votre équipe ne peut ouvrir un ticket, l’ensemble du modèle de détection et de réponse s’effondre », a-t-il déclaré à TechNewsWorld.
Ressources sous-estimées
Le rapport Armis note également que les deux tiers (66 %) des décideurs informatiques estiment que les organisations sous-estiment les ressources nécessaires pour se défendre contre les menaces basées sur l’IA. C’est encore plus élevé aux États-Unis : 75 %.
« Les organisations disent qu’elles sont préparées, mais la moitié admettent qu’elles n’ont pas suffisamment sécurisé leurs écosystèmes après avoir été piratées. Ce n’est pas de la préparation. C’est un excès de confiance », a déclaré Brian Bell, PDG de FusionAuth, une plateforme de gestion des identités et des accès des clients à Broomfield, Colorado.
« Le problème central est que les organisations confondent conformité et résilience », a-t-il déclaré à TechNewsWorld. « Réussir un audit n’est pas la même chose qu’empêcher un agent autonome d’accéder à des données qu’il ne devrait pas accéder. Jusqu’à ce que les organisations comblent l’écart entre ce qu’elles pensent de leur posture de sécurité et la façon dont elle fonctionne réellement sous pression, le paradoxe de la préparation continuera de s’élargir. »
Avant l’apparition des attaques basées sur l’IA, peu d’organisations étaient en mesure de gérer les menaces auxquelles elles étaient confrontées, a observé Richard Stiennon, fondateur et analyste de recherche en chef chez IT-Harvest, un cabinet d’analystes du secteur de la cybersécurité basé à Birmingham, Michigan.
« L’ajout de l’IA ne fait qu’exacerber le problème », a-t-il déclaré à TechNewsWorld. « Cela fait trois décennies que nous subissons des attaques non basées sur l’IA, et elles n’ont pas disparu. »
Brouillard de cyberguerre
Près de deux décideurs sur trois (64 %) ont déclaré aux chercheurs d’Armis que les technologies émergentes rendront plus difficile la distinction entre espionnage, cybercriminalité et actes de guerre.
Ces distinctions sont importantes car la réponse à chacune est complètement différente, a observé Michael Bell de Suzu. « Se tromper signifie soit que vous dégénérez en une confrontation militaire, soit que vous ne réagissez pas suffisamment et que vous en invitez davantage », a-t-il déclaré.
« Les mandataires hacktivistes de l’Iran sont des opérations dirigées par l’État et portent des vêtements civils spécifiquement pour garder cette ligne floue, et cela fonctionne », a-t-il ajouté.
Izrael, d’Armis, a expliqué que, à mesure que l’industrie continue d’adopter les technologies émergentes, les acteurs de la menace font de même. « Nous le constatons directement à mesure que des menaces basées sur l’IA émergent », a-t-il déclaré.
« Soixante-dix-sept pour cent des décideurs conviennent que l’utilisation abusive des technologies émergentes augmentera la probabilité de dommages collatéraux aux infrastructures civiles lors d’un cyberconflit », a-t-il ajouté.
« À mesure que la concurrence géopolitique s’intensifie, la cyberguerre devient de plus en plus attrayante car elle permet aux adversaires de se prépositionner au sein d’infrastructures critiques et de maintenir un accès persistant qui peut être activé pour perturber des services essentiels comme l’énergie, les transports et les communications », a expliqué Joseph M. Saunders, fondateur et PDG de RunSafe Security, une société de sécurité des micrologiciels et des systèmes embarqués à McLean, en Virginie.
« Les cyberopérations font partie des capacités stratégiques, dans lesquelles les nations peuvent dégrader la stabilité et l’état de préparation d’un adversaire en parallèle, voire avant, une action militaire traditionnelle », a-t-il déclaré à TechNewsWorld.
« Chaque organisation est désormais confrontée à des adversaires plus rapides, moins coûteux à exploiter et plus persistants que tout ce contre quoi le secteur de la sécurité a été conçu à l’origine pour se défendre », a ajouté Sherlock de ProCircular.
« L’intervalle entre ‘nous devrions examiner cela’ et ‘nous venons de nous faire exploser’ s’est réduit de quelques mois à quelques minutes », a-t-il poursuivi. « Si votre dernier test d’intrusion remonte à plus de six mois et que votre équipe continue de trier manuellement les alertes, vous vous défendez contre le paysage des menaces de l’année dernière et non contre la réalité des attaques basées sur l’IA d’aujourd’hui.
