L’intelligence artificielle était une technologie incontournable en 2025 et le sera encore davantage en 2026, notamment en matière de cybersécurité.
Bien que l’IA générative ait posé des défis importants aux professionnels de la sécurité de l’information, la propagation de l’IA agentique au cours de la nouvelle année pèsera encore davantage sur les équipes de sécurité déjà stressées. Le revers de la médaille, cependant, se trouve la promesse d’applications basées sur l’IA qui peuvent améliorer la cybersécurité de toutes les organisations.
En gardant ces développements à l’esprit, voici ce que certains experts en cybersécurité voient dans leurs feuilles de thé pour 2026.
Les chapeaux blancs auront l’avantage sur les chapeaux noirs.
Alors que les acteurs de la menace accélèrent rapidement leurs tactiques grâce à l’échelle de l’IA, les défenseurs sont sur le point de reprendre l’avantage en 2026, prédit Nicole Reineke, responsable produit senior pour l’IA chez N-able, une société mondiale de logiciels de gestion informatique et de cybersécurité.
« Les défenseurs peuvent voir l’ensemble du conseil d’administration », a-t-elle déclaré à TechNewsWorld. « Contrairement aux attaquants, qui opèrent souvent seuls, avec une créativité limitée, les fournisseurs de sécurité peuvent regrouper des modèles issus de milliers de tentatives d’intrusion pour mieux comprendre les tactiques et stratégies populaires. »
« Cette visibilité multi-acteurs permet aux défenseurs d’identifier de manière proactive les techniques émergentes bien avant que les organisations individuelles ne soient ciblées », a-t-elle poursuivi. « En 2026, cette intelligence au niveau du réseau deviendra l’un des différenciateurs les plus puissants en matière de cyber-résilience, permettant aux défenseurs de prédire et de neutraliser les attaques avant qu’elles ne commencent. »
Russ Ernst, CTO de Blancco Technology Group, une entreprise mondiale spécialisée dans l’effacement des données et le diagnostic des appareils mobiles, a expliqué que la capacité inhérente de l’IA à détecter des modèles dans de grands ensembles de données améliore la détection des menaces de sécurité et identifie les vulnérabilités en temps réel. « Cela aide les organisations à répondre à des exigences de conformité de plus en plus complexes et réduira les violations coûteuses, les fuites de données et les sanctions réglementaires », a-t-il déclaré à TechNewsWorld.
« En intégrant l’IA dans la gestion des actifs informatiques, les entreprises peuvent détecter et isoler les appareils malveillants ou non suivis avant qu’ils ne deviennent des vecteurs d’attaque, tout en sécurisant les bases de configuration, y compris les paramètres de sécurité, les autorisations et les configurations des systèmes et des composants », a-t-il poursuivi.
« Tirer parti de l’IA pour améliorer les protections de sécurité à l’échelle de l’organisation allégera la charge des équipes de cybersécurité déjà surchargées, améliorera la sécurité des données et contribuera à la conformité aux lois et réglementations de plus en plus complexes sur la confidentialité des données », a-t-il ajouté.
L’IA agentique va révolutionner le DevSecOps.
La prochaine vague de développement de l’IA s’articulera autour des architectures agentiques, une IA capable de planifier, de raisonner et d’agir sur tous les systèmes, a expliqué Ensar Seker, RSSI de SOCRadar, une société de renseignement sur les menaces basée à Newark, dans le Del.. « Dans DevSecOps, cela signifie une IA qui non seulement signale les vulnérabilités, mais dépose également un ticket Jira, crée le dépôt, résout le problème et génère une pull request, sans intervention humaine », a-t-il déclaré à TechNewsWorld.
« Ce n’est pas de la science-fiction », a-t-il affirmé. « Cela se produit déjà dans des environnements prototypes, et d’ici 2026, les équipes de sécurité s’appuieront de plus en plus sur l’IA agentique pour gérer les dettes de sécurité de faible niveau tout en se concentrant sur les risques stratégiques.
L’IA fantôme sera endémique.
« En 2026, Shadow AI continuera de sévir dans les organisations et entraînera la perte d’un plus grand nombre d’informations personnelles identifiables et de propriété intellectuelle », prédit Joshua Skeens, PDG de Logically, un fournisseur de solutions informatiques et de sécurité gérées dont le siège est à Dublin, Ohio.
Il a expliqué que, alors que la course se poursuit pour que les entreprises trouvent des moyens d’accroître leur efficacité et de réduire leurs coûts en tirant parti de l’IA, nombre d’entre elles continuent de négliger les risques que cela crée dans leur organisation. « Les employés font état d’une frustration croissante face aux directives génériques visant à utiliser l’IA pour faire plus, mais la plupart ne comprennent pas par où commencer, quoi faire et, surtout, ce qu’il ne faut pas faire lorsqu’ils exploitent l’IA », a-t-il déclaré à TechNewsWorld.
« La plupart des entreprises ne savent pas si leurs employés utilisent ChatGPT, Grok ou d’autres plateformes similaires, et encore moins s’ils saisissent des informations sensibles sur ces plateformes », a-t-il poursuivi. « La détection de Shadow AI sera essentielle pour les entreprises en 2026 qui souhaitent non seulement réduire les risques, mais aussi mieux comprendre ce que leurs employés font et ne font pas avec l’IA. »
« Pour réussir et sécuriser l’IA, les entreprises doivent d’abord établir des directives claires, éduquer et former leurs employés, puis leur accorder l’accès », a-t-il ajouté. « Nous ne donnons pas les clés de la voiture à nos enfants pour revenir des mois plus tard et leur apprendre à conduire. »
Shadow AI est bien plus qu’une utilisation non autorisée d’outils d’IA populaires, a noté Gene Moody, directeur technique sur le terrain d’Action1, une société de cybersécurité et d’opérations informatiques à Houston.
« Alors que l’adoption de l’IA a augmenté entre 2023 et 2025, les équipes de l’entreprise ont discrètement déployé des LLM privés ou tiers en dehors de la surveillance officielle », a-t-il déclaré à TechNewsWorld. « D’ici 2026, ces modèles fantômes représenteront une surface d’attaque importante et largement invisible, introduisant des flux de données non surveillés, une rétention de formation inconnue et des contrôles d’accès incohérents. »
« De nombreuses organisations découvriront que des informations sensibles circulent déjà via des systèmes d’IA non approuvés, créant des lacunes en matière de conformité et des canaux de fuite persistants », a-t-il poursuivi. « La prolifération de ces modèles non autorisés poussera les entreprises à imposer l’enregistrement de tout flux de travail d’IA touchant les données de l’entreprise, à imposer une gouvernance sur les points de terminaison du modèle et à proposer des alternatives approuvées et renforcées pour empêcher les équipes de poursuivre des expérimentations non supervisées. »
« Shadow AI continuera à apparaître lorsque les outils sanctionnés semblent lents ou restrictifs, et les interdictions à elles seules ne pourront pas l’arrêter », a ajouté Chris Faraglia, architecte de solutions principal chez Sembi, une société de gestion de la qualité et de la sécurité des logiciels à Austin, au Texas.
« La solution pratique consiste à intégrer la politique dans l’environnement de développement intégré, les outils de test et les plateformes de discussion, tout en enregistrant l’utilisation comme tout autre contrôle pour maintenir la vitesse en toute sécurité sans créer de nouveaux risques internes », a-t-il déclaré à TechNewsWorld.
Attendez-vous à une augmentation des dépenses de sécurité à la suite de la première attaque majeure basée sur l’IA.
« En 2026, nous assisterons à la première attaque majeure basée sur l’IA qui causera des dommages financiers importants, incitant les organisations à augmenter considérablement leurs budgets de conformité avec des dépenses de sécurité », a prédit Rick Caccia, PDG de WitnessAI, une société de sécurité et de gouvernance de l’IA basée à Mountain View, en Californie.
Il a expliqué qu’actuellement, les dépenses des entreprises en matière d’IA restent largement axées sur la conformité, alors que les entreprises se préparent aux exigences réglementaires, compte tenu de l’absence de menaces actives. « Cela reflète le paysage de la cybersécurité d’avant 2009, lorsque les organisations dépensaient en technologie SIEM principalement à des fins de conformité plutôt que de protection de la sécurité », a-t-il déclaré à TechNewsWorld.
Caccia prévoit trois changements après que la première attaque d’IA très médiatisée ait fait la une des journaux : les budgets de sécurité seront considérablement libérés à mesure que les dirigeants reconnaîtront l’urgence de la menace ; le nombre d’entreprises repreneures augmentera à mesure que les concurrents se précipiteront pour se protéger contre des attaques similaires ; et les cycles de transaction évolueront trois fois plus vite que les cycles actuels.
« Le besoin d’investissements supplémentaires en matière de sécurité débloquera des budgets que les évaluations théoriques des risques ont limités », a-t-il déclaré. « Cela créera une nouvelle dynamique de marché dans laquelle la sécurité de l’IA passera du statut de « agréable à avoir » à celui de « critique pour l’entreprise » du jour au lendemain.
De mauvaises décisions des agents de l’IA entraîneront une vague de désastres opérationnels.
Dan Graves, directeur des produits chez WitnessAI, a prédit que tout au long de 2026, les entreprises connaîtront d’importants incidents opérationnels causés par des agents bien intentionnés prenant de mauvaises décisions avec de graves conséquences imprévues. « Ces agents ne deviendront pas des « voyous » dans un sens malveillant », a-t-il déclaré à TechNewsWorld. « Il leur manquera tout simplement le jugement et la prévoyance nécessaires pour comprendre le plein impact de leurs actions. Cela entraînera la suppression de bases de code, des systèmes en panne et d’autres catastrophes « utiles ». «
Graves a expliqué que le problème vient du fait que les agents agissent comme des enfants, intelligents dans des tâches spécifiques mais manquant d’intelligence émotionnelle et de réflexion à long terme. « Lorsqu’il est chargé d’améliorer le code, un agent peut décider que l’approche la plus efficace consiste à supprimer l’intégralité du projet existant et à repartir de zéro, ce qui peut être logique d’un point de vue étroit, mais catastrophique en pratique », a-t-il déclaré.
« Les entreprises découvriront que la prévention des attaques malveillantes ne représente que la moitié de la bataille lorsque leurs propres agents peuvent causer des dégâts équivalents simplement en essayant de faire leur travail », a-t-il noté. « Les agents auront parfaitement suivi leurs instructions. Ils ont simplement interprété « améliorer les choses » ou « optimiser ce processus » d’une manière qu’aucun humain n’aurait choisie. Cela révélera le fossé entre la logique informatique et le jugement humain qu’aucune quantité de données de formation ne peut actuellement combler. «
L’IA agentique va modifier le paysage des menaces et faire évoluer les tactiques, les techniques et les procédures.
Déjà un élément clé de nombreuses campagnes de menace en 2025, l’IA agentique remodèlera davantage le paysage des menaces en 2026, à mesure que les acteurs de la menace continueront d’intégrer des outils d’IA dans leur méthodologie d’attaque, a prédit Alex Cox, directeur de TIME et responsable du groupe de travail sur l’intelligence artificielle chez LastPass, une société de gestion de mots de passe et de sécurité des identités à Boston.
« Les défenseurs verront probablement les acteurs malveillants utiliser l’IA agentique de manière automatisée dans le cadre d’activités d’intrusion, poursuivre les campagnes de phishing basées sur l’IA et poursuivre le développement de logiciels malveillants avancés basés sur l’IA », a-t-il déclaré à TechNewsWorld. « Ils utiliseront l’IA agentique pour mettre en œuvre des agents de piratage qui soutiennent leurs campagnes grâce à un travail autonome. »
En 2026, les attaquants passeront de l’utilisation passive de l’IA dans les activités de préparation à l’automatisation des campagnes et à l’évolution des tactiques, techniques et procédures utilisant l’IA », a-t-il ajouté.
Les exploits Zero Day deviendront considérablement plus courants.
À mesure que l’IA accélère certains aspects de la recherche sur les vulnérabilités, du développement et des tests d’exploits, les exploits du jour zéro deviendront considérablement plus courants en 2026, prédit Brennan Lodge, RSSI fractionnaire chez DeepTempo, une société de détection des menaces comportementales à San Francisco.
« Les équipes offensives, en particulier les groupes soutenus par l’État, combineront un raisonnement automatisé avec la génération de code à grande échelle pour enchaîner des faiblesses subtiles en attaques fiables et à fort impact », a-t-il déclaré à TechNewsWorld. « À mesure que cette capacité mûrira tout au long de 2026, les Zero Days passeront d’outils rares exigeant beaucoup d’efforts à des actifs offensifs évolutifs pouvant être déployés dans les environnements de recherche, les chaînes d’approvisionnement et l’infrastructure cloud. »
« Pour les défenseurs, cela signifie que vous ne pouvez pas attendre qu’un CVE apparaisse avant de rechercher un comportement suspect », a-t-il prévenu. « Vous aurez besoin de modèles capables de détecter les premiers signes d’activité de configuration. Au moment où un jour zéro est visible, l’attaquant est déjà là où il voulait être. »
« Le résultat sera un accent croissant sur les systèmes d’apprentissage profond qui évaluent le déroulement de l’activité au fil du temps, permettant aux défenseurs d’identifier l’intention de l’attaquant lors des phases initiales de configuration et d’accès avant qu’un exploit ne devienne observable plus loin dans la chaîne d’attaque », a-t-il déclaré.
Les domaines de l’IA et de la cybersécurité convergeront.
« Le changement le plus significatif de 2026 sera culturel », a affirmé Anurag Gurtu, PDG d’Airrived, développeur d’une plateforme d’IA agentique d’entreprise pour la cybersécurité à Dublin, en Californie. « La cybersécurité et l’IA cesseront d’être des domaines distincts. »
« Les centres d’opérations de sécurité n’utiliseront pas uniquement l’IA », a-t-il déclaré à TechNewsWorld. « Ils fonctionneront avec l’IA. »
Il a expliqué que les systèmes agents supprimeront automatiquement les alertes ; mener des enquêtes en quelques secondes ; corréler les expositions dans le cloud, les points de terminaison d’identité et le réseau ; générer des correctifs ; valider les modifications ; et maintenir des contrôles continus.
D’ici fin 2026, il prédit que les grandes entreprises verront 30 % ou plus des flux de travail SOC exécutés par des agents, et non par des humains.
« C’est l’année où l’IA passe du statut de copilote à celui de collègue », a-t-il déclaré.
