Près de la moitié du trafic sur Internet est généré par des entités automatisées appelées bots, et une grande partie d’entre eux constituent des menaces pour les consommateurs et les entreprises sur le Web.
«(B) Les OTS peuvent aider à créer des escroqueries de phishing en gagnant la confiance de l’utilisateur et en l’exploitant pour les escrocs. Ces escroqueries peuvent avoir de graves implications pour la victime, dont certaines incluent la perte financière, le vol d’identité et la propagation des logiciels malveillants », Christoph C. Cemper, fondateur de l’AIPRM, une société d’ingénierie et de gestion rapide de l’IA, à Wilmington, Del., dit dans un communiqué fourni à Technewsworld.
« Malheureusement, ce n’est pas la seule menace de sécurité posée par les bots », a-t-il poursuivi. «Ils peuvent également nuire à la réputation de la marque, en particulier pour les marques et les entreprises avec des profils de médias sociaux populaires et des taux d’engagement élevés. En associant une marque à des pratiques frauduleuses et contraires à l’éthique, les robots peuvent ternir la réputation d’une marque et réduire la fidélité des consommateurs. »
Selon le rapport Imperva 2024 Bad Bot, les niveaux de trafic Bad Bot ont augmenté pour la cinquième année consécutive, indiquant une tendance alarmante. Il a noté que l’augmentation est en partie motivée par la popularité croissante de l’intelligence artificielle (IA) et les grands modèles d’apprentissage (LLM).
En 2023, Bad Bots a représenté 32% de tout le trafic Internet – une augmentation de 1,8% par rapport à 2022, a expliqué le rapport. La partie du bon trafic BOT a également augmenté, bien que légèrement moins significative, de 17,3% de tout le trafic Internet en 2022 à 17,6% en 2023. Combiné, 49,6% de tous 50,4% de tout le trafic.
«Les bons robots aident à indexer le Web pour les moteurs de recherche, à automatiser la surveillance de la cybersécurité et à aider le service à la clientèle via des chatbots», a expliqué James McQuiggan, défenseur de la sensibilisation à la sécurité chez KnowBe4, un fournisseur de formation de sensibilisation à la sécurité à Clearwater, en Floride.
« Ils aident à détecter les vulnérabilités, à améliorer les flux de travail et à rationaliser les procédures en ligne », a-t-il déclaré à Technewsworld. « L’astuce est de savoir ce qui est une automatisation précieuse et quelle est l’activité néfaste. »
Scale de billets à l’échelle
L’automatisation et le succès stimulent les tendances de croissance du trafic de botnet, a expliqué Thomas Richards, directeur de la pratique du réseau et de l’équipe rouge chez Black Duck Software, une société de sécurité des applications à Burlington, Mass.
«Pouvoir évoluer permet aux acteurs malveillants d’atteindre leurs objectifs», a-t-il déclaré à Technewsworld. «L’IA a un impact en permettant à ces acteurs malveillants d’agir plus humain et d’automatiser le codage et d’autres tâches. Google, par exemple, a révélé que les Gémeaux ont été utilisés pour créer des choses malveillantes. »
«Nous le voyons également dans d’autres expériences quotidiennes», a-t-il poursuivi, «comme la lutte ces dernières années pour obtenir des billets de concert pour des événements populaires. Les scalpers trouvent des moyens de créer des utilisateurs ou d’utiliser des comptes compromis pour acheter des billets plus rapidement qu’un humain. Ils gagnent de l’argent en revenant les billets à un prix beaucoup plus élevé. »
Il est facile et rentable de déployer des attaques automatisées, a ajouté Stephen Kowski, CTO sur le terrain chez Slashnext, une société de sécurité informatique et réseau à Pleasanton, en Californie.
« Les criminels utilisent des outils sophistiqués pour contourner les mesures de sécurité traditionnelles », a-t-il déclaré à Technewsworld. «Les systèmes alimentés par l’IA rendent les robots plus convaincants et plus difficiles à détecter, leur permettant d’imiter mieux le comportement humain et de s’adapter aux mesures défensives.»
« La combinaison d’outils d’IA facilement disponibles et la valeur croissante des données volées crée des conditions parfaites pour des attaques de robots encore plus avancées à l’avenir », a-t-il déclaré.
Pourquoi les mauvais robots sont une menace sérieuse
David Brauchler, directeur technique et chef de la sécurité de l’IA et de la ML au groupe NCC, un cabinet de conseil en cybersécurité mondial, s’attend à ce que le trafic Internet non humain continue de croître.
« À mesure que de plus en plus d’appareils deviennent connectés à Internet, les plates-formes SaaS ajoutent des fonctionnalités interconnectées et que de nouveaux appareils vulnérables entrent en scène, le trafic lié à BOT a eu l’occasion de continuer à augmenter sa part de bande passante du réseau », a-t-il déclaré à Technewsworld.
Brauchler a ajouté que les mauvais robots sont capables de causer un grand mal. « Les robots ont été utilisés pour déclencher des pannes de masse par des ressources réseau écrasantes pour refuser l’accès aux systèmes et services », a-t-il déclaré.
« Avec l’avènement de l’IA génératrice, les robots peuvent également être utilisés pour se faire passer pour une activité réaliste des utilisateurs sur les plateformes en ligne, augmenter le risque de spam et la fraude », a-t-il expliqué. «Ils peuvent également rechercher et exploiter les vulnérabilités de sécurité dans les systèmes informatiques.»
Il a soutenu que le plus grand risque de l’IA est la prolifération du spam. « Il n’y a pas de solution technique solide pour identifier et bloquer ce type de contenu en ligne », a-t-il expliqué. «Les utilisateurs ont pris à l’appel de ce phénomène AI Sold, et cela risque de noyer le signal des interactions en ligne légitimes dans le bruit du contenu artificiel.»
Il a cependant averti que l’industrie devrait être très prudente lorsqu’elle considère la meilleure solution à ce problème. « De nombreux remèdes potentiels peuvent créer plus de mal, en particulier ceux qui risquent d’attaquer la vie privée en ligne », a-t-il déclaré.
Comment identifier les robots malveillants
Brauchler a reconnu qu’il peut être difficile pour les humains de détecter un bot malveillant. « L’écrasante majorité des robots ne fonctionnent pas de manière que les humains peuvent détecter », a-t-il déclaré. «Ils contactent directement les systèmes exposés à Internet, interrogeant les données ou interagissant avec les services.»
« La catégorie de bot qui concerne la plupart des humains sont des agents d’IA autonomes qui peuvent se déguiser en tant qu’êtres humains pour tenter de frauder les gens en ligne », a-t-il poursuivi. «De nombreux chatbots d’IA utilisent des modèles de discours prévisibles que les utilisateurs peuvent apprendre à reconnaître en interagissant avec les générateurs de texte d’IA en ligne.»
« De même, l’imagerie générée par l’AI a un certain nombre de` `raconte » que les utilisateurs peuvent apprendre à rechercher, y compris des modèles cassés, tels que les mains et les horloges mal alignées, les bords d’objets qui se fondent dans d’autres objets et les arrière-plans confus », a-t-il déclaré.
« Les voix d’IA ont également des inflexions inhabituelles et des expressions de ton que les utilisateurs peuvent apprendre à reprendre », a-t-il ajouté.
Les robots malveillants sont souvent utilisés sur les plateformes de médias sociaux pour obtenir un accès de confiance aux individus ou aux groupes. « Surveillez les signes révélateurs comme des modèles inhabituels dans les demandes d’amis, des images de profil génériques ou volées, et les comptes publient des vitesses ou des fréquences inhumaines », a averti Kowski.
Il a également conseillé de se méfier des profils avec des informations personnelles limitées, des modèles d’engagement suspects ou de pousser des agendas spécifiques grâce à des réponses automatisées.
Dans l’entreprise, a-t-il poursuivi, l’analyse comportementale en temps réel peut repérer des actions automatisées qui ne correspondent pas aux modèles humains naturels, tels que des clics incroyablement rapides ou des remplissages de formulaires.
Menace pour les entreprises
Les bots malveillants peuvent être une menace importante pour les entreprises, a noté Ken Dunham, directeur de l’unité de recherche sur les menaces chez Qualys, un fournisseur de solutions de sécurité, de sécurité et de conformité basées sur le cloud à Foster City, en Californie.
« Une fois amassé par un acteur de menace, ils peuvent être armées », a-t-il déclaré à Technewsworld. «Les robots ont des ressources et des capacités incroyables pour effectuer des attaques anonymes, distribuées et asynchrones contre les cibles de choix, telles que les attaques d’identification par force brute, les attaques de déni de service distribuées, les analyses de vulnérabilité, la tentative d’exploitation, et plus encore.»
Les bots malveillants peuvent également cibler les portails de connexion, les points de terminaison API et les systèmes orientés publics, ce qui crée des risques pour les organisations, car les mauvais acteurs ont sonde pour les faiblesses pour trouver un moyen d’accéder à l’infrastructure interne et aux données, a ajouté McQuiggan.
« Sans stratégies d’atténuation des bots, les entreprises peuvent être vulnérables aux menaces automatisées », a-t-il déclaré.
Pour atténuer les menaces des mauvais robots, il a recommandé de déploier l’authentification multi-facteurs, les solutions de détection de bots technologiques et la surveillance du trafic pour les anomalies.
Il a également recommandé de bloquer les anciens agents utilisateur, d’utiliser les captchas et de limiter les interactions, dans la mesure du possible, à réduire les taux de réussite.
«Grâce à l’éducation à la sensibilisation à la sécurité et à la gestion des risques humains, les connaissances d’un employé sur les tentatives de phishing et de fraude axées sur les bot peuvent assurer une culture de sécurité saine et réduire le risque d’une attaque de bot réussie», a-t-il conseillé.