El 2025 marquera un avant et un après la cybersécurité. Oui, l’intelligence artificielle n’est pas seulement un outil de productivité pour les cyberdélinquants, mais le moteur central d’une nouvelle tâche d’attaques numériques. Así lo revela «Mise à jour des menaces GTIG AI 2025«, l’information la plus récente de Google Threat Intelligence Group, qui décrit comment les acteurs malveillants ont commencé à supprimer les logiciels malveillants qui s’apprennent, s’adaptent et se réécrivent si même en temps réel.

Une année où l’IA a atteint des niveaux de sophistication sans précédent, les experts de Google ont confirmé un changement de paradigme. La société a détecté l’utilisation de modèles générateurs comme Gemini et Qwen2.5 pour créer un code malveillant capable de modifier votre comportement pendant l’exécution, de camoufler les systèmes de détection et de régénérer une forme autonome. « Nous avons la chance d’avoir une génération d’entreprises qui ne dépend pas du programmeur humain pour évoluer », ont déclaré les analystes du GTIG.

Malware qui piensa por simo

L’étude identifie plusieurs exemples de cette nouvelle tendance, entre eux PROMPTFLUX oui PROMPTSTEALdeux familles de logiciels malveillants qui font un saut qualifié dans l’automatisation des attaques. La première fois, utilisez le modèle Gemini pour écrire votre propre code et éviter la détection, tandis que le deuxième sert l’API de Hugging Face pour générer des commandes à la fin du vol de documents et d’informations sur le système. Selon l’information, « ce type de logiciel ne se limite pas à l’exécution d’instructions prédéfinies, mais vous devez consulter un modèle de langue pour décider de la prochaine étape ».

Dans les laboratoires de Google, les chercheurs observent également l’existence d’un module expérimental dénommé Robot pensantconçu pour solliciter périodiquement de nouvelles instructions auprès du modèle Gemini avec l’objectif de pirater l’antivirus. Ce composant, également dans le développement, représente la première preuve concrète d’un malware qui est utilisé en temps réel pour survivre.

Ingénierie sociale pour engager la propia IA

De plus, les utilisateurs apprennent également à manipuler les modèles de langue. Les informations du GTIG indiquent que les groupes responsables des états ont recours à des tactiques d’ingénierie sociale pour convenir aux IA de la fourniture d’informations sensibles ou d’instructions bloquées pour les systèmes de sécurité. Dans un cas documenté, un acteur a appris que Gemini avait expliqué les vulnérabilités du logiciel en passant par un étudiant participant à un concours de cybersécurité de type capturer le drapeau.

« Les agents comprennent comment fonctionner les filtres de sécurité et sont traités comme des êtres humains, sous prétexte et engaños soigneusement conçus », dit le document. Ces intentions ont été adressées à Google pour renforcer les classificateurs et les modèles de Gémeaux afin de ne pas assister les sollicitudes de ce type.

Le marché noir de l’intelligence artificielle

L’écosystème criminel a également évolué. Au cours de l’année 2025, le marché souterrain des outils d’IA pour les cyberdélinquants s’est définitivement transformé en une industrie parallèle. GTIG a détecté la prolifération de services malveillants qui génèrent des logiciels malveillants, supplantation intermédiaire contrefaçons profondeskits de phishing automatisés et support technique impulsé par des modèles de langue. Beaucoup de ces services sont vendus sur des forums en anglais et en russe, imitant le style commercial du logiciel légitime, avec des versions gratuites et des abonnements premium qui promettent une « plus grande efficacité » ou de « meilleurs résultats d’ingénierie inversée ».

Cette accessibilité réduit la barre d’entrée à la cybercriminalité. Incluant les acteurs avec une certaine expérience, ils peuvent maintenant exécuter des attaques complexes grâce à ces outils. « L’IA est en train de se convertir au grand niveau du cyberespace », alertent les analystes de Google, qui préviennent que cette tendance se généralise dans les prochains mois.

Informations sur les états et réponses de Google

Des informations détaillées indiquent également que les acteurs impliqués en Corée du Nord, en Iran et en Chine ont incorporé la IA génératrice dans toutes les étapes de leurs opérations, depuis la création de cebos de hameçonnage a le développement des infrastructures de commande et de contrôle. Certains groupes, comme APT42 ou APT41, ont l’intention d’utiliser Gemini pour créer des agents automatisés de processus de données ou pour obtenir une assistance dans le développement du code et des techniques d’utilisation.

Face à cette nouvelle initiative, Google a déshabilité les actifs impliqués dans les attaques et a renforcé ses modèles avec les informations dérivées de ces enquêtes. L’entreprise s’intéresse également à l’importance de son Cadre d’IA sécurisé (SAIF)un ensemble de principes de sécurité pour le développement responsable des systèmes d’intelligence artificielle. «Le potentiel de l’IA est énorme, mais nous sommes également responsables de sa construction en toute sécurité», rapporte l’information.

A lire également