L’année dernière a vu l’intelligence artificielle (IA) repousser les limites de ce qui est possible, avec les courses d’industries pour intégrer ses capacités pour stimuler la productivité et automatiser des tâches complexes.
En 2024, les progrès de l’IA se sont accélérés à un rythme dépassant les innovations de haute technologie précédentes, préparant la voie à des perturbations encore plus importantes. Mais avec ce progrès rapide vient un risque: sans surveillance humaine, les faux pas de l’IA pourraient être aussi monumentaux que ses percées.
L’IA générative et agentique améliore déjà la capacité des utilisateurs à obtenir un contenu sophistiqué dans divers médias, tandis que les outils de soins de santé alimentés par l’IA remodeler les diagnostics – surpassent les médecins humains dans certaines tâches. Ces développements signalent une transformation imminente de la prestation des soins de santé, avec une IA sur le point de jouer un rôle encore plus important dans les opérations commerciales et industrielles.
Le pouvoir de l’IA naîtra également les agents humanoïdes, a noté Anders Indset, auteur et investisseur en profondeur en technologie dans des technologies exponentives telles que l’IA, la technologie quantique, la technologie de la santé et la cybersécurité. Alors que nous entrons en 2025, le paysage technologique évolue rapidement, avec un projecteur sur les agents humanoïdes.
« Cette année a commencé par l’excitation entourant les modèles de grandes langues (LLM) mais devrait se terminer par des progrès révolutionnaires dans les robots humanoïdes autonomes », a déclaré Indset à Technewsworld.
En 2024, le développement de robots a augmenté, avec des innovations qui semblaient autrefois loin de se présenter maintenant. La libération longtemps attendue d’humanoïdes entièrement autonomes – précédemment confinée dans des milieux industriels – approche, a-t-il observé.
L’arrivée de 2025 apporte l’anticipation pour l’adoption généralisée de l’IA dans la robotique, les interactions améliorées du robot humain et la montée des modèles robotique en tant que service (RAAS). Ceux-ci rendront les solutions robotiques avancées accessibles à davantage d’industries, a expliqué Indset, décrivant la période transformatrice qui a suivi pour l’industrie de la robotique.
«Les agents humanoïdes remodeleront nos interactions avec la technologie et élargiront les possibilités d’applications d’IA dans différents domaines», a-t-il prédit.
Le rôle croissant de l’IA dans la cybersécurité et la biosécurité
L’IA jouera un rôle de plus en plus critique dans la cyber-monnaie, a averti Alejandro Rivas-Vasquez, responsable mondial de la criminalistique numérique et de la réponse aux incidents chez NCC Group. L’IA et l’apprentissage automatique (ML) rendront la cyber-guerre plus mortelle, avec des dommages collatéraux en dehors des zones de conflit en raison de l’hyper-connectivité, a-t-il proposé.
Les défenses de la cybersécurité, déjà un outil réussi pour les guerriers numériques, s’étendront au-delà de la protection des systèmes numériques pour protéger les personnes directement grâce à une technologie implantable. Les interfaces neuronales, la bio-auteur, les puces d’authentification et les implants médicaux avancés révolutionneront l’interaction humaine avec la technologie.
Selon Bobbie Walker, consultant en gestion chez NCC Group, ces innovations présenteront également des risques importants.
«Les pirates pourraient exploiter les interfaces neuronales pour contrôler les actions ou manipuler les perceptions, conduisant à une manipulation cognitive et à des violations de l’autonomie personnelle. Le suivi continu des données sur la santé et le comportement à travers les implants soulève des problèmes de confidentialité substantiels, avec des risques de mauvaise utilisation par des acteurs malveillants ou une surveillance invasive du gouvernement », a déclaré Walker à Technewsworld.
Pour atténuer ces risques, de nouveaux cadres de transition de la technologie de transition, des soins de santé et des réglementations de confidentialité seront essentiels. Walker a averti que les normes pour la «bioéthique numérique» et les normes ISO pour la bio-cycbersesecurity aideront à définir des pratiques sûres pour intégrer la technologie dans le corps humain tout en abordant les dilemmes éthiques.
«Le domaine émergent de la cyber-biosécurité nous pousse à repenser les limites de la cybersécurité, garantissant que la technologie intégrée dans notre corps est sécurisée, éthique et protectrice des individus qui l’utilisent», a-t-elle ajouté.
Selon Walker, les premières études sur les interfaces cérébrales (BCIS) montrent que les intrants adversaires peuvent tromper ces appareils, mettant en évidence le potentiel d’abus. À mesure que les implants évoluent, les risques des violations de cyber-guerre et de confidentialité parrainés par l’État augmentent, soulignant la nécessité de mesures de sécurité robustes et de considérations éthiques.
La sauvegarde des données sur AI soulève des problèmes de sécurité
Sebastian Straub, architecte de solution principale chez N2WS, a déclaré que les progrès de l’IA équivaut à mieux équiper les organisations pour reprendre les opérations après des catastrophes naturelles, des pannes de courant et des cyberattaques. L’automatisation de l’IA améliorera l’efficacité opérationnelle en s’attaquant aux lacunes humaines.
L’automatisation des sauvegardes alimentées par l’IA réduira le besoin d’intervention administrative à près de zéro, a-t-il expliqué. L’IA apprendra les modèles complexes d’utilisation des données, les exigences de conformité et les besoins organisationnels. De plus, l’IA deviendra un expert proactif en gestion des données, déterminant de manière autonome ce qui doit être sauvegardé et quand, y compris l’adhésion aux normes de conformité comme le RGPD, HIPAA ou PCI DSS.
Mais Straub a averti que comme ce niveau de domination de l’IA transforme considérablement les processus de reprise après sinistre, des erreurs se produiront grâce au processus d’apprentissage. En 2025, nous verrons que l’IA n’est pas une solution miracle. S’appuyer sur des machines pour automatiser la reprise après sinistre entraînera des erreurs.
« Il y aura des violations malheureuses de confiance et des violations de la conformité alors que les entreprises apprennent à la dure que les humains doivent faire partie du processus de prise de décision du Dr », a déclaré Straub à Technewsworld.
L’impact de l’IA sur la créativité et l’éducation
Pour de nombreux utilisateurs d’IA, les outils pour aider à améliorer les compétences en communication sont déjà utiles. Chatgpt et d’autres outils d’écriture d’IA mettront l’accent sur la valeur de l’écriture humaine plutôt qu’une solution de contournement pour les tâches de langue personnelle.
Les étudiants et les communicateurs s’adapteront à la demande d’outils d’écriture d’IA pour produire des travaux en leur nom à la possession du processus de création de contenu du début à la fin. Ils exploiteront la technologie pour éditer, améliorer ou développer la réflexion originale, Eric Wang, vice-président de l’IA à la société de détection de plagiat, Turnitin.
Pour l’avenir, Wang a déclaré à Technewsworld que l’écriture serait reconnue comme une compétence critique, non seulement dans les domaines d’étude axés sur l’écriture mais aussi dans les environnements d’apprentissage, de travail et de vie. Ce changement se manifestera comme l’humanisation des domaines, des rôles et des entreprises compatibles avec la technologie.
Il voit le rôle du changement générateur d’IA, avec une utilisation à un stade précoce aidant à organiser et à développer des idées tandis que les stades ultérieurs affinent et améliorent l’écriture. Pour les éducateurs, l’IA peut identifier les lacunes de connaissances dès le début et ultérieurement à la transparence pour faciliter l’engagement des étudiants.
Risques cachés des modèles alimentés par l’IA
Selon Michael Lieberman, CTO et co-fondateur de la plate-forme de sécurité de développement logiciel Kusari, l’IA deviendra plus répandue et difficile à détecter. Sa préoccupation réside dans les modèles gratuits organisés sur les plateformes.
«Nous avons déjà vu des cas où certains modèles sur ces plates-formes ont été découverts comme des logiciels malveillants. Je m’attends à ce que de telles attaques augmentent, bien qu’elles seront probablement plus secrètes. Ces modèles malveillants peuvent inclure des délais cachés ou être formés intentionnellement pour se comporter nuisibles dans des scénarios spécifiques », a déclaré Lieberman à Technewsworld.
Il voit une prévalence croissante d’attaques d’empoisonnement aux données visant à manipuler les LLM et prévient que la plupart des organisations ne forment pas leurs propres modèles.
«Au lieu de cela, ils comptent sur des modèles pré-formés, souvent disponibles gratuitement. L’absence de transparence concernant les origines de ces modèles permet aux acteurs malveillants d’introduire facilement des acteurs nocifs », a-t-il poursuivi, citant l’incident des logiciels malveillants de face étreintes comme exemple.
Les efforts futurs d’empoisonnement aux données sont susceptibles de cibler les principaux acteurs comme Openai, Meta et Google, dont les vastes ensembles de données rendent ces attaques plus difficiles à détecter.
«En 2025, les attaquants sont susceptibles de dépasser les défenseurs. Les attaquants sont motivés financièrement, tandis que les défenseurs ont souvent du mal à obtenir des budgets adéquats, car la sécurité n’est généralement pas considérée comme un moteur des revenus. Il peut prendre une violation importante de la chaîne d’approvisionnement en IA – semblable à l’incident de Solarwinds Sunburst – à inciter l’industrie à prendre la menace au sérieux », a conclu Wang de Turnitin.