Selon une étude de phishing Nocif Gentered, Selon une étude récemment publiée, 41% des écoles aux États-Unis et au Royaume-Uni ont connu des cyber-incidents liés à l’IA, allant des campagnes de phishing à des campagnes de phishing à une société de gestion de systèmes et de gestion de l’accès.
Parmi les 41% des écoles ayant subi un cyber-incident lié à l’IA, 11% ont indiqué que l’incident avait perturbé une perturbation, tandis que 30% ont noté que l’incident était contenu rapidement, selon une enquête auprès de 1 460 administrateurs de l’éducation aux États-Unis et au Royaume-Uni menés par Trendcandy pour la sécurité des gardiens.
La plupart des institutions (82%) ont déclaré qu’elles se sentent au moins «quelque peu préparées» à gérer les menaces de cybersécurité liées à l’IA, bien que ce nombre tombe à 32% pour ceux qui se sentent «très préparés», a noté l’enquête. Cette confiance, tempérée par la prudence, montre que les écoles sont conscientes des risques, mais des lacunes importantes restent dans la préparation globale, et l’incertitude persiste sur l’efficacité des garanties existantes.
« Nos recherches ont révélé que bien que presque tous les chefs d’éducation soient préoccupés par les menaces liées à l’IA, une seule sur quatre a confiance en les identifier », a déclaré Anne Cutler, évangéliste de la cybersécurité de la sécurité du gardien.
« Le défi n’est pas un manque de conscience, mais la difficulté de savoir quand l’IA franchit la ligne des utiles à nocives », a-t-elle déclaré à Technewsworld. «Les mêmes outils qui aident un étudiant à réfléchir à un essai peuvent également être utilisés à mauvais escient pour créer un message de phishing convaincant ou même un folaire profond d’un camarade de classe. Sans visibilité, les écoles ont du mal à séparer l’utilisation légitime de l’activité qui introduit le risque.»
AI Cyber Incidents sous-déclarés?
La conclusion selon laquelle 41% des écoles ont déjà connu un cyber-incident lié à l’IA est étonnamment élevée, mais peut-être pas inattendue étant donné la prolifération rapide et largement incontrôlée des outils d’IA dans les milieux éducatifs, a observé David Bader, directeur de l’Institut des sciences des données du New Jersey Institute of Technology (NJIT), à Newark, NJ, NJ
« Ce nombre est préoccupant car il suggère que près de la moitié de nos établissements d’enseignement sont confrontés à des défis de sécurité avant d’avoir eu l’occasion d’établir des garanties appropriées », a-t-il déclaré à Technewsworld.
«Les écoles ont historiquement été des objectifs vulnérables pour les cyberattaques en raison de budgets de cybersécurité limités et de personnel informatique, et l’introduction d’outils d’IA – dont beaucoup les étudiants et les professeurs adoptent indépendamment sans vérification institutionnelle – a considérablement élargi la surface d’attaque.
« Ce qui est particulièrement troublant, c’est que ce 41% ne représente probablement que les incidents que les écoles ont détectés et rapportés, ce qui signifie que le nombre réel pourrait être considérablement plus élevé », a-t-il déclaré.
James McQuiggan, conseiller du CISO chez Knowbe4, un fournisseur de formation de sensibilisation à la sécurité à Clearwater, en Floride, a convenu. « En fonction de la rapidité avec laquelle les écoles tentent d’adopter des outils d’IA et probablement sans aucune forte pratiques d’hygiène de cybersécurité, ce nombre pourrait être conservateur », a-t-il déclaré à Technewsworld.
«Malheureusement», a-t-il poursuivi, «de nombreuses écoles n’ont pas les ressources et la gouvernance nécessaires pour gérer l’IA en toute sécurité et en toute sécurité pour leurs élèves, ce qui augmente le risque d’exposition et d’utilisation abusive des données.»
« Le nombre n’est pas surprenant si l’on considère que ces incidents incluent les e-mails de phishing », a ajouté Paul Bischoff, défenseur de la vie privée des consommateurs chez Comparerch, un site Web de revues, de conseils et d’information pour les produits de sécurité des consommateurs.
« De nombreuses campagnes de phishing ne sont pas gérées par des anglophones natifs », a-t-il déclaré à Technewsworld. «L’IA les aide à élaborer des e-mails de phishing plus convaincants avec moins d’erreurs.»
Selon le rapport de 2025 Verizon Data Breach Investigations, le phishing représente 77% des violations du secteur de l’éducation, ce qui en fait l’attaque la plus courante de ce secteur.
L’adoption de l’IA se propage dans les écoles
L’étude a également révélé que l’IA est désormais une partie commune des salles de classe et des bureaux du corps professoral. Quatre-vingt-six pour cent des établissements permettent l’utilisation d’outils d’IA par les étudiants, tandis que seulement 2% les ont interdits. Parmi les professeurs, a-t-il ajouté, l’adoption est encore plus élevée à 91%.
Il a rapporté que les étudiants utilisent principalement l’IA pour des tâches de soutien et exploratoires. Les utilisations les plus courantes sont la recherche (62%), le brainstorming (60%) et l’aide linguistique (49%). Les projets créatifs (45%) et le support de révision (40%) suivent, tandis que des tâches plus sensibles, telles que le codage (30%) et la réalisation des affectations (27%), sont plus étroitement contrôlées.
«Bien que le rapport montre que 86% des écoles permettent aux élèves d’utiliser l’IA et 91% des professeurs l’utilisent, la réalité est que les écoles ont largement perdu la capacité d’interdire de manière significative l’IA même si elles le voulaient», a expliqué Bader de NJIT. «Les outils d’IA sont disponibles gratuitement sur les appareils personnels, et les étudiants y accédent en dehors des réseaux scolaires, quelles que soient les politiques institutionnelles.»
« La question la plus productive n’est pas de permettre l’IA, mais comment l’intégrer de manière responsable », a-t-il déclaré. «Les écoles sont confrontées à un choix non plus si l’IA sera utilisée, mais s’ils joueront un rôle de leadership dans la formation de cette utilisation par l’éducation, les cadres éthiques et les garde-corps appropriés.»
« Tenter d’interdire l’IA serait à la fois futile et contre-productif », a-t-il ajouté. «Cela pousserait simplement l’utilisation sous terre tout en refusant aux étudiants les compétences en littératie numérique dont ils auront besoin dans un monde AI-Augmentation.»
Sam Whitaker, vice-président de l’impact social et des initiatives stratégiques chez StudyFetch, une plate-forme alimentée par l’IA spécialisée dans la transformation du matériel de cours en outils d’étude interactifs pour les étudiants et les éducateurs, à Los Angeles, a averti qu’il y a une différence entre «l’utilisation de l’IA» et «l’utilisation responsable de l’IA».
«L’utilisation sans restriction d’outils de productivité comme Chatgpt ou les plateformes d’apprentissage de l’IA qui ne sont pas conçues pour l’apprentissage n’est pas seulement dangereuse, mais il est potentiellement catastrophique pour la pensée à long terme et critique des élèves», a-t-il déclaré à Technewsworld.
«Les écoles ont non seulement un choix mais la responsabilité de fournir des solutions responsables qui sont vraiment conçues pour l’apprentissage et non la triche», a-t-il ajouté.
Les politiques scolaires sont à la traîne de l’usage de l’IA
Alors que les écoles et les universités construisent des cadres pour régir l’utilisation de l’IA, a noté l’étude, la mise en œuvre est inégale. L’élaboration de politiques joue toujours au rattrapage pour pratiquer, a-t-il expliqué, avec un peu plus de la moitié ayant des politiques détaillées (51%) ou des conseils informels (53%) en place, tandis que moins de 60% déploient des outils de détection d’IA et des programmes d’éducation des étudiants.
Avec plus de 40% déjà touchés, a-t-il poursuivi, le fait que seulement un tiers (34%) a des budgets dédiés et seulement 37% ont des plans de réponse aux incidents indiquent un écart concernant la préparation.
Le Cutler de Keeper a souligné que le fait de s’appuyer sur des directives informelles plutôt que des politiques formelles laisse à la fois les étudiants et les professeurs incertains sur la façon dont l’IA peut être utilisée en toute sécurité pour améliorer l’apprentissage et où il pourrait créer des risques involontaires.
« Ce que nous avons constaté, c’est que l’absence de politique est moins une question de réticence et plus d’être en mode de rattrapage », a-t-elle déclaré. «Les écoles adoptent l’utilisation de l’IA, mais la gouvernance n’a pas suivi le rythme.»
«Les politiques fournissent un cadre nécessaire qui équilibre l’innovation avec responsabilité», a-t-elle expliqué. «Cela signifie définir des attentes sur la façon dont l’IA peut soutenir l’apprentissage, l’assurance d’informations sensibles telles que les dossiers des étudiants ou la propriété intellectuelle ne peut pas être partagée avec des plateformes externes, et en obligeant la transparence sur le moment et la façon dont l’IA est utilisée dans les cours ou la recherche. Pris ensemble, ces étapes préservent l’intégrité académique et protègent les données sensibles.»
Bien que les politiques régissant l’IA soient nécessaires, elles ne devraient pas être formulées avec une approche de biscuit. «Il est important de se rappeler qu’une approche unique ne fonctionnera probablement pas ici», a averti Elyse J. Thulin, professeur adjoint de recherche à l’Institut de prévention des blessures par armes à feu de l’Université du Michigan. «Une référence des conseils est importante, mais différentes organisations devront adapter leurs approches en fonction de leurs besoins et de leurs infrastructures.»
« Avec toute nouvelle technologie, il est potentiel de préjudice et d’utilisation injustifiée, ainsi que les avantages de l’avancement », a-t-elle ajouté. «Cela ne signifie pas nécessairement que la technologie est nocive ou erronée. Nous avons juste besoin de travailler pour identifier les moyens d’empêcher de ne pas être utilisés.»
«L’IA est incluse dans cela et se développe à un rythme extrêmement rapide, donc le soutien continu à la recherche dans ce domaine est absolument critique», a-t-elle poursuivi. «Plus nous pouvons étudier et identifier ces modèles d’utilisation, mieux nous établissons des stratégies et des solutions fondées sur des preuves pour protéger finalement les élèves et rendre les environnements scolaires plus sûrs pour tout le monde.»
