Alors que 50 % des entreprises reconnaissent avoir expérimenté de meilleurs résultats grâce à l’IA, les 70 % des organisations ne sont pas encore préparées pour gérer les risques et les perturbations que cette technologie contient. Ainsi, le «Baromètre IA de l’ESSCA-Mazars», basé sur les réponses de plus de 400 responsables technologiques en Europe, a contribué à ce que l’adoption accélérée de l’IA soit nécessaire à de nombreuses organisations vulnérables, dans le cadre opérationnel comme avant les inminentes exigences del Reglamento Europeo de IA (Loi sur l’IA).

Il est vrai que l’étude a établi qu’un de chacun de ces cinq projets d’IA avait des problèmes de mise en œuvre importants. Ces fracas sont principalement imputables au manque de stratégie, à la qualité déficiente des données et à la fuite des profils spécialisés.

Dejan Glavas, professeur de finance et directeur de l’Institut d’IA pour le développement durable de l’ESSCA, a déclaré sur la profondeur de ce défi, « les entreprises sont enthousiasmées par le potentiel de l’intelligence artificielle, mais subissent les résultats de gestion qu’implique. L’IA n’est qu’une question. une technologie sino qui est aussi un défi de gouvernement, d’éthique et de talent ».

La brecha de la Gobernanza : incompatibilité avec la loi sur l’IA

La mauvaise organisation a été signalée par le baromètre qui a mis en place la capacité des entreprises à remplir les exigences du règlement UE 2024/1689, la première loi intégrale du monde sur l’IA, qui a adopté une application progressive et proportionnée au rythme.

Pour les systèmes classiques comme le haut risque, qui incluent les infrastructures utilisées dans les infrastructures critiques, l’éducation, l’emploi, les services essentiels ou la justice, la réglementation européenne exige un système rigoureux de gestion continue et cyclique du Riesgo, qui couvre de L’identification des choses et des imprécisions garantit la garantie de la surveillance humaine et la traçabilité des décisions. L’application de ces normes, en particulier dans les pratiques interdites (comme le notation sociale), vous pouvez acquérir plusieurs millions d’euros jusqu’à 35 M€ ou 7 % du volume du commerce mondial.

Les problèmes détectés lors de la mise en œuvre de l’IA par les entreprises européennes sont directement liés aux domaines de compétence de la loi sur l’IA. Les 45 % des problèmes sont liés à des questions stratégiques ou de ressources, alors que les 30 % sont confirmés par la qualité et la disponibilité des données. Un 25 % des pertes est lié à la confiance et à la responsabilité des systèmes, y compris les aspects cruciaux des activités, l’explicabilité et la supervision humaine.

Différences sectorielles et rapport du secteur public

En ce qui concerne la maturité, l’étude identifie des disparités sectorielles claires :

– Les secteurs de utilitaires (énergie, transports, télécommunications) et le secteur financier sont les plus avancés, avec plus de 60% des organisations avec des équipes spécifiques d’IA

– L’administration publique a augmenté de 27%, une pause de madurez qui résulte particulièrement préoccupante. Les gouvernements locaux ont une double responsabilité en tant que « consommateurs » de solutions technologiques et en tant que « régulateurs »

La loi sur l’IA impose aux gouvernements locaux l’obligation de classer correctement les systèmes utilisés et d’identifier les risques dérivés, ce qui signifie que les systèmes de haut niveau impliquent la mise en œuvre d’auditeurs pour détecter les comportements de genre, d’origine ou de situation économique. Il existe une nécessité impérieuse de promouvoir l’alphabétisation en tant que tel entre le public personnel comme entre la ville pour pouvoir mettre en œuvre ce cadre normatif.

Hacia la madurez organisationnelle

Pour dépasser cette brecha de préparation, le baromètre de l’ESSCA propose ses lignes d’actionnement clés :

1. Renforcer la formation en IA et la gestion des données à tous les niveaux organisationnels

2. Adopter des stratégies « tester et apprendre » qui permettent d’expérimenter de manière contrôlée et d’apprendre les erreurs

3. Créer des cadres de gouvernance éthique et technique alignés sur la loi européenne sur l’IA

4. Promouvoir la collaboration entre les entreprises, les législateurs et les experts en droit technologique

5. Définir des mesures pour atténuer l’impact ambiant de l’IA, en particulier sur les modèles alojados dans le noyau

6. Impulser l’adoption responsable de l’IA dans les secteurs à haut impact social comme la santé, l’éducation et le milieu ambiant

A lire également