Prosegur, le principal groupe de sécurité en Espagne, a fait une étape importante dans son compromis de protection des personnes et des entreprises pour lancer la première politique d’intelligence artificielle (IA) responsable, qui sera applicable dans tous les pays où ils opèrent.
Cette politique a pour objectif de garantir les droits et les libertés de toutes les personnes qui peuvent être affectées par l’utilisation de solutions et de technologies d’intelligence artificielle, en établissant des principes recteurs pour leur mise en œuvre dans tous les projets que vous utilisez. De cette manière, Prosegur demande un compromis continu pour adopter la technologie la plus avancée dans tous ses produits et services, en restant à l’avant-garde de l’innovation.
«Aunque l’application de la IA Nous avons de grands bénéfices, nous devons également prévenir nos risques”, explique Miguel Soler, président du Comité de IA responsable et directeur juridique et cumul du groupe Prosegur. Cette capacité des machines à utiliser des algorithmes, à apprendre les données et à utiliser les connaissances émules du cerveau humain a acquis une grande importance dans les derniers temps, et cada vez son plus d’utilisateurs dans ceux qu’ils emploient. Sans embargo, si une technologie est très puissante dans tous les sens, elle assume également une grande responsabilité en ce qui concerne son application et son suivi.
3 piliers fondamentaux de l’IA
Pour prévenir et atténuer d’éventuels risques, le procureur a établi une procédure dictée par toute l’intelligence artificielle développée ou acquise par la société qui doit cumuler avec trois piliers fondamentaux : être légale (pour garantir le respect des lois et réglementations applicables), éthique (pour assurer l’adhésion aux principes et valeurs éthiques) et robuste (tanto en términos técnicos como sociales, considérant les possibles dommages accidentels que les systèmes d’IA pourraient causer).
Prosegur a établi les piliers fondamentaux qui régissent la politique de l’IA : licitude, éthique et robustesse
«L’utilisation de l’intelligence artificielle est en constante augmentation, en particulier dans les solutions d’analyse vidéo, comme nous l’avons observé dans Prosegur. Avec cette nouvelle politique d’utilisation responsable de l’IA, nous devons unir nos autres grandes entreprises qui donnent la priorité à la technologie dans leurs opérations, mais nous avons une manière éthique, licita et robuste, d’établir notre norme», a déclaré Soler.
Principes éthiques, exigences clés et méthodologie
Pour la création de cette politique, elle a été adoptée comme référence aux principes éthiques établis par la Commission européenne, qui cherche à améliorer le bien-être individuel comme collectif et doit régir tous les projets de l’IA de Prosegur. Ces principes incluent, en premier lieu, le respect de l’autonomie humaine et la nécessité de superviser les processus de travail des systèmes d’IA pour compléter les capacités humaines. De plus, il s’efforce de prévenir le danger en s’assurant que les systèmes d’IA soient techniquement sûrs et robustes pour ne pas nuire au corps. Le principe d’équivalence garantit également une répartition juste des bénéfices et des coûts, ainsi que le droit de s’opposer aux décisions prises par les systèmes d’IA. En fin de compte, le principe d’explicabilité est respecté, qui exige de la transparence dans les processus de développement de l’IA et une communication claire.
De plus, il a établi une série d’exigences pour assurer le fonctionnement d’un système d’intelligence artificielle responsable, qui doit être appliqué pendant tout le cycle de vie de ces processus. Cela inclut l’activation de la supervision humaine pour garantir la sécurité et la solidité technique des processus, ainsi qu’une gestion solide des données pour protéger la confidentialité et promouvoir l’inclusion, la diversité et l’égalité d’accès. Cela implique également la responsabilité et la restitution des données sur les systèmes d’IA et leurs résultats.
D’un autre côté, l’entreprise a développé une méthodologie spécifique pour appliquer cette politique, qui est minutieusement détaillée. Le responsable du projet expliquera le modèle de négociation et la finalité de la solution de l’IA proposée, puis le Comité d’Intelligence Artificielle supervisera et garantira l’accomplissement de la solution et définira les conditions à évaluer. Avec l’approbation du comité, le concepteur de l’IA concevra, mettra en œuvre et testera la solution, et finalement, l’opérateur de l’IA exécutera et supervisera la solution.