L’intelligence artificielle (IA) a un impact chaque fois plus important dans le cadre des ressources humaines, en particulier dans les processus de sélection des personnes. Les entreprises utilisent des applications d'IA pour créer des bases de données basées sur certains critères, analyser et analyser les programmes d'études.

Marcelo Dos Reis, PDG du Grupo SPEC, responsable de la recherche de solutions pour la gestion horaire et l'accès, a déclaré qu'il espère que l'IA sera adoptée plus largement et convertie en un outil commun entre les entreprises. Sans embargo, nous devons considérer les risques associés à cette technologie, en particulier dans la rétention des talents et la sélection du personnel».

Les risques de l'IA comprennent des mesures possibles concernant la confidentialité des candidats, la discrimination pour des raisons de sexe ou de genre et le risque de protection des données personnelles. En réponse à ces problèmes, la Commission européenne a établi, en décembre 2023, une norme basée sur une proposition du Parlement européen et du Conseil de 2021.

L'objectif de cette norme, selon Dos Reis, est de «assurer que les systèmes d'IA utilisés dans l'UE soient sûrs et respectent les droits des citoyens». Pour cela, les pratiques d’IA sont classées dans trois catégories de risques :

  1. Inadmissibles: Systèmes d'IA qui violent les droits fondamentaux, comme la reconnaissance de la voix ou l'analyse du langage corporel lors des entretiens.
  2. Haut Riesgo: Systèmes d'IA utilisés dans le contrat ou la sélection de personnes qui peuvent conllevar sesgos discriminatorios.
  3. Riesgo limité: Utilisation de chatbots pour le premier contact avec les candidats sans avis préalable, évalués dans ce processus.

IA dans la sélection : vos chances

« La réalisation de ces pratiques au cours des processus de sélection personnelle peut avoir des conséquences économiques élevées », indique Dos Reis. Les multiples violations du règlement de renseignement artificiel se han fijado como un pourcentage du volume des affaires annuel de l'entreprise ou d'une importation déterminée et se classifie de la forme suivante :

  • 35M€ ou 7% du volume de négociation annuel pour appliquer l'IA interdite.
  • 15M€ ou 3%, pour inclure les obligations réglementaires.
  • 7,5M€ ou 1,5% pour présenter des informations inexactes.

Cabe destacar que ces cifras se ajustarán dans le cas des pymes et des entreprises émergentes. Marcelo Dos Reis informe que « la norme sera appliquée en 2026 sur les places européennes, mais il est important que les entreprises s'engagent à avoir la conscience des risques que elles peuvent porter leurs pratiques pendant la captación de talento». C'est pour cette raison que le Groupe SPEC recommande toujours de recourir à des outils innovants et intelligents, mais sur tout, pour la protection des données personnelles, l'intimité et la non-discrimination des travailleurs.

A lire également