Dans un monde où la technologie progresse rapidement, l'Intelligence Artificielle (IA) assume un rôle toujours plus central dans la prise de décisions dans divers domaines. Sans embargo, une question cruciale surgit : que réussissez-vous lorsque ces algorithmes comportent des erreurs ?

Un studio réalisé par des chercheurs de Bikolabs (JAKALA) en collaboration avec l'Université de Deusto, suggère que la supervision humaine dans ces processus, connue comme le processus « humain dans la boucle », peut être compromise si l'IA apporte un support algorithmique. incorrect.

Ce phénomène, appelé son travail d'automatisation, fait que la tendance humaine dépend des systèmes automatisés, y compris lorsque ces erreurs surviennent. Les enquêteurs réalisent des expériences simulant des processus automatisés de prise de décision dans le cadre judiciaire, où les participants doivent juger divers accusés pour différents délits.

Les résultats démontrent que le jugement humain était le plus certifié lorsqu’il était émis avant de recevoir une réponse incorrecte de l’IA. Cependant, une fois que les participants ont eu une erreur d'évaluation en ce qui concerne l'IA, la précision des décisions a été réduite, y compris entre ceux qui avaient été jugés correctement au début du processus. Cette découverte révèle l'influence potentiellement perjudiciable de l'application incorrecte de l'IA sur la précision des décisions humaines, subissant l'importance de l'ordre dans celui qui présente l'information.

« Notre travail montre la pertinence de suivre une enquête sur l’impact de l’interaction entre les humains et les systèmes d’aide à la décision. Une fois qu'il a commencé à réaliser des auditoires de ce type de systèmes, son objectif est de se concentrer sur la partie la plus technique. Par conséquent, nous devons découvrir ce qui se passe sera ce processus d'interaction entre les humains et l'IA qui dérive réellement dans de meilleures décisions», a déclaré JAKALA, Karlos G Liberal, responsable du domaine de la technologie et de l'enquête et Ujué Agudo, enquêteur dans le même département.

La IA et les décisions humaines

L'enquête a également un défi persistant : la tendance humaine à déposer une confiance excessive dans l'effort proportionné aux systèmes. Ce comportement peut inciter les utilisateurs à l'accepter sans interroger les recommandations de l'IA, y compris lorsque ces dernières sont incorrectes, ce qui suscite des préoccupations significatives concernant l'équilibre, l'exactitude et l'éthique des décisions automatisées. Ces découvertes suggèrent que, si bien que l'IA a le potentiel d'améliorer la prise de décision, il est crucial d'aborder et d'atténuer l'impact de vos erreurs et de vos actes pour garantir des processus de décision justes et précis.

L'étude a également mentionné un cas spécifique : le système RisCanvi, utilisé en Catalogne, en Espagne, pour évaluer le risque de réincidescence des reclus, qui a généré une controverse dans le milieu judiciaire. Lors de la mise en œuvre, des enquêtes récentes ont révélé un écart minimum de 3,2% entre les évaluations des fonctionnaires gouvernementaux et l'algorithme du système. Même si RisCanvi a une capacité prédictive positive de 18%, ce qui suggère que seuls deux de ces reclus classés comme le haut risque de récidive, cette limitation n'est pas évidente pour ceux que vous utilisez. Cela reflète la nécessité d'une plus grande transparence et d'une meilleure compréhension du fonctionnement des systèmes d'évaluation des risques.

Les conclusions de cette enquête ne mettent en lumière que les défis inhérents à l’interaction entre les humains et l’IA, mais elles offrent également une perspective précieuse pour optimiser cette collaboration afin d’améliorer la précision et l’équilibre dans les décisions critiques. Cette découverte souligne l'importance de la conception et de la mise en œuvre des systèmes d'IA, ainsi que la nécessité d'une supervision humaine informée et critique.

A lire également