L’Intelligence Artificielle a irrumpido en los tribunaux. Il y a quelques années, la science-fiction est devenue une réalité réglementée par les normes du décret royal 6/2023, qui a incorporé des actions automatisées et assistées par l’IA dans l’administration de la justice. Mais avez-vous pu découvrir cette technologie sans vulner d’autres normes ou, y compris, les droits fondamentaux ?

Par Juanjo Hdez. Bonache, Associé Principal de ECIJA

La norme espagnole distingue entre les actions automatisées – des processus simples comme les expédients de page ou la génération de certificats – et les actions assistées, où des algorithmes élaborent des solutions qui doivent être validées. Pour cette dernière fois, le législateur a déjà clairement indiqué que les résolutions judiciaires exigeaient toujours la validation du texte définitif par l’autorité compétente.

Dans d’autres termes, l’intelligence artificielle peut être utile, mais on ne peut pas le décider. Sans embargo, la pratique montre que cette limite n’est pas toujours respectée et il y a toujours plus de cas qui déclenchent des alarmes.

Dans le cadre international, le Tribunal Supérieur du Royaume-Uni (King’s Bench Division – Divisional Court) a récemment résolu les affaires liées à l’utilisation indépendante des outils d’intelligence artificielle générative par les avocats. Ce Tribunal a été chargé de manifester qu’un avocat n’a pas le droit de confier à son client ni à un outil technologique pour l’exactitude de la citation. Cela a également évité le désacato, et a assuré que les futures conduites similaires recevraient des sanctions sévères.

Mais ces situations n’affectent que les avocats, mais elles sont également extralimitées dans l’utilisation de l’IA. Par exemple, la Chambre pénale d’Esquel en Argentine a prononcé une phrase parce que le match de la Première instance a été utilisé par l’IA pour rédiger. La chute annoncée contenait une phrase révélatrice : «Ici, vous avez le point IV réédité, sans citation et liste pour copier et télécharger« . Pour le tribunal, cette délégation vulnérable aux garanties constitutionnelles et au principe du droit naturel.

España tampoco se Balance. Le TSJ de Navarre, le 2/2024 de l’année 4 septembre, a enregistré une pièce séparée d’un avocat cité par erreur dans un article du Code pénal colombien dans une affaire, en utilisant ChatGPT. Même si cela n’a pas été sanctionné, la salle a été informée des conséquences de l’utilisation de ces technologies, qui ont des implications éthiques et juridiques qui peuvent intégrer un mauvais processus.

Le plus grave fut le cas analysé par le Tribunal Constitutionnel, qui a sanctionné une lettre comprenant 19 citations jurisprudenciales inexistantes dans un recours en amparo. L’acte du 19 septembre 2024 a été révélé également dans son propre titre : «La Sala Primera del TC par unanimidad sanctionna un avocat pour la faute du devoir de respect envers le Tribunal, y compris les citations de doctrine qui se sont échangées comme si elles étaient réelles alors qu’elles n’existent pas dans la réalité.».

La communauté juridique coïncide avec le fait que l’IA ne peut pas remplacer le droit humain, mais si elle est consciente de la nécessité d’incorporer la technologie dans ce secteur, l’existence du dilemme entre l’efficacité et les obligations de garanties qui doivent s’imposer dans toute procédure judiciaire est inévitable.

L’IA promet d’améliorer les processus et de réduire la charge de travail, mais présente des risques évidents : des algorithmes, une perte de viabilité et une opacité dans le volume des décisions. Comme le montre la politique d’utilisation de l’IA dans l’administration de la justice (CTEAJE, 2024), votre papier doit être auxiliaire, n’importe quel substitut.

La conclusion – au moins pour le moment – reprend la transparence et le contrôle humain. La question n’est pas si l’IA doit entrer dans les tribunaux -évidemment si-, mais comme. La réponse est basée sur trois principes : supervision humaine efficace, transparence dans l’utilisation et formation continue pour les juges et les avocats.

L’IA peut agiliser les processus, réduire les erreurs et réaliser des analyses complexes, mais il ne faut jamais remplacer la fonction de décision du jeu. L’être humain doit conserver la dernière parole, en garantissant que les recommandations algorithmiques soient entendues, interrogées et validées avant leur application.

Il n’est pas possible d’incorporer la technologie : il faut l’utiliser avec la lumière et les taquígrafos. Les citoyens ont le droit de savoir s’ils sont employés dans une procédure judiciaire et selon ces critères. Ceci implique de publier les modèles utilisés, leurs limitations et les mécanismes pour détecter sesgos. Sans transparence, la confiance s’érode.

La justice ne peut pas permettre d’agir. Les juges, avocats et juges personnels ont besoin de capacités techniques et éthiques pour comprendre les outils qu’ils utilisent. La formation doit être constante, car la technologie évolue plus rapidement que la norme.

En définitive, l’IA n’est pas un ennemi ni un substitut, mais un alias puissant. Mais votre intégration doit avoir la responsabilité, le contrôle humain et la transparence, pour que la justice soit toujours humaine.

A lire également