L’influence de l’IA sur la résolution des contentieux : le juge bouche de l’algorithme ?

Un jour Chat GPT fut. Alors ce qui n’était qu’un objet de fantasmes et de science-fiction apparut au grand public comme un outil pratique par excellence, capable parmi bien des prouesses de traduire quelquefois le langage juridique en signifié intelligible. L’enthousiasme fut grand. Cependant à qui demanderait : « qu’est-ce que l’intelligence artificielle ? » il est fort probable que seul un silence gêné répondra.

Publié le 
8/1/2024
L’influence de l’IA sur la résolution des contentieux : le juge bouche de l’algorithme ?
 

Car si l’IA est partout, il n’est pas certain que nous sachions déterminer en quoi elle consiste, ni pourquoi elle semble constituer une révolution majeure. C’est que ses formes les plus innovantes ont bénéficié d’un certain alignement des astres[1] qui se faisait en réalité sous le signe des mythes fondateurs de Janus aux deux visages et de Prométhée le « transmetteur de feu ».

L’IA comme discipline et matrice de produits et services révolutionnaires

L’IA désigne tant une discipline que les produits ou services rendus possibles par celle-ci. Or, cette discipline fait recours à plusieurs techniques et approches dont les principales sont,

  • d’une part, l’IA symbolique ou basée sur les règles à la capacité « créative » limitée (les opérations qu’elle exécute sont prédéterminées dans un modèle explicite)
  • et d'autre part, l’IA connexionniste ou apprenante (apprentissage machine) dont le succès, spectaculaire, nourrit une forme de monopole de l’appellation « IA ».

Par son essence, l’IA apprenante fonctionne en détectant des modèles utiles dans de grandes quantités de données. Le Conseil d’Etat dans son étude « Intelligence artificielle et action publique : construire la confiance, servir la performance » afin d’expliquer le fonctionnement de chaque technique a pris l’exemple -possiblement intéressé ?- d’ un système d’IA d’aide à l’examen de la recevabilité d’un recours contentieux.

Pour mettre en place un tel système on peut,

  • soit transcrire en instructions informatiques les dispositions pertinentes du code de justice administrative et la jurisprudence pour que le programme les applique à un dossier donné (approche symbolique),
  • soit construire un modèle qui va déduire ces règles à partir de l’exploitation d’un très grand nombre de jugements.

    Ce dernier constatera, « à l’expérience », que ce délai est de deux mois la plupart du temps, sauf dans certaines matières ; qu’il n’est pas déclenché en l’absence de mention des voies et délais de recours dans la décision attaquée, etc. (approche connexionniste).

    La notion d’« apprentissage » consiste simplement à construire une fonction mathématique, parfois simple, parfois d’une complexité vertigineuse (comportant un nombre très élevé de paramètres, sous la forme d’un espace vectoriel à multiples dimensions), à partir de données existantes. Les techniques d'apprentissage automatique sont souvent appliquées à des problèmes impliquant la prédiction et l'estimation de probabilités.

En l’occurrence, le dénominateur commun qui caractérise l’IA demeure qu’elle permet à « des machines d’accomplir des tâches et de résoudre des problèmes normalement réservés aux humains et à certains animaux » quelquefois bien mieux qu’ils ne pourraient le faire. Les outils fournis par l’IA ont la capacité de mémoriser et de traiter de l’information, de raisonner, de parler, d’agir, de prendre une décision, de planifier, de percevoir, d’interagir avec son environnement et de réagir aux émotions de son interlocuteur humain.

Les interactions fondamentales entre les systèmes d’intelligence artificielle et leur environnement peuvent être résumées par le schéma suivant :
Rapport OCDE, L’intelligence artificielle dans la société, 2019, https://www.oecd-ilibrary.org/sites/b7f8cd16-fr/index.html?itemId=/content/publication/b7f8cd16-fr.


Compte tenu de l’ensemble des potentialités de l’IA et des bouleversements positifs et négatifs qu’elles peuvent induire, il n'est pas étonnant que celle-ci soit d’un intérêt brulant pour la plupart des principaux régulateurs internationaux. Ainsi, le 30 octobre 2023, le G7 a validé des directives internationales pour l'intelligence artificielle (IA) ainsi qu'un code de conduite destiné aux développeurs d'IA.

Cette décision s'inscrit dans la continuité du processus initié lors du sommet du G7 à Hiroshima, qui visait à encadrer les évolutions liées à l'IA :

  • Les directives comprennent onze principes, parmi lesquels figure la nécessité de mettre en place des mesures adéquates pour la protection des données et de la propriété intellectuelle, avec une approche basée sur les risques pour encadrer le développement de l'IA.
  • Ces principes sont complétés par un code de conduite qui adopte la même approche. D'autres initiatives nationales, européennes et mondiales visant à développer et réguler l'IA sont actuellement en cours, telles que le partenariat mondial pour l'intelligence artificielle lancé en 2020, une initiative franco-canadienne de coopération internationale visant à soutenir le développement responsable et l'utilisation axée sur l’humain de l'intelligence artificielle.
  • Enfin, compte tenu du caractère de « droit souple » des documents et initiatives précitées, la finalisation du règlement européen sur l'intelligence artificielle, qui supervisera la mise sur le marché de ces technologies en Europe est d’une importance fondamentale.

La France n’est pas en reste puisqu’elle organisera le prochain AI Safety Summit, dont l’objectif est de favoriser une compréhension commune des risques technologiques posés par l’IA, notamment l’IA « de pointe », et de développer des coopérations internationales sur la sécurité de ces systèmes. Or, si les problématiques posées par l’IA à l’action publique peuvent concerner un grand nombre de domaines (Gestion des territoires, Défense, Sécurité, activités d’enquête, de contrôle et de sanction, Travail et emploi, Éducation, Protection sociale et enfin Santé), le recours à l’IA dans le droit et la justice dite « prédictive » est central, précisément en ce qu’il pose ultimement la question de savoir « à quoi sert le Droit ? » à l’heure où, selon François Ost, nous envisageons pour la première fois le scénario d’une société post-juridique.

L’indispensable encadrement de l’intelligence artificielle au regard de la « rule of law » et du caractère juste et équitable du procès

Afin de se faire une idée éclairée de la désirabilité du recours à l’intelligence artificielle dans le droit, il importe d’énoncer clairement quelles peuvent et surtout doivent être les finalités poursuivies par le droit. Une étude exhaustive des finalités du droit couvrirait l’ensemble de la philosophie normative du droit, il suffit de rappeler que la majorité des démocraties considèrent certaines valeurs comme centrales au fonctionnement de leur système juridique.

Celles-ci sont principalement reconnues dans les instruments internes et conventionnels de protection des droits de l’homme. L’exemple paradigmatique pourrait être celui de l’article 6 de la CEDH et de la jurisprudence prolifique qui en découle. Dans une perspective comparatiste,  une brève liste intégrerait l'égalité de traitement en vertu de la loi ; une résolution publique, impartiale et indépendante des litiges juridiques ; la justification et l’explication des résultats ; l’idéal que les résultats juridiques doivent découler de la loi, des principes et des faits plutôt que du statut social ou du pouvoir ; la promotion de résultats fondés sur des motifs raisonnables et socialement justifiables ; la possibilité de faire appel des décisions et d’avoir accès à un examen impartial et indépendant de sa cause; l'équité dans la conception et l'application de la loi ; la promulgation publique des lois ; l'accès adéquat à la justice pour tous ; l'intégrité et l'honnêteté dans la création et l'application de la loi ; ainsi que la transparence judiciaire, législative et administrative.

L’ensemble de ces garanties découle de l’idéal de « rule of law » dont la raison d’être est que le droit a notamment pour fonction d’orienter et de gouverner les actions des hommes en leur permettant de planifier leur comportement par la réduction de la complexité de leur environnement[2]. Or, le recours à l’intelligence artificielle peut, selon l’usage qui en est fait, ou bien aller à l’encontre de la « rule of law », ou bien réduire les préjugés, mettre en évidence les injustices existantes, améliorer l'accès au système juridique ainsi que son efficacité globale. Il convient donc de se pencher sur les usages possibles de l’IA dans le droit. Il apparait alors que l’IA, s’agissant de la fonction de juger est théoriquement concevable dans les deux volets classiques que sont la prise de décision automatisée (« juge robot ») et l’aide à la décision de justice (l’IA comme « assistant de justice », intervenant pour aider à identifier, analyser et résoudre des questions posées dans un litige, notamment à travers une fonctionnalité de recommandation de solutions).

Il va sans dire que l’usage de l’IA dans chacune des situations n’a aucunement la même influence sur la protection des droits fondamentaux. L’IA comme assistant de justice, usée avec prudence a des effets essentiellement positifs puisqu’elle permet de prendre en compte un nombre accru de paramètres pertinents tout en étant particulièrement rapide et efficiente. Le juge ne doit cependant pas se placer dans la dépendance de l’outil mais simplement en user pour former son jugement. L’usage optimal de cette technologie est donc, pour le juge, de contrôler ses propres biais par le recours à l’outil IA et non de substituer les biais de l’IA aux siens. Or les résultats de l’IA sont fortement dépendants des données et de l’apprentissage par lesquels elle a été programmée.

Dans son examen de l'IA dans le système judiciaire en 2022, la commission de la justice et des affaires intérieures de la Chambre des Lords a noté qu'il y avait des « préoccupations concernant les dangers de la partialité humaine contenue dans les données originales qui se reflètent, et sont encore plus ancrées, dans les décisions prises par les algorithmes ». C’est aux Etats-Unis que le recours aux IA est le plus étendu. Les algorithmes Compas et Pattern y sont largement utilisés.  

Le système Compas, par exemple, est un algorithme d'IA utilisé par les juges américains pour prendre des décisions en matière de libération sous caution et de condamnation. Une enquête a révélé que le système générait des résultats biaisés en fonction de la couleur de peau de la personne visée. Si ces résultats ont été contestés par le développeur du système, il n’en demeure pas moins que des individus peuvent être privés de liberté en raison de « scores d'évaluation des risques » fournis par l’IA. Ce fut notamment le cas dans l’affaire State v. Loomis, largement commentée - y compris en France - décidée par la Cour suprême du Wisconsin qui a considéré qu’il n’y avait pas violation du « due process of law » garanti par la Constitution Etats-Unienne même si les calculs qui ont transformé des données sous-jacentes en « score d’évaluation des risques » à l’usage du juge ne sont pas révélés.

De tels cas brouillent en réalité considérablement la confusion entre IA comme aide à la décision et comme « juge robot ». En Europe du moins et en France singulièrement, c’est la protection du caractère équitable du procès, ainsi que principe d’accès à un tribunal impartial et à un juge indépendant qui s’opposent à un tel usage de l’IA. En effet, comme l’indique le Conseil d’Etat en son étude :

« les résultats produits par un système d’IA ne peuvent se concevoir que comme un élément d’appréciation parmi d’autres pour le juge et il ne saurait être exigé de ce dernier qu’il justifie dans sa décision des raisons qui l’ont conduit à ne pas suivre une recommandation de la machine. Tout biais d’automatisation, par lequel le juge s’en remettrait de fait à une telle recommandation et se placerait ainsi sous la dépendance de l’outil et, indirectement, de ceux qui l’ont conçu, constituerait une atteinte inacceptable à l’indépendance du juge et une forme déguisée de robotisation complète dont les limites et inconvénients ont été précédemment décrits ».

Car l’IA, si elle peut apparaitre « intelligente », elle ne pourra probablement jamais l’être véritablement. Un système d’IA n’est doté ni de bon sens, ni de conscience, ni de capacité à se corriger de façon entièrement autonome, sans règle ou nouvel intrant lui ayant indiqué qu’il s’est trompé. Il se borne à faire ce que l’humain l’a programmé à faire, et ce même si le chemin qu’il emprunte pour le faire n’est pas entièrement intelligible pour l’homme, y compris son programmateur, et même s’il ne parvient pas nécessairement à expliquer les raisons du résultat produit.

Il faudra donc garder cela en tête, si l’on souhaite maintenir l’acceptabilité sociale d’une justice civile et plus encore pénale, qui doit être juridiquement et symboliquement rendue au nom du peuple français.

----

[1] Les principaux déterminants de cet alignement furent la disponibilité accrue des données d’entraînement grâce à la numérisation croissante et accélérée de l’activité humaine, par la disponibilité d’une puissance de calcul sans précédent, avec le développement de processeurs incomparablement plus performants qu’auparavant ainsi que par le perfectionnement rapide des algorithmes grâce à l’effervescence de la recherche et au principe du partage public des codes sources (open source).

[2]Ratz, J., « The Rule of Law and its Virtue » in The Authority of Law, OUP, Oxford, 2ème ed, 2009, p. 221 : « Observance of the rule of law is necessary is the law is to respect human dignity. Respecting human dignity entails treating humans as persons capable of planning and plotting their future. Thus, respecting people’s dignity includes respecting their autonomy, their right to control their future » ; lorsque la « rule of law » est respectée : « power is less arbitrary, more predictable, more impersonal, less peremptory, less coercive even » (Jeremy, W., « The Rule of Law » in Zalta, E. N. (ed.), The Stanford Encyclopedia of Philosophy, Summer 2020 Edition, https://plato.stanford.edu/archives/sum2020/entries/rule-of-law/).

Flèche en arrière
Retour vers toutes les actualités

Vous souhaitez bénéficier d'une démonstration de la plateforme Livv ?

Dans vos bureaux ou en visio, nos équipes s'adaptent à vos besoins. Vous pouvez également nous contacter via notre formulaire de contact.

Prendre RDV pour une démo

Les dernières actualités du droit des affaires

Tout voir

Vous souhaitez bénéficier d'une démonstration de la plateforme Livv.eu ?

Dans vos bureaux ou en visio, nos équipes s'adaptent à vos besoins.

Accédez à toute l'intelligence du droit des affaires

Inscrivez-vous gratuitement sur Livv et bénéficiez de notre expertise en droit des affaires.‍

Essayer gratuitement pendant 15 jours
Élément décoratif accompagnant un texte descriptif Livv.

Inscrivez-vous à la newsletter Livv

et recevez chaque semaine des informations exclusives en droit des affaires