La technologie au service de la justice
La justice est souvent critiquée pour sa lenteur et pour les coûts élevés qu’elle occasionne. Les justiciables cherchent de plus en plus des alternatives à la justice étatique pour résoudre leurs litiges et se tournent vers des modes alternatifs de règlement des différends (Alternative Dispute Resolution, ADR) tels que la conciliation, la médiation ou l’arbitrage. L’explosion des différends de petite valeur en matière d’e-commerce a entraîné l’intégration de technologies numériques dans les ADR afin de résoudre ce type de litiges de manière efficace. Connus sous le nom de Online Dispute Resolution (ODR), ces modèles de résolution des litiges en ligne sont couramment utilisés – notamment mais pas uniquement – en matière d’e-commerce (p.ex. l’eBay Resolution Center). Au niveau de la justice étatique aussi on peut observer l’adoption progressive de technologies numériques, par exemple en Chine [1] où il existe déjà des tribunaux appliquant une procédure entièrement en ligne. En Suisse, le projet de révision du Code de procédure civile (CPC) prévoit la possibilité d’auditionner des témoins, des experts et des parties par vidéoconférence [2]. Partout dans le monde, la crise de la COVID-19 a accéléré l’utilisation des technologies numériques dans les tribunaux étatiques, par exemple au Canada avec des audiences sur Zoom.
Les nouvelles technologies sont de plus en plus utilisées dans les professions juridiques. Le recours à l’intelligence artificielle (IA) permet d’assister les juristes dans leur travail, par exemple en facilitant et en accélérant les recherches juridiques [3]. La justice dite « prédictive », qui permet de prévoir une décision de justice notamment sur la base de l’analyse de la jurisprudence, a également fait son apparition tant dans les études d’avocats qu’au service de magistrats, par exemple en France avec le logiciel Prédictice [4].
Du juge au juge-robot
L’efficacité des ODR et de l’IA incite à étendre leur utilisation au niveau étatique pour rendre l’administration de la justice plus efficace tout en garantissant à l’État sa place centrale dans cette tâche et en lui permettant, cas échéant, de placer des garde-fous. C’est sur ce terreau qu’a germé l’idée d’un juge-robot. Ce dernier consisterait en un alliage de Machine Learning et de Natural Language Processing. L’algorithme qui servirait de juge, après s’être entraîné sur la jurisprudence existante, serait capable d’émuler le juge humain en administrant la procédure, en analysant les pièces produites, en procédant à un syllogisme, et en rendant une décision motivée, le tout de manière autonome. A notre connaissance, un tel algorithme n’est pas encore en fonction aujourd’hui, les principaux freins étant la difficulté d’accès à la grande quantité de données nécessaires à la phase d’apprentissage (toute la jurisprudence n’étant pas accessible, du moins numériquement), d’une part, et une technologie pas encore apte à reproduire un syllogisme juridique à la manière d’un humain, d’autre part (voir Van der Branden, Les robots à l’assaut de la justice, Bruxelles 2019, p. 61 ss). Ce dernier élément semble le plus difficile à surmonter car, outre la logique juridique, il faudrait pouvoir inculquer des valeurs morales à l’algorithme, voire même numériser des sentiments et des émotions.
Il existe toutefois déjà plusieurs logiciels informatiques intégrant une forme d’IA se rapprochant de la notion de juge-robot. Aux États-Unis par exemple, le logiciel COMPAS évalue la probabilité de récidive afin que le juge décide ou pas de libérer sous caution un détenu en attente de jugement [5]. Dans certains tribunaux chinois, des IA réceptionnent les litiges, gèrent les interactions avec les parties et rassemblent les informations pertinentes pour les juges [6]. L’Estonie envisage de mettre en place un tribunal administré uniquement par une IA pour les affaires dont la valeur litigieuse est inférieure à € 7’000 [7]. Il existe également des exemples d’utilisation de l’IA par les tribunaux étatiques en France [8] ou en Colombie [9]. En revanche, pour l’heure, il n’existe aucun développement autour de l’IA dans les procédures judiciaires suisses.
Ce nouveau phénomène soulève évidemment beaucoup de questions, notamment éthiques et en relation avec le respect des droits fondamentaux. La Commission européenne pour l’efficacité de la justice du Conseil de l’Europe a adopté en 2018 une Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires [10], qui énumère notamment les principes directeurs de l’implémentation de l’IA dans les procédures judiciaires. Ces cinq principes sont :
- Le principe de respect des droits fondamentaux ;
- Le principe de non-discrimination ;
- Le principe de qualité et sécurité ;
- Le principe de transparence, neutralité et intégrité intellectuelle ;
- Le principe de maîtrise par l’utilisateur.
La reconnaissance des décisions du juge-robot
Au vu de ces développements dans l’administration de la justice étatique, on peut légitimement se poser la question de la reconnaissance en Suisse d’un jugement étranger rendu par une IA de manière autonome, dans l’hypothèse où cette fiction deviendrait réalité.
La portée juridique d’une décision est limitée au territoire de l’État où elle a été rendue. Pour qu’une décision puisse déployer des effets juridiques dans un autre État, il faut que celui-ci reconnaisse cette dernière, en principe par le biais d’une procédure de reconnaissance dont l’objectif est de contrôler la conformité de la décision étrangère à certaines conditions préétablies. Le droit international privé suisse prévoit cinq conditions de reconnaissance, dont la conformité de la décision à l’ordre public suisse et, plus précisément, à l’ordre public formel (art. 25 let. c cum art. 27 al. 2 LDIP). C’est à travers cette condition que le juge suisse pourrait déterminer si une décision rendue par un juge-robot respecte les exigences procédurales ancrées dans l’ordre public suisse, lesquelles correspondent aux exigences minimales de l’art. 6 ch. 1 CEDH (voir Othenin-Girard, La réserve d’ordre public en droit international privé suisse, Zurich 1999, p. 107 ss).
La conformité des décisions du juge-robot à l’ordre public suisse
Pour déterminer si une décision étrangère rendue par un juge-robot est conforme à l’ordre public formel suisse, l’autorité chargée de la reconnaissance pourrait s’inspirer des cinq principes de la Charte éthique du Conseil de l’Europe. Lorsque l’utilisation de l’IA dans le processus décisionnel est conforme à ces principes, la reconnaissance de la décision en Suisse pourrait être envisagée. L’un des principes de la Charte éthique prescrit que l’utilisateur (i.e., le juge) doit garder une maitrise sur la décision, c’est-à-dire que la décision finale doit émaner du juge et non pas de l’IA. Dans le cas où la décision émane d’un juge-robot entièrement autonome, il s’agira de déterminer si l’intervention d’un humain dans le processus décisionnel est un aspect procédural essentiel faisant partie intégrante de l’ordre public suisse. Si cela devait être le cas, la décision ne pourrait pas être reconnue en Suisse. D’autres éléments interviendront également dans le processus de reconnaissance d’une décision étrangère rendue par un juge-robot.
L’exigence que la décision doit émaner d’un tribunal établi par la loi semble être respectée lorsque le juge-robot est institué comme membre du pouvoir judiciaire, avalisé par le droit public du pays étranger. En revanche, l’indépendance et l’impartialité de l’IA suscitent des interrogations. Quelles influences ont façonné la conception du logiciel ? Il faut être attentif aux personnes (physiques ou morales) qui ont participé à la programmation du juge-robot et évaluer le degré de contrôle que l’État a pu exercer sur les étapes de développement. Si, comme dans le cas de COMPAS aux États-Unis, la société ayant développé le logiciel informatique refuse de dévoiler l’architecture interne du logiciel pour préserver le secret d’affaires, comment s’assurer que le produit est impartial et serve l’intérêt public plutôt que les intérêts privés de la société ? Si l’on imagine une procédure de contrôle de la phase d’apprentissage au sein des institutions politiques de l’État en question, qu’en est-il du principe de la séparation des pouvoirs, et donc de l’indépendance du juge ? Et quand bien même une indépendance de facto était démontrée, qu’en serait-il de la question de l’apparence d’indépendance ? Ces éléments montrent à quel point le principe de transparence (retenu par la Charte éthique européenne) est important pour pouvoir évaluer l’absence de biais dans les décisions rendues par une IA. Ils peuvent cependant s’avérer difficiles à estimer dans le cadre de la procédure de reconnaissance d’une décision rendue par un juge-robot.
D’autres droits procéduraux pourraient potentiellement être touchés, par exemple dans l’hypothèse où le justiciable ne parvient pas réellement à savoir quels éléments sont déterminants aux yeux de l’IA dans sa prise de décision. En effet, ces types de logiciels peuvent s’avérer totalement opaques (« effet de boîte noire »), même au regard des experts. Cela pourrait entraîner une violation du droit à une procédure contradictoire car il pourrait s’avérer difficile d’identifier les éléments contre lesquels argumenter.
Le « raisonnement » généralisateur et abstrait que suit un algorithme de Machine Learning soulève également la question de sa compatibilité avec la fonction individuelle et concrète de la décision, surtout dans notre système juridique de tradition civiliste. A priori, les systèmes juridiques de common law, basés sur la case-law, paraissent plus adaptés au raisonnement suivi par une IA. Le devoir de motivation pourrait aussi poser un problème. Toutefois, certains logiciels commencent à être capables de motiver une décision et la jurisprudence n’admet pas facilement une atteinte à l’ordre public pour cause de manque de motivation (voir Bucher, CoRo LDIP/CL, art. 27 LDIP, N 51 et réf.).
En parallèle à ces questions purement procédurales, certaines failles des algorithmes décideurs ont déjà provoqué des réactions indignées dans l’opinion publique. Le film-documentaire Coded Bias [11] a révélé que plusieurs algorithmes utilisés à large échelle sont discriminatoires, notamment envers les personnes de certaines ethnies ou envers les femmes. Si le même constat devait être observé chez un juge-robot, il existerait une réelle incompatibilité de ses décisions avec l’interdiction de discrimination qui est une composante centrale de l’ordre public suisse (voir Bucher, CoRo LDIP/CL, art. 90 LDIP, N 18).
Un avenir entre les mains du juge (humain)
Selon nous, l’état de la science ne permet pas encore de poser le principe qu’une décision étrangère rendue par une IA autonome doit être reconnue en Suisse. Le juge suisse confronté à la question devrait appliquer la triade suivante : en priorité analyser les questions d’ordre public soulevées ci-dessus, puis le degré d’autonomie de l’algorithme, et enfin le type de décision. Plus les droits fondamentaux sont potentiellement impactés par la décision du juge-robot, plus la conformité de la décision avec l’ordre public procédural doit être examinée attentivement. Plus le juge-robot est autonome, plus il faut faire preuve de prudence pour reconnaître ses décisions car il est susceptible de continuer son apprentissage de façon non contrôlée. Plus une décision relève de la justice distributive, en appelant à l’appréciation de valeurs humaines, plus l’intervention du juge-robot est délicate, car elle est d’autant plus susceptible d’entraîner des effets négatifs sur les justiciables, et plus la reconnaissance doit être accordée avec circonspection. Où placer le curseur le long de ces trois axes relève évidemment du cas d’espèce, et nous rappelle la difficulté de la profession de juge.