Alors que l’intelligence artificielle progresse de manière fulgurante dans de nombreux domaines, peut-on concevoir de lui confier la justice, c’est-à-dire la balance et surtout le glaive, indissociables de l’aventure humaine ? La question est dépassée, car la « justice artificielle » est déjà une réalité. Source d’efficacité incomparable, elle pourra donner ou redonner aux juges humains ce qui leur manque : du temps et des moyens pour juger les cas dans lesquels ils sont indispensables. A condition de le vouloir et de maîtriser les risques.

Nul ne conteste que l’IA peut procurer une aide sans équivalent aux juges, avocats et autres professionnels de la justice, dans leurs travaux de recherches, de traitement des faits, d’analyse des incidents de procédure, voire de rédaction des projets de jugement. Les cours américaines et anglaises ont déjà rendu des décisions organisant le rôle des « AI.ssistants ».
En France, la Cour de cassation utilise l’IA pour orienter les pourvois vers un circuit court si la solution s’impose ou vers un circuit approfondi pour les affaires plus complexes.

Domaine contractuel ou économique
Pour le glaive, une question centrale se pose : comment distinguer les cas qui peuvent être tranchés par le juge robot de ceux qui doivent être réservés au juge humain ? Il paraît exclu de confier à un tribunal artificiel les affaires familiales ou pénales, en raison de la proportion prépondérante d’humanité qu’elles demandent pour être traitées. On pourrait, en revanche, imaginer qu’une sélection soit effectuée parmi celles qui relèvent du domaine contractuel ou économique, la plupart de ces affaires ne présentant pas de complexité particulière sur les faits et le droit.
Par exemple, un locataire ne paie pas ses loyers, un artisan n’est pas réglé d’une facture. Il arrive pourtant qu’un juge – qui a reçu une formation d’excellence pour traiter le droit – soit mobilisé pour traiter jusqu’à 70 dossiers de ce type par jour. Rien ne devrait s’opposer à ce que ces affaires, dont le traitement est cardinal, mais qui encombrent les tribunaux, soient confiées à la justice artificielle, quitte à réserver aux parties la possibilité de faire appel devant un vrai juge.
En Estonie, « le pays le plus numérique du monde », les litiges portant sur moins de 7.000 euros peuvent être soumis à une plateforme spécialisée qui rendra une décision ayant valeur de jugement. En Chine, ce sont des tribunaux artificiels qui jugent les litiges qui découlent des transactions sur internet.

Biais algorithmiques
D’autres affaires sont plus complexes en raison de faits qui demandent à être démêlés ou parce qu’elles impliquent l’analyse de principes fondamentaux dont l’interprétation évolue au gré du temps. Par exemple, la notion d’« agir en bon père de famille » a considérablement évolué depuis le Code civil de 1804, pour être finalement remplacée par le terme « raisonnablement » en 2014.
Laisser un juge robot décider de ce qui relève de l’action raisonnable ou pas et, plus généralement, orienter les valeurs et les codes qui régissent une société à une époque donnée, ne serait pas opportun.
ChatGPT le dit lui-même, « l’utilisation de l’IA dans la justice comporte des risques, tels que les biais algorithmiques, la protection de la vie privée et la transparence des décisions. Il est essentiel de mettre en place des réglementations et des mécanismes de supervision pour atténuer ces risques ». A cet égard, le prochain règlement européen sur l’IA prévoit de soumettre à des règles strictes d’évaluation et de contrôle les systèmes d’IA ayant pour domaine l’activité juridique et judiciaire. Et c’est essentiel.

Redonner du temps aux juges
Loin d’être menacés, les métiers du droit, à condition d’en maîtriser les risques, vont profiter de l’IA. Intelligence et justice artificielles pourront (re)donner du temps au juge pour les litiges dans lesquels il est irremplaçable : de quoi assurer la tenue de plus d’audiences, des débats plus longs, plus de réunions judiciaires et d’échanges entre les acteurs de la justice.

Lire l’article complet sur : www.lesechos.fr