Voir toutes les actualités

Publication de recherche – Justice prédictive et intelligence artificielle : quelles garanties pour une régulation digne de confiance ?

À l’heure où les outils d’intelligence artificielle investissent le champ judiciaire, la question de leur régulation devient cruciale. Comment garantir la transparence, la fiabilité et l’éthique de systèmes dont le fonctionnement reste souvent opaque ? Dans cet entretien croisé, Aurore Hyde, professeure de droit à l’université de Reims Champagne-Ardenne et Guillaume Bernard, ingénieur au Laboratoire national de métrologie et d’essais (LNE), reviennent sur les enjeux de certification, les exigences de traçabilité et la nécessaire montée en compétences des professionnels du droit. Cette entrevue, issue de la recherche « Droit et intelligence artificielle : quelle régulation du marché pour des outils de justice prévisionnelle dignes de confiance ? », soutenue par l’Institut des études et de la recherche sur le droit et la justice, éclaire les conditions d’un déploiement responsable de l’IA dans la justice. Aurore Hyde et Guillaume Bernard participeront à la prochaine matinée d’étude « Quand le droit rencontre l’informatique » organisée par l’Institut, le 3 juillet prochain.

Aurore Hyde, professeure de droit, université de Reims Champagne-Ardenne.
Guillaume Bernard, ingénieur au Laboratoire national de métrologie et d’essais (LNE)

Pour réguler les outils de justice prévisionnelle, il faut apporter de la transparence. Quelles mesures concrètes recommanderiez-vous pour assurer la transparence de ces outils, sans pour autant compromettre le secret des affaires des éditeurs ?

Aurore Hyde : Il faut d’abord bien distinguer ce qui relève du secret des affaires de ce qui peut être rendu public. Le code source, par exemple – c’est-à-dire le langage de programmation et l’ensemble des instructions qui permettent à l’outil de fonctionner – relève du savoir-faire industriel. C’est la partie qu’il faut protéger. Mais cela n’empêche pas de construire en parallèle une documentation en langage courant. Une documentation accessible qui permettrait de comprendre comment l’outil fonctionne, sans entrer dans les détails techniques. Il faut aussi réfléchir à qui cette transparence s’adresse : un utilisateur, un justiciable concerné, un régulateur ? Les attentes ne sont pas les mêmes selon les cas. Mais l’enjeu, dans tous les cas, c’est de rendre le processus traçable et compréhensible.

Je pense à un exemple : un avocat utilise un outil dans un litige sur une rupture de contrat de travail. L’outil lui indique que dans des cas similaires – CDI, cadre, industrie, faute simple, tant d’années d’ancienneté – 78 % des décisions rendues en appel entre janvier 2015 et janvier 2025 ont donné lieu à un préavis de deux mois. Là, on voit bien que l’outil fournit une information précise, basée sur des critères clairement identifiables, sans dévoiler le code source. C’est une forme de transparence utile, sans compromettre les éléments protégés.

J’ajouterais que le secret des affaires n’est pas forcément opposable à un régulateur. Par exemple, la CNIL (Commission nationale de l’informatique et des libertés) peut demander la communication d’algorithmes utilisés pour traiter des données personnelles, donc on ne peut pas invoquer le secret des affaires de la même manière selon les interlocuteurs.

Guillaume Bernard : Le secret des affaires entre rarement en jeu, en tout cas pas de la même manière que dans le cadre d’une publication ou d’une diffusion publique. En tant qu’auditeur, nous avons accès au code source et à tout un ensemble d’éléments qui ne sont effectivement pas partagés avec le public, pour des raisons de compétitivité. Mais dans le cadre d’un audit ou d’une certification, cet accès est prévu, balisé et nécessaire.

Ce qui est essentiel pour garantir la transparence, c’est de pouvoir comprendre comment fonctionne le système : quelles données ont été utilisées pour l’entraîner, quelles données ont servi à l’évaluer, pourquoi ces données-là, comment elles ont été collectées… Tout ce qui concerne la traçabilité. C’est fondamental, d’autant plus que ces systèmes sont souvent perçus comme des boîtes noires – et même les développeurs ont parfois du mal à expliquer précisément leur comportement.

Donc ce qu’il faut documenter, ce sont les entrées et les sorties du système, mais aussi toute la documentation associée, celle qui permet de comprendre le fonctionnement, de tracer les étapes, de reproduire les résultats. Enfin, il y a des conventions, des protocoles, des accords de confidentialité. Dans notre projet de recherche, par exemple, le LNE (Laboratoire national de métrologie et d’essais) a signé des accords avec les différents partenaires pour préciser exactement ce qui serait communiqué, dans quel cadre et à quelles conditions.

Ce qui est essentiel pour garantir la transparence, c’est de pouvoir comprendre comment fonctionne le système : quelles données ont été utilisées pour l’entraîner, quelles données ont servi à l’évaluer, pourquoi ces données, comment elles ont été collectées… Tout ce qui concerne la traçabilité.

Votre rapport évoque la nécessité d’une certification des outils de justice prévisionnelle pour permettre la confiance des utilisateurs. Quels sont les critères prioritaires qui devraient être intégrés dans ce processus pour assurer sa fiabilité et sa neutralité ?

G.B : À mon sens, il n’est pas nécessaire de créer des critères spécifiques pour certifier les outils de justice prévisionnelle. Ce domaine partage des contraintes similaires à d’autres secteurs sensibles comme le médical : peu de données, confidentialité, anonymisation… On peut donc s’appuyer sur les référentiels existants, notamment ceux liés à l’AI Act (règlement européen sur l’intelligence artificielle) ou à la certification LNE des processus IA, qui définissent des exigences communes à tout système d’IA. Cette certification suit quatre grandes étapes : la conception – définition des objectifs, hypothèses, critères attendus ; le développement – choix des systèmes, données, algorithmes ; l’évaluation – vérification de la performance et de la robustesse ; enfin, le maintien en condition opérationnelle – suivi du bon fonctionnement dans un environnement évolutif.

À chaque étape, on veille à la qualité des corpus, à la robustesse du système et à sa capacité à gérer la diversité des sources. En résumé, les outils de justice prévisionnelle peuvent être certifiés selon les mêmes principes que d’autres IA, à condition que chaque phase soit rigoureusement encadrée.

A.H : À partir de la grille d’analyse du LNE, on peut identifier trois exigences fondamentales pour évaluer la fiabilité d’un outil de justice prévisionnelle : la cohérence des résultats dans le temps, leur pertinence juridique vis-à-vis du contentieux actuel et la maîtrise du taux d’erreur. Cela suppose une double exigence : technique et juridique. Mais au-delà de la performance, il y a un impératif éthique : ces outils doivent fonctionner dans l’intérêt de la justice, pas selon des logiques biaisées. Cela implique de vérifier la neutralité du système, en analysant les biais statistiques présents dans les données d’entraînement (par exemple, sur- ou sous-représentation de certaines décisions), mais aussi les biais en sortie, comme les discriminations indirectes.

Par exemple, si un outil propose systématiquement des indemnités plus faibles aux salariés de PME, cela peut refléter une tendance passée mais non conforme à la loi. Ce type de biais doit être identifié, et sa correction, si elle est choisie, doit être argumentée. Certains écarts peuvent être justifiables – comme des variations régionales d’indemnités en lien avec le coût de la vie. L’important est de pouvoir expliquer et documenter les choix faits en matière de traitement des biais.

Enfin, deux autres dimensions doivent être prises en compte : la sécurité du système, pour prévenir tout usage malveillant et le respect des droits, notamment en matière de données personnelles (RGPD). Et, de façon plus ambitieuse, la maîtrise humaine reste un enjeu : les concepteurs doivent conserver la capacité à comprendre le fonctionnement de leur système.
C’est précisément ce que la procédure de certification vise à garantir : que toutes ces dimensions soient prises en compte, justifiées et encadrées.

Il faut sortir des discours trop utopiques ou alarmistes : la clé, c’est une compréhension fine des forces et des limites de ces outils. L’expertise humaine reste centrale. L’IA est un outil d’aide, pas un remplaçant.

Comment les magistrats et avocats peuvent-ils adapter leurs pratiques pour intégrer efficacement ces outils sans risquer d’appauvrir leur raisonnement juridique ? Et quelles compétences spécifiques doivent-ils développer pour utiliser ces outils de manière éclairée et aussi critique ?

G.B : Ce que l’arrivée de l’IA implique pour les professionnels du droit – magistrats, avocats, mais aussi d’autres – ce n’est pas juste une phase d’adaptation. C’est une montée en compétences, une vraie nécessité de comprendre ce qu’est l’IA, comment elle fonctionne, ce qu’elle peut faire… et surtout ce qu’elle ne peut pas faire.

Il faut sortir des discours trop utopiques ou alarmistes : la clé, c’est une compréhension fine des forces et des limites de ces outils. Cela permet de ne pas leur accorder une confiance aveugle, de garder une distance critique. L’expertise humaine reste centrale. L’IA est un outil d’aide, pas un remplaçant. Un autre point important : plus l’équipe IA est intégrée dans les équipes juridiques, mieux l’outil sera adapté aux besoins réels du terrain. Si le système est conçu sans lien avec les usages, on court le risque d’avoir un outil qui ne répond pas aux attentes.

Enfin, en termes de compétences à développer, cela va au-delà du simple usage technique : il faut être capable de comprendre les résultats produits, de les interpréter. Par exemple, si un système fournit des arrêts associés à un score de confiance, il faut comprendre ce que ce score signifie. Ce n’est pas évident, et ce n’est pas forcément une compétence initiale des juristes. Cela suppose de nouvelles connaissances en IA, en statistiques, voire en analyse critique des modèles. Ce sont des compétences encore peu présentes dans les parcours classiques, mais de plus en plus essentielles à acquérir.

A.H : Pour utiliser les outils d’IA de manière éclairée, il est fondamental que les juristes développent une culture générale de l’intelligence artificielle. Cela leur permet de lire les résultats avec esprit critique, de comprendre les logiques probabilistes sous-jacentes, et de décider en connaissance de cause s’ils doivent s’approprier ou remettre en question ce qui leur est proposé. Comprendre l’IA, c’est aussi savoir que la moyenne des décisions n’est pas une vérité absolue.

Si la majorité des jugements alloue 3 000 €, cela ne signifie pas qu’une demande de 5 000 € est infondée. Il faut toujours garder en tête l’individualisation des cas, qui reste un principe essentiel de la justice.

Autre point crucial : l’outil ne doit jamais se substituer à l’expertise humaine. Le raisonnement juridique doit précéder l’usage de l’outil. L’IA peut aider à trouver des jurisprudences pertinentes ou résumer un dossier, mais le professionnel doit d’abord avoir lu, compris et structuré sa propre analyse. C’est à cette condition qu’il pourra maîtriser et contrôler l’outil, et non l’inverse.

Il serait également pertinent de pouvoir comparer les différents outils existants – on en compte déjà près de 90 – pour mieux comprendre leurs méthodes, leurs spécificités, leurs limites. Mais cela pose des problèmes d’accès, de temps et de ressources. Si le gain de temps promis par l’IA est perdu dans la comparaison des solutions, l’intérêt devient relatif.

Enfin, une sélection naturelle risque de s’opérer entre les outils adossés aux grands éditeurs juridiques (LexisNexis, Dalloz, Lexbase…) et les nombreuses startups récemment lancées. La confiance et la reconnaissance dont bénéficient certains acteurs traditionnels pourraient peser dans les usages, surtout en contexte professionnel ou universitaire.

On observe déjà des écarts importants dans l’accès aux bases de données juridiques, dont les abonnements peuvent être prohibitifs. Avec les outils d’IA, on risque de reproduire, voire d’aggraver, cette inégalité. D’où l’idée de développer des outils publics, accessibles à tous.

Quelles précautions devraient être prises pour éviter que l’utilisation de ces outils n’affecte les principes fondamentaux du droit, tels que l’égalité d’accès à la justice et le respect du procès équitable ?

A.H : L’une des préoccupations majeures, c’est l’accès équitable aux outils d’IA. Aujourd’hui, certaines solutions sont encore abordables, mais les coûts risquent d’augmenter avec leur diffusion. Cela pourrait creuser une fracture entre cabinets : ceux qui disposent des moyens d’investir dans des technologies avancées et ceux, plus modestes, qui resteront à l’écart faute de ressources.

On observe déjà des écarts importants rien que dans l’accès aux bases de données juridiques, dont les abonnements peuvent être prohibitifs. Avec les outils d’IA, on risque de reproduire, voire d’aggraver, cette inégalité. D’où l’idée, que je défends, de développer des outils publics, accessibles à tous. Ce serait une façon de garantir un socle commun et d’éviter une privatisation progressive de l’accès au droit, surtout dans un contexte de pression sur les moyens du service public.

Un autre enjeu est le respect du contradictoire. Il faudrait pouvoir discuter les résultats des outils algorithmiques en audience, sans que cela se transforme en procédure dilatoire. Il est aussi important que les magistrats puissent s’écarter librement d’une recommandation algorithmique sans devoir se justifier davantage.

Enfin, cela renvoie à un besoin plus large : définir un cadre légal clair, avec des mécanismes de contrôle, d’audit, de certification. On peut imaginer un label public ou institutionnel comme garantie, mais reste à définir comment cela serait mis en œuvre.

Au-delà de la performance, il y a un impératif éthique : ces outils doivent fonctionner dans l’intérêt de la justice, pas selon des logiques biaisées.

Quel projet ou collaboration avec les acteurs du droit préconiseriez-vous pour évaluer concrètement l’impact de ces outils sur les pratiques judiciaires et la jurisprudence ?

G.B : Je pense que les collaborations comme celle menée avec Aurore sont un exemple de bonnes pratiques. Elles permettent de sensibiliser les professionnels du droit aux enjeux liés à l’IA, de favoriser l’échange avec les fournisseurs d’outils, et surtout de faire monter tout le monde en compétences autour de ces nouvelles technologies. Le fruit de ce travail – un rapport accessible – peut ensuite bénéficier à un large public.

Il est aussi essentiel de s’appuyer sur des tiers de confiance, comme le LNE ou des structures équivalentes, qui n’ont pas d’intérêt commercial dans les outils. Ces entités peuvent accompagner les juristes, soit en réalisant l’évaluation des outils à leur place, soit en les formant à la méthodologie pour qu’ils puissent le faire eux-mêmes : comprendre un protocole d’évaluation, valider un système, etc. Enfin, je recommande aux acteurs du droit de se référer directement aux textes européens, comme l’AI Act. Même s’ils ne saisissent pas tous les détails techniques, ces textes leur offrent un cadre de référence clair pour poser les bonnes questions, identifier les critères clés et orienter leurs choix en matière d’outils et de partenaires.

A.H : Je partage pleinement l’idée qu’il faut poursuivre les travaux de recherche interdisciplinaire, en associant juristes, informaticiens, sociologues, etc. Ces approches croisées sont indispensables pour mesurer l’impact réel des outils de justice algorithmique sur les pratiques. Nous avions mené une expérience en ce sens à Strasbourg, et il serait pertinent de généraliser ce type d’études dans les juridictions.

En ce qui concerne l’évaluation des outils, je pense à l’INESIA (Institut national pour l’évaluation et la sécurité de l’intelligence artificielle), un nouvel institut qui réunit le LNE, l’INRIA, le PEReN (Pôle d’expertise de la régulation numérique) et l’ANSSI (Agence nationale de la sécurité des systèmes d’information). C’est une structure idéale : elle regroupe des acteurs reconnus pour leur expertise en sécurité, en données, en recherche et en évaluation technique. Leurs travaux sont rigoureux, crédibles et parfaitement adaptés aux enjeux liés à la certification des outils d’IA dans le champ juridique.