Accueil / Idées & Débats / Éthique de l’IA : peut-on déléguer la justice aux machines ?

Éthique de l’IA : peut-on déléguer la justice aux machines ?

ia et justice numérique

En mars 2026, un tribunal néerlandais a suspendu l’utilisation d’un algorithme prédictif dans le calcul des allocations sociales après avoir découvert que le système discriminait systématiquement les familles issues de l’immigration. Aux États-Unis, le logiciel COMPAS, censé évaluer le risque de récidive des prévenus, attribue aux accusés noirs un taux de dangerosité presque deux fois supérieur à celui des accusés blancs, à profil pénal comparable. En France, la Cour de cassation elle-même s’interroge désormais sur la place que doivent occuper les outils algorithmiques dans la chaîne judiciaire. Le constat est brutal : l’intelligence artificielle a déjà franchi la porte des tribunaux, et personne ne lui a vraiment demandé de montrer patte blanche.

ia et justice numérique

Derrière le discours lénifiant sur la « modernisation de la justice », se joue une partie d’échecs bien plus complexe. D’un côté, des États surendettés cherchent à rationaliser des systèmes judiciaires engorgés. De l’autre, des entreprises technologiques proposent des solutions clés en main qui transforment le droit en équation. Entre les deux, des millions de justiciables qui n’ont pas la moindre idée que leur sort pourrait dépendre, demain, d’une ligne de code écrite dans la Silicon Valley ou à Shenzhen.

Quand l’algorithme enfile la robe de juge

L’idée de confier des décisions judiciaires à une machine ne date pas d’hier. Dès les années 1990, les assureurs utilisaient des modèles statistiques pour évaluer les risques de fraude. Mais le tournant s’est produit avec l’apprentissage profond. Les réseaux de neurones, nourris de millions de décisions passées, prétendent désormais anticiper le comportement humain avec une précision chirurgicale.

En Europe, la tentation est forte. Les tribunaux français traitent en moyenne 2,7 millions d’affaires civiles par an, selon les chiffres du ministère de la Justice publiés en 2024. Les délais de jugement atteignent parfois quatorze mois devant les tribunaux judiciaires. Face à cet embouteillage, l’IA apparaît comme un levier mécanique susceptible de fluidifier la machine. La loi de programmation pour la justice de 2019 a d’ailleurs ouvert la voie à l’expérimentation d’outils d’aide à la décision, notamment dans le contentieux civil de masse : litiges locatifs, pensions alimentaires, indemnisations corporelles.

Mais entre « aide à la décision » et « prise de décision », la frontière est poreuse comme une passoire. Lorsqu’un logiciel suggère un montant d’indemnisation en se fondant sur des milliers de jugements antérieurs, le magistrat qui le valide exerce-t-il encore véritablement son pouvoir d’appréciation ? Ou se contente-t-il de tamponner la recommandation d’un oracle numérique dont il ne comprend pas les rouages ?

Le mirage de la neutralité vs justice rendue pour IA

Le premier piège de l’IA judiciaire est de croire qu’un algorithme est neutre parce qu’il calcule. C’est confondre objectivité et automatisation. Un modèle de machine learning n’invente rien : il reproduit, amplifie et systématise les schémas qu’on lui a enseignés. Si les données d’entraînement reflètent un demi-siècle de biais sociaux, raciaux et économiques, le système les cristallise avec une efficacité redoutable.

L’affaire SyRI aux Pays-Bas en offre l’illustration la plus nette. Ce système de détection des fraudes sociales, déployé par le gouvernement néerlandais entre 2014 et 2020, ciblait en priorité les quartiers défavorisés et les populations d’origine étrangère. La Cour de district de La Haye l’a jugé contraire à l’article 8 de la Convention européenne des droits de l’homme, estimant qu’il portait une atteinte disproportionnée au droit à la vie privée. La machine n’avait fait que reproduire mécaniquement les préjugés intégrés dans les critères de sélection définis par ses concepteurs humains.

En France, les travaux de la Commission nationale consultative des droits de l’homme (CNCDH) confirment cette mécanique perverse. Dans un avis publié en 2022, elle alertait sur le risque que les outils prédictifs renforcent les discriminations structurelles existantes dans le système pénal français, où les populations précaires et racisées sont déjà surreprésentées à chaque étape du processus judiciaire, de l’interpellation à l’incarcération.

Le problème n’est donc pas technique. Il est politique. Derrière chaque jeu de données se cache une vision du monde, un choix de société. Décider quelles variables alimentent un algorithme de justice, c’est exercer un pouvoir normatif considérable. Et ce pouvoir, aujourd’hui, échappe largement au contrôle démocratique.

Bruxelles avance ses pions, mais la partie reste ouverte

L’Union européenne a tenté de reprendre la main avec le Règlement sur l’intelligence artificielle, adopté définitivement en mars 2024 et dont les premières obligations sont entrées en application en février 2025. Ce texte classe les systèmes d’IA utilisés dans l’administration de la justice parmi les applications « à haut risque », imposant des obligations de transparence, d’évaluation des biais et de supervision humaine.

Sur le papier, c’est un coup d’avance sur l’échiquier mondial. Ni les États-Unis, ni la Chine ne disposent d’un cadre aussi structuré. Washington laisse le marché s’autoréguler, sous la pression d’un lobbying technologique qui pèse plusieurs milliards de dollars par an. Pékin, à l’inverse, intègre massivement l’IA dans son appareil judiciaire, avec des « tribunaux intelligents » où des algorithmes traitent des millions de litiges civils sans intervention humaine significative. Le modèle chinois séduit par son efficacité statistique, mais il pose des questions abyssales en matière de droits fondamentaux.

Le Règlement européen fixe un cadre, certes. Mais il reste à transformer la réglementation en pratique. L’Arcep, dans son rapport annuel sur l’état d’internet en France publié en juin 2025, soulignait que la régulation du numérique souffre d’un déficit chronique de moyens techniques et humains. Comment auditer un réseau de neurones comportant des milliards de paramètres quand les autorités de contrôle peinent déjà à surveiller le marché des télécommunications ? La question n’est pas rhétorique. Elle est budgétaire, institutionnelle et, en définitive, politique.

De surcroît, le texte européen ménage des zones grises. La notion de « supervision humaine significative » reste floue. Un magistrat qui valide systématiquement les recommandations d’un logiciel sans disposer du temps ni des compétences pour les contester exerce-t-il une supervision ou un rituel de façade ? La Commission européenne devra clarifier ce point dans les actes délégués à venir. En attendant, le flou profite à ceux qui déploient les systèmes, rarement à ceux qui les subissent.

La souveraineté numérique, angle mort du débat judiciaire

On parle beaucoup de souveraineté des données en Europe, surtout depuis les révélations Snowden et les tensions commerciales entre Washington et Bruxelles sur le transfert transatlantique des données personnelles. Mais la souveraineté judiciaire numérique reste un angle mort du débat public.

Qui conçoit les algorithmes utilisés dans les tribunaux français ? Avec quelles données sont-ils entraînés ? Où sont hébergés les serveurs qui les font tourner ? Lorsqu’une start-up parisienne développe un outil de « justice prédictive » en s’appuyant sur l’infrastructure cloud d’un hyperscaler américain, les décisions de justice françaises transitent, de fait, par des data centers soumis au droit américain. Le Cloud Act de 2018 autorise les autorités fédérales américaines à exiger l’accès aux données stockées par des entreprises américaines, y compris lorsqu’elles se trouvent physiquement sur le sol européen.

Le projet européen Gaia-X, lancé en 2019 pour créer un cloud souverain, n’a toujours pas tenu ses promesses. Les grands hébergeurs européens comme OVHcloud ou Deutsche Telekom peinent à rivaliser avec la puissance de frappe d’Amazon Web Services, de Microsoft Azure ou de Google Cloud. Dans le domaine judiciaire, cette dépendance est particulièrement préoccupante : il ne s’agit pas de stocker des photos de vacances, mais des données relatives à des procédures pénales, des informations médicales de victimes, des éléments couverts par le secret de l’instruction.

L’enjeu est aussi industriel. Le marché mondial de la legaltech, estimé à 35 milliards de dollars en 2025 par le cabinet Grand View Research, est dominé par des acteurs anglo-saxons. Les entreprises françaises et européennes qui se positionnent sur ce créneau restent modestes en taille et en financement. Sans politique industrielle volontariste, l’Europe risque de devenir un simple consommateur d’outils judiciaires conçus ailleurs, selon des normes et des valeurs qui ne sont pas les siennes.

Quels enjeux pour les citoyens français en termes de justice numérique

Pour le citoyen ordinaire, ces enjeux peuvent sembler abstraits. Mais ils touchent déjà sa vie quotidienne de manière concrète. Les plateformes de résolution en ligne des litiges, comme celles proposées par certaines assurances ou opérateurs de commerce électronique, utilisent des algorithmes pour proposer des accords amiables. Les chatbots juridiques, qui prolifèrent sur les sites de services publics, orientent les usagers vers des procédures en fonction de critères automatisés. Le justiciable qui tape sa question dans un moteur de recherche reçoit des réponses classées par un algorithme qui n’a aucune obligation de neutralité.

Le droit d’accès à un juge impartial, garanti par l’article 6 de la Convention européenne des droits de l’homme, suppose que le justiciable puisse comprendre les raisons de la décision qui le concerne. Or, les modèles d’apprentissage profond fonctionnent en boîte noire : ils produisent un résultat sans pouvoir expliquer le raisonnement qui y conduit. Le droit à l’explication, inscrit dans le Règlement général sur la protection des données (RGPD) à l’article 22, reste difficile à mettre en pratique lorsque le système concerné repose sur des millions de paramètres interconnectés.

La fracture numérique ajoute une couche d’inégalité. Les justiciables qui maîtrisent les outils numériques et disposent des moyens financiers pour consulter un avocat humain seront toujours en meilleure posture que ceux qui dépendent d’un algorithme gratuit pour comprendre leurs droits. La dématérialisation de la justice, si elle n’est pas accompagnée d’un effort massif de médiation et d’éducation juridique, risque de creuser le fossé entre ceux qui peuvent se payer une justice sur mesure et ceux qui doivent se contenter d’une justice en kit.

Le vrai combat se joue maintenant

La question n’est plus de savoir si l’intelligence artificielle entrera dans les palais de justice. Elle y est déjà. La question est de savoir selon quelles règles, sous quel contrôle et au bénéfice de qui.

Le Conseil d’État, dans son étude annuelle de 2022 consacrée à l’intelligence artificielle, avançait une recommandation limpide : aucun système algorithmique ne devrait pouvoir prendre une décision ayant des effets juridiques significatifs sur une personne sans qu’un être humain en ait vérifié la pertinence et en assume la responsabilité. Le principe est clair. Son application l’est beaucoup moins.

Pour que la machine reste un outil et ne devienne pas un décideur, plusieurs conditions doivent être réunies. La première est la transparence : les algorithmes utilisés dans la justice doivent être auditables, leurs données d’entraînement documentées, leurs biais mesurés et publiés. La deuxième est la formation : les magistrats, les avocats et les greffiers doivent disposer des compétences nécessaires pour interroger, contester et, le cas échéant, rejeter les recommandations algorithmiques. La troisième est le financement : une justice numérique souveraine et éthique coûte de l’argent, beaucoup d’argent, et les budgets actuels sont loin du compte.

L’Europe possède les instruments juridiques pour tracer une voie distincte entre le laisser-faire américain et le techno-autoritarisme chinois. Mais posséder les outils ne suffit pas si l’on manque de volonté pour s’en servir. La mécanique du droit n’a jamais fonctionné par inertie. Elle exige un pilote, un cap et une vigilance de chaque instant.

Le jour où un algorithme décidera seul qu’un prévenu doit dormir en prison plutôt que chez lui, il sera trop tard pour se demander si c’était une bonne idée. Ce débat-là ne peut pas être sous-traité. Il appartient aux citoyens, aux parlementaires et aux juges. Pas aux ingénieurs de la Silicon Valley.

Répondre

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

BisatelPhone — Actualité : IA & Tech, Géopolitique monde
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.