L’intelligence artificielle et le juriste augmenté

1. Le calcul. L’intelligence artificielle s’est imposée comme une révolution technologique probablement l’une des plus extraordinaires de l’histoire des sciences. Mais aussi spectaculaire soient ses avancées et l’amélioration continue des modèles, l’IA (contrairement à ce qu’on pourrait penser) reste bornée par la complexité des calculs et la consommation d’énergie. Il faut bien voir que les centres de données, qui entraînent les modèles d’IA, sont extrêmement énergivore, à tout le moins pour l’instant. Car une fois que la phase expérimentale de l’informatique quantique aura été dépassée, le champ des possibles sera augmenté dans des proportions qu’on a encore du mal à évaluer. On sait tout au plus que la puissance de calcul des algorithmes quantiques devrait être exponentielle. Accélérant la résolution des opérations et les apprentissages, les machines devraient être bien moins consommatrices d’énergie. Il se pourrait fort par conséquent que plus aucun frein technique ne puisse être mis au travers du chemin des entrepreneurs privés développeurs de modèles d’intelligence artificielle et faiseurs de lois de la cité.

2. La loi. C’est que les modèles d’IA sont proprement performatifs en ce sens qu’ils contribuent à façonner le réel et à influencer les opérateurs dans leur prise de décision. Ceci pour dire que l’IA est très possiblement sur le point d’être législatrice. Martin Heidegger écrit en 1954 lorsque « nous considérons la technique comme quelque chose de neutre (ce que veulent nous faire croire les industriels de la technologie), c’est alors que nous lui sommes livrés de la pire façon car cette conception (…), nous rend complètement aveugle en face de l’essence de la technique »[1]. Il y a une bonne raison à cela, qui a bien été décrite en sciences, à savoir que les technologies, quelles qu’elles soient, sont des systèmes socio-politiques, qui incorporent inévitablement des partis pris et ne sont jamais exempt de la recherche d’un profit pour leurs architectes[2]. Il importe donc à tous les utilisateurs et aux professionnels du droit plus particulièrement d’en avoir pleinement conscience à peine non pas d’être augmentés mes purement et simplement remplacés.

3. Le juriste augmenté qui nous intéresse est un professionnel du droit qui utilise l’intelligence artificielle pour améliorer son office ; qui fait usage de l’IA générative pour renforcer ses compétences au service de son entreprise et de toutes celles et tous ceux qui ont réclamé son ministère. Selon qu’on soit technophobe ou bien au contraire technophile, l’usage des machines n’est pas tout à fait le même. Tandis que les premiers cherchent à faire mieux (ce qui est appréciable), les seconds cherchent à faire différemment (ce qui est remarquable).

Il faut tout de même dire ici que les juristes n’ont pas attendu la mise à disposition des modèles d’intelligence artificielle pour repenser les modalités d’exécution de leur travail, améliorer leur productivité et (c’est selon) gagner des parts de marché. Les uns, convaincus par les vertus de l’artisanat traditionnel ou analogique mais agiles ont su (entre autres leviers de croissance) externaliser les prestations juridiques à faible valeur ajoutée pour réduire les coûts de production du droit et augmenter leur capacité à prester. C’est ce qu’on appelle le legal process outsourcing. Les autres, séduits par les virtualités de l’industrialisation numérique, ont prêté leur concours à l’algorithmisation du droit par le truchement des legal start’up[3]. Où l’on peut aisément imaginer qu’entre ces deux approches ontologiques le champ des possibles et celui des pratiques sont très grands.

4. L’ontologie. L’intelligence artificielle ne se contente pas d’offrir une palette d’outils technologiques plus prodigieux les uns que les autres, qui se proposent de tout dire voire de tout prévoir ou bien encore de tout écrire. La machine n’a pour seule ambition d’assister l’homme de l’art, qu’il soit juriste d’une entreprise ou bien au service d’une personne morale de droit public, avocat, magistrat. Elle prétend faire aussi bien voire mieux. L’Estonie s’est par exemple dotée d’un juge robot chargé de trancher les petits litiges[4]. La technologie pose donc la question de savoir ce qu’est un juriste à l’ère numérique. Être ou ne pas être (juriste) telle semble être désormais la question. Ce que l’on sait pour tenter d’esquisser une réponse : le juriste est augmenté dans son aptitude à saisir la matière juridique et dans sa capacité à la mettre en forme. Ce qu’on ne sait pas : dans quelle mesure sera-t-il supplanté ?

Quelques pistes de réponse seront ébauchées au fur et à mesure de l’exposé des modalités de son augmentation par l’intelligence artificielle, à savoir : l’augmentation du juriste par l’IA dans la connaissance du droit (I) et l’augmentation du juriste par l’IA dans l’écriture du droit (II).

I.- Le juriste augmenté par l’IA dans la connaissance du droit

L’usage de l’intelligence artificielle augmente le juriste dans sa connaissance du droit de bien des façons. Non seulement l’accès aux règles de droit positif, qui sont applicables aux présents cas, est facilité (A) mais l’intelligence artificielle serait en capacité de prédire l’avenir (B).

A) Facilitation du présent

5. L’apprentissage du droit. Avant que les modèles d’IA ne s’imposent comme une réalité tangible, l’apprentissage du droit supposait que des leçons soient données ; que des maîtres transmettent la connaissance critique des règles juridiques et des systèmes de résolution des litiges. Le passé est employé mais l’interface étudiant/professeur ou bien homme/homme existe encore. Elle a un nom : la faculté de droit. Elle a son sanctuaire : la bibliothèque. En disant cela, et sans que nous n’en ayons jamais eu conscience, voilà que depuis la Rome antique une première interface homme/chose a toujours été là sous nos yeux. Nous n’avions tout simplement pas pensé la désigner de cette manière. Elle n’est toutefois pas du tout comparable à ces nouvelles interfaces homme/machine pour plusieurs raisons. D’une part, et aux termes d’une sorte d’anthropomorphisme, le livre écrit par le professeur, qui est consulté pour savoir ou bien savoir-faire, n’est au fond pas autre chose que l’homme de l’art lui-même. D’autre part, et la remarque prête à bien plus de conséquence, l’accès à son contenu est pour ainsi dire interdit à qui n’a pas été initié à la discipline. C’est absolument vrai pour un profane. Et c’est encore vérifiable pour un juriste qui s’aventurerait dans un droit qui lui est proprement étranger (qu’il soit interne ou bien encore international).

De ce point de vue, l’usage de l’IA change notablement la donne. Les faiseurs de modèles font croire aux utilisateurs qu’il n’y a plus besoin d’aucun prérequis pour accéder au droit. Voilà une belle histoire à dormir debout. La machine est encore incapable de certifier que les données qui ont été mobilisées en réponse à la requête sont les bonnes. La pertinence du prompt est donc étroitement corrélée à la connaissance de l’utilisateur, laquelle est absolument nécessaire pour se prémunir d’une éventuelle hallucination de la machine.

Où l’on constate en définitive sur un terrain strictement méthodologique qu’on a fait un tour en rond. Qu’on soit à Rome en -450 av. J.-C. (écriture de la loi des 12 tables) ou bien qu’on soit à Sfax en + 2025 (écriture des lois informatiques), il n’est pas plus évident de consulter utilement un traité juridique que de rédiger une requête qui soit juste.

On conviendra tout de même que la puissance de calcul de la machine offre des facilités extraordinaires au juriste en termes de révélation, de mise en lumières des règles juridiques en ce que le cadre de la recherche n’est plus du tout borné : le temps (aboli par l’instantanéité) et l’espace (dissous par la dématérialisation) ne sont plus des variables de complication. La recherche juridique s’en trouve aussitôt simplifiée.

6. La recherche juridique. Les algorithmes de traitement du langage naturel (natural language processing) ou bien encore le web sémantique, qui sont des outils d’analyse complexes des mots, autorisent une veille juridique proactive, non plus seulement informative comme c’était le cas jusqu’à présent. Dans un environnement normatif qui grossit chaque jour un peu plus (c’est à tout le moins typique en droit français), et il en va de même par voie de conséquence de l’édition juridique, l’intelligence artificielle rend praticable non seulement la mise à jour des connaissances techniques mais elle offre également la possibilité de réaliser une veille anticipative, une analyse des tendances, l’anticipation des projets législatifs. Ce tour de force a certes été rendu possible par les chercheurs et les ingénieurs en données et en intelligence artificielle mais la technologie n’aurait pu se développer sans matière, sans que de très ambitieuses politiques publiques de digitalisation du droit ne soient décidées. C’est ainsi que le service public français de la diffusion du droit en ligne a organisé l’open data de tout le droit légiféré ainsi que de toutes les décisions de justice. Non seulement la recherche juridique est ainsi facilitée mais il y a plus : les modèles d’IA sont en capacité d’analyser le droit à demande. C’est à tout le moins la promesse qui est faite par les fournisseurs de technologies.

7. L’analyse du droit. C’est de raisonnement juridique assisté par une intelligence artificielle dont il est question. L’interface homme/machine révèle ici une bonne part des facilités offertes par la technologie. On pensait que le droit, qui est un ensemble de systèmes notamment dynamiques pour l’application desquels l’interprétation de l’homme de l’art est la clef, ne pourrait pas être pratiqué par une machine. La modélisation des règles de droit a pourtant été faite. De nombreux opérateurs économiques proposent une telle prestation. Des modèles d’IA sont capables de formuler des hypothèses et d’effectuer un raisonnement juridique structuré. Cela ne doit pas étonner plus que cela en vérité. La règle de droit est écrite pour résoudre un problème (plerumque fit). Quant à son écriture, sa structuration, elle est très souvent à deux détentes : qualification juridique/régime, conditions/effets, principe/exception, etc. Ainsi présenté, le droit ressemble à s’y méprendre au langage des microprocesseurs, des ordinateurs, au code qui est utilisé dans les technologies de l’information et de la communication. Pour le dire autrement, le droit est fait d’une multitude d’algorithmes, c’est-à-dire des méthodes d’exploration et de résolution des problèmes[5]. Il ne restait plus aux faiseurs de modèles d’intelligence artificielle et aux chercheurs en traitement du langage avancé qu’à proposer des systèmes capables de structurer un raisonnement juridique en suivant une logique argumentative, capables d’analyser des normes pour formuler des hypothèses, de générer des syllogismes juridiques, de rédiger des conclusions et des mémoires en respectant les canons académiques.

C’est chose à présent faite. Il se peut que nous soyons en train d’assister aux prémices d’une intelligence juridique collective et à une collaboration homme/machine non plus seulement une interface, une collaboration qui ne se limite pas à dire le présent mais qui est en capacité de prédire l’avenir.

B) Prédiction de l’avenir

8. Les modèles. La prédiction de l’avenir : voilà la promesse des legal start’up la plus ahurissante qui soit. Aussi loin qu’on puisse remonter dans l’histoire des sociétés humaines, l’appréhension de l’avenir a été recherchée. Les méthodes divinatoires et mystiques (astrologie, cartomancie, chiromancie, nécromancie, prophétie) ont toutes échoué à le révéler. Encore qu’il arrivât que du droit soit dit sur la foi de pareilles méthodes. Il n’est que de songer, entre autres exemples, aux règles dont la prétendue violation a été sanctionnée par les tribunaux sous l’Inquisition médiévale. Quant aux approches philosophiques (déterminisme, existentialisme, synchronicité), on conviendra qu’elles n’ont pas fait mieux. On doit en revanche à la science et à ses progrès d’avoir développé des outils d’anticipation. Les modèles mathématiques et statistiques ont permis de prévoir des événements futurs. Mais seules ont été concernées l’économie, la météorologie et l’épidémiologie à l’exclusion du droit par conséquent. Mais avec les modèles d’intelligence artificielle, l’analyse massive de larges volumes de données éparses a pu être faite, des tendances ont pu être identifiées, des prédictions ont pu être proposées. Des algorithmes prédictifs permettent désormais d’évaluer les chances de succès d’un recours en justice. Il y a un mot pour dénommer ce qui forme une discipline à part entière : la jurimétrie.

9. La jurimétrie s’inscrit dans une démarche d’objectivation et de rationalisation du raisonnement juridique. Elle repose sur plusieurs approches : l’analyse statistique des décisions de justice, la modélisation prédictive, qui consiste à prévoir l’issue d’un litige au regard des données sélectionnées, le traitement automatisé du langage juridique, l’évaluation de l’efficacité des normes. Les juges américains sont par exemple assistés dans leur prise de décision en matière de libération conditionnelle par un outil qui évalue le risque de récidive des personnes condamnées (Compas). En France, des entreprises commercialisent des solutions qui se proposent d’accompagner les avocats dans leur ministère (Case law analytics par exemple qui est commercialisée par LexisNexis). Le juriste est ainsi en capacité théorique d’évaluer la probabilité de succès de l’action engagée, d’adapter ses arguments en fonction des tropismes éventuels du juge, de déterminer si une transaction est préférable à un procès. Les pouvoirs publics français et leurs juristes savent également recourir à l’intelligence artificielle et à la jurimétrie. Ils peuvent ainsi réaliser une étude d’impact d’une réforme en gestation, détecter un défaut de fabrication de la loi, anticiper les conséquences d’un changement de réglementation. C’est ainsi que le ministère de la justice et la Cour des comptes ont pu analyser la pratique des conseils de prud’hommes relativement à l’application du barème d’indemnisation des salariés licenciés sans cause[6].

Où l’on constate en résumé que le juriste est remarquablement augmenté par l’intelligence artificielle dans sa connaissance du droit. Les mêmes causes produisant les mêmes effets, il en est de même relativement à l’écriture du droit.

II.- Le juriste augmenté par l’IA dans l’écriture du droit

L’écriture du droit est l’une des tâches fondamentales des juristes, qu’il s’agisse de rédiger des actes juridiques, des lois, des règlements, ou des décisions de justice. L’intelligence artificielle transforme le travail des rédacteurs en proposant des outils qui augmentent les capacités des juristes.

A) Rédaction de textes

10. Assistance technique. L’IA propose aujourd’hui des solutions pour assister les juristes dans la rédaction de textes juridiques. On doit ces facilités à la technologie du traitement du langage naturel et à celle de l’apprentissage automatique (machine learning). Les modèles sont capables de générer des actes juridiques tout entiers, des clauses contractuelles, des projets de loi ou de règlement. L’IA peut tout à fait proposer des formulations optimisées au regard du contexte, des parties et des risques renseignés.

Elle peut encore rédiger des textes juridiques plus clairs en analysant la complexité des énoncés et en proposant des reformulations simplifiées. Elle peut aussi favoriser l’emploi d’une écriture inclusive et accessible au grand public, ce qu’on appelle le legal design, qui a pour objet de rendre la matière plus accessible, compréhensible et user-friendly (comme on dit). Le gain de temps est alors très substantiel.

Les juristes, qu’ils expriment leur talent en entreprise, en cabinet d’avocats ou bien encore au palais de justice, se sont dotés très tôt de bibliothèques de modèles d’actes juridiques et de contrats construites de toute pièce ou bien proposées par les éditeurs juridiques. Il reste que la technologie, qui est devenue une clef du contract management, offre bien plus de facilités notamment en termes de prévention et de correction des défauts de fabrication, en termes par voie de conséquence de sécurité juridique. A l’expérience, l’IA dépasse de très loin les utilités offertes par les logiciels de gestion des contrats (CLM ou contract lifecycle management). Il ne s’agit plus seulement d’automatiser des alertes ou bien le suivi des obligations contractées et les coûts environnés (délais et litiges), ou bien encore d’archiver les contrats et les échanges.

11. Contract management. L’IA peut identifier des incohérences, des erreurs de syntaxe ou bien des omissions. Elle peut donc tout à fait se substituer à un juriste sénior dont le travail consistait jusqu’à présent à repérer les vices éventuels de l’acte juridique tant au stade de sa formation qu’à celui de son exécution (pour les contrats successifs). L’intelligence artificielle est également en capacité d’assister le juriste via un parangonnage (benchmark), qui consiste à comparer un texte juridique avec des milliers d’autres pour identifier les meilleures pratiques ou les clauses standardisées. Elle peut faire plus et analyser le contenu d’un acte pour réaliser un audit de performance.

12. Audit de performance. Cet examen appliqué au contrat consiste à réaliser une analyse approfondie des figures juridiques sous étude pour évaluer leur efficacité, leur conformité et l’impact économique des engagements souscrits. Après que les formules d’actes juridiques ont été implémentées, et une fois l’entraînement de la machine terminé (qui suppose donc une expertise renforcée du juriste), l’intelligence artificielle peut vérifier la conformité des contrats analysés avec les lois et régulations en vigueur. Elle peut suggérer des modifications pour réduire les risques juridiques ou améliorer l’économie général d’un contrat. Lorsqu’on sait combien les risques de responsabilité sont grands lorsqu’on s’aventure dans la rédaction successivement de contrats-cadre, de contrats d’application et de leurs avenants éventuels, l’outil augmente de façon tout à fait significative le juriste concerné.

L’IA offre encore bien plus aux juristes en leur permettant de passer d’un travail artisanal à un service industrialisé par la production de séries d’actes.

B) Production de séries

La plus remarquable avancée de l’IA et de la digitalisation des services proposés par les juristes est très certainement la capacité qui leur a été offerte de produire des séries totalement automatisées d’actes juridiques.

13. Automatisation. La génération automatique d’actes juridiques standardisés ou personnalisés supposent une association fine des juristes et des ingénieurs. Tantôt, l’automatisation sert les consommateurs, tantôt elle est au service des entreprises. Dans les deux cas, les gains de productivité et la hausse du chiffre d’affaires des cabinets concernés sont tout à remarquables. Relativement aux consommateurs, le prix unitaire du service vendu est réduit ; les barrières à l’accès au marché du conseil juridique sont donc levées en partie. Quant aux entreprises, qui sont mises en situation de piloter le système d’informations vendues, elle gagne en diminution des tâches répétitives et en sécurisation de la chaine de production des contrats. De nombreux organismes d’assurance sont par exemple concernés, qui ont acheté une telle solution technologique. Aux termes des contrats passés, les produits d’assurance peuvent être automatiquement construits, les propositions commerciales automatiquement rédigées et les notices d’information automatiquement adressées. Lorsqu’il s’agit de faire évoluer les produits sous la contrainte d’une évolution règlementaire (l’actualisation d’un tableau de garanties d’une convention collective nationale par exemple) ou bien pour des raisons stratégiques, la solution technologique qui a été conçue et déployée autorise une correction sans délai et à moindre coûts de toutes les positions contractuelles concernées.

14. En guise de propos conclusifs, qu’il soit bien noté qu’un seul aspect de l’IA a été présenté : ses mérites. Janus bifront, il ne s’agirait pas de minorer le côté obscur d’une telle technologie ni les torts susceptibles d’être causés par l’usage de la machine. Relativement aux IA génératives, aucune personne ne répond de la qualité des contenus renseignés tandis que l’homme de l’art est responsable de sa faute professionnelle. Par voie de conséquence, aussi augmenté soit le juriste, il ne saurait jamais échapper pas à ses obligations en excipant l’usage de l’IA, qui n’est en droit qu’un tiers assistant. Il ne saurait jamais prétendre exercer non plus sans une formation idoine complétée au fil du temps.

Le juriste augmenté par l’IA n’est donc pas prêt d’être un juriste remplacé. Il est bien au contraire un juriste inspiré qui utilise la technologie pour mieux exercer son métier.

  1. Essais et conférences, Gallimard, 1958 (éd. française), p. 4 cité par A. Latil, Le droit du numérique. Une approche par les risques, Dalloz, 2023, p. 24. ?
  2. A. Latil, Le droit du numérique. Une approche par les risques, Dalloz, 2023, pp. 22 et s. ?
  3. J. Bourdoiseau, Le conseil juridique ébranlé par la nouvelle économie ?, Dalloz IP/IT 2019.655. ?
  4. J. Bourdoiseau, Le recours à l’intelligence artificielle pour évaluer les préjudices, rapport de synthèse in Responsabilité civile et intelligence artificielle, Bruylant, 2002, p. 635. ?
  5. J. Bourdoiseau, La réparation algorithmique du dommage corporel : binaire ou ternaire ?, Resp. civ. et assur. mai 2021. ?
  6. Barème fixé à l’article L. 1235-3 C. trav. Rapport de la Cour des comptes, 2019. ?

(Article à paraître aux éditions Latrach, printemps 2025)

L’intelligence artificielle, la réparation du dommage corporel et l’assurance

Interface homme-machine.- Qui consomme des biens et des services sur le web a dû, à un moment ou un autre, avoir été prié par un système d’informations d’attester qu’il n’était pas une machine… Voilà une bien singulière révolution. C’est dire combien la fameuse IHM – interface homme-machine – est pleine de virtualités potentielles qui échappent encore à beaucoup de gens, juristes compris dont la production de droit est encore (et pour l’essentiel) artisanale tandis qu’elle aspire pourtant ici et là à l’industrialisation.

Algorithmisation.- La question des rapports qu’entretiennent intelligence artificielle, réparation du dommage corporel et assurance se pose plus particulièrement depuis que la nouvelle économie (celle de la  startup nation, du big data,de l’open data, de la data science et des legaltechs) rend possible l’algorithmisation du droit. En résumé, il se pourrait fort bien que les affaires des hommes puissent être gouvernées par une intelligence artificielle et que, pour ce qui nous concerne plus particulièrement, la liquidation des chefs de préjudices corporels puisse être plutôt bien dite à l’aide d’outils de modélisation scientifique et ce par anticipation.

Clef de voûte.- Anticipation. Voilà la clef de voûte, qui ne saurait exclusivement avoir partie liée avec la cinématographie, la météorologie ou bien encore la cartomancie. C’est que le désir de connaître est irrépressible, toutes les parties intéressées recherchant le montant des dommages et intérêts compensatoires en jeu. Quant à l’assureur du risque de responsabilité civile, le calcul de la provision technique ne souffre pas le doute (pas plus que le calcul de la dotation générale de fonctionnement des fonds d’indemnisation et de garantie). Seulement voilà, la variance du risque de responsabilité est telle que son assurabilité est structurellement précaire. Aussi, et à titre très conservatoire à ce stade, peut-on inférer de l’intelligence artificielle une baisse significative de ladite variance pour les uns et une augmentation remarquable de la prévoyance pour les autres.

Ternaire.- À la question posée de savoir quel apport au singulier est-on en droit d’attendre de l’intelligence artificielle à la réparation du dommage corporel, toute une série de mots peut être convoquée, lesquels mots, une fois regroupés, forment un ternaire : prévisibilité, facilité, sécurité et qui participent, plus fondamentalement de l’égalité de tout un chacun devant la connaissance.

C’est ce qui sera montré en premier lieu, à savoir combien, et c’est heureux au fond, l’égalité apportée par l’algorithmisation du droit de la réparation du dommage corporel est profitable I). Chose faite, une fois le projecteur braqué sur les tenants de l’intelligence artificielle, il importera, en second lieu, d’attirer l’attention sur les zones d’ombres et les aboutissants de l’algorithmisation de la matière pour dire combien ladite égalité est trompeuse en ce sens qu’elle n’est que nominale (II).

I.- Heureuse et profitable égalité apportée par l’algorithmisation de la réparation du dommage corporel

La connaissance par toutes les parties intéressées du quantum des dommages et intérêts susceptibles d’être grosso modo alloués dans un cas particulier participe d’une heureuse et profitable égalité. La data science et l’algorithmisation de la réparation du dommage corporel autorisent à croire, d’une part, que l’égalité sous étude est faisable techniquement et donnent à penser, d’autre part, qu’elle est opportune politiquement.

A.- Faisabilité technique

Réservation.- Le recours à l’intelligence artificielle dans le dessein de garantir à tout un chacun un égal accès à la connaissance est faisable techniquement bien que la liquidation des chefs de préjudices corporels soit un exercice relativement complexe, qui est l’affaire de personnes sachantes qui ne sont pas très nombreuses ni pas toujours très faciles à identifier.

Rares sont les justiciables qui savent que la maîtrise du droit du dommage corporel est une spécialité que peuvent renseigner quelques avocats-conseils[1] et un contentieux exclusivement confié aux tribunaux judiciaires à défaut de transaction[2]. Rares sont encore les juristes ou les personnes instruites qui peuvent sans trop de difficultés s’aventurer. Ce n’est pas à dire qu’aucune formation ne soit proposée ni qu’aucune source doctrinale ou jurisprudentielle ne soit accessible en la matière. Bien au contraire. Seulement voilà, la connaissance élémentaire du droit de la réparation du dommage corporel se monnaye (formation, abonnement, honoraires) tandis que, dans le même temps, toutes les règles qui organisent le paiement des dommages et intérêts compensatoires sont désormais en libre accès. Cela a été bien vu par les faiseurs de systèmes algorithmiques qui sont très désireux de proposer à la vente quelques nouveaux services, considérant à raison que la connaissance pure est à présent libre de droits. Nous y reviendrons.

Invention.- Pour l’heure, faute de traitement automatisé des données ni de référentiel indicatif d’indemnisation des préjudices corporels 2.0, toutes les personnes intéressées sont laissées à leur imagination fertile et leurs ressources techniques respectives pour gagner en efficacité. Il faut bien voir que le dommage causé est irréversible et le retour au statu quo ante illusoire. Aussi bien les opérateurs économiques ont-ils toujours recherché un moyen de procéder méthodiquement tantôt pour informer, tantôt pour conseiller, tantôt pour transiger, tantôt pour juger : toujours, et invariablement, pour économiser du temps (à tout le moins)[3]. L’élaboration d’étalonnages s’est donc nécessairement faite de façon manuelle mais confidentielle pour l’essentiel par chacun des acteurs de la réparation : maximisation de l’allocation des ressources oblige.

Disruption.- Les algorithmiciens ont trouvé dans le droit un terrain fructueux d’expérimentation. Les juristes ont d’abord résisté. Ils sont nombreux à continuer du reste en repoussant l’algorithmisation. Et de soutenir que le droit est affaire des seuls femmes et hommes passés grands maîtres dans l’art de liquider les chefs de préjudices corporels et de garantir le principe de la réparation intégrale. Mais aussi vertueuse soit la démarche, qui est animée par le désir de protéger au mieux les victimes, n’est-il pas douteux qu’on puisse continuer de s’opposer à toute invention qui participerait d’un égal accès à la connaissance ? Car, c’est ce dont il semble bien être question en vérité.

D’ingénieux informaticiens accompagnés par d’audacieux juristes ont fait le pari que l’algorithmisation du droit n’était pas une lubie de chercheurs désœuvrés et par trop aventureux mais une remarquable innovation de rupture. Innovation qui se caractérise précisément par la modification d’un marché en l’ouvrant au plus grand nombre.

Il faut bien voir que le droit aspire (naturellement pourrait-on dire) à l’algorithmisation. On l’a montré ailleurs[4]. La structuration de la règle juridique est de type binaire (qualification juridique/régime, conditions/effets, principe/exception…). Quant à sa révélation, elle est mathématique (ou presque) en ce sens qu’elle suppose employées quelques méthodes éprouvées d’exploration et de résolution des problèmes. Ainsi présenté, le droit ressemble assez au langage des microprocesseurs des ordinateurs, au code qui est utilisé dans les technologies de l’information et de la communication. Le juriste et l’informaticien, le législateur et l’ingénieur, ne parleraient-ils pas le même langage en fin de compte ou, à tout le moins, un langage plus commun qu’il n’y paraît de prime abord ?

En résumé, l’algorithmisation sous étude participe très certainement d’un égal accès à la connaissance. Non seulement, il est techniquement faisable de le garantir mais, plus encore, il est politiquement opportun de procéder.

B.- Opportunité politique

Open data.- Les industriels n’ont pas manqué de relever le caractère assez artisanal de nombreux pans ou chaînes de production du droit. Dans le même temps, jamais le volume de données disponibles en France et mises à disposition pour une utilisation gratuite n’a été si grand[5]. Tout Legifrance, tous les arrêts de la Cour de cassation, toutes les décisions du Conseil d’État sont en open data (https://www.data.gouv.fr). Il en sera de même sous peu de tous les arrêts rendus par les cours judiciaires d’appel.

Datajust.- Sur cette pente, le Gouvernement a publié un décret n° 2020-356 du 27 mars 2020 Datajust ayant pour finalité le développement d’un algorithme destiné précisément à permettre l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels. Peu important les critiques qui ont pu être formulées quant au déploiement du dispositif, l’intention était des plus intéressantes[6]. Saisi, le Conseil d’État considérait du reste le 30 décembre dernier qu’il n’y avait aucune raison d’annuler ledit décret[7]. Le 13 janvier dernier, le ministère de la justice faisait pourtant machine arrière et renonçait (pour l’instant) à l’expérimentation.

Justice algorithmique.- Que l’algorithmisation de la réparation du dommage corporel fasse naître quelques craintes, et que la méthode employée soit critiquable, personne n’en disconviendra. Il faut bien voir que pratiquer une intelligence artificielle dans notre cas particulier, c’est une sacrée entreprise, à savoir : renseigner la créance de réparation de la victime et la dette de dommages et intérêts du responsable. En bref, c’est dire du droit assisté par ordinateur et possiblement faire justice. Que l’IA participe du règlement amiable des différends, chacun étant peu ou prou avisé de ses droits et obligations respectifs, que, partant, le référentiel indicatif d’indemnisation des préjudices corporels désengorge les tribunaux, c’est chose. Seulement voilà, toute cette ingénierie n’est acceptable que pour autant que l’algorithmisation de la réparation n’est pas l’affaire des seuls opérateurs économiques, privés s’entend[8].

Service public.- Il serait des plus opportuns que l’État s’applique à développer un algorithme et/ou à réguler les modèles mathématiques existants : service public du droit et de la  justice oblige. La nature est ainsi faite qu’elle exècre le vide. Les systèmes algorithmiques à visée indemnitaire ne sont plus du tout underground pendant qu’ils sont autrement plus fructueux que les publications (sans préjudice de leur qualité naturellement) qui consistent à renseigner les pratiques des juridictions (pour l’essentiel), des barémisations, des nomenclatures, des référentiels.  Seulement, en l’état, lesdits systèmes ne sont pas régulés du tout. Or c’est d’aide à la décision juridique et juridictionnelle dont il est question. Sous couvert de participer à la défense d’un égal accès à la connaissance de tout un chacun, ces legal startups pourraient donner à penser aux victimes et à celles et ceux qui pratiquent leurs algorithmes que le droit serait une suite sans discontinuité ni rupture de données élémentaires que rien ne ferait plus mentir. Chose faite, seul le fort, à savoir celui qui a la connaissance du droit et la puissance rhétorique de se disputer, saurait déjouer la vérité algorithmique. La prudence est donc de mise.

C’est ce qu’il importe à présent d’aborder à savoir qu’à la différence de l’ordre juridique, l’ordre numérique ne promeut qu’une bien trompeuse égalité nominale.

II.- Trompeuse et nominale égalité apportée par l’algorithmisation de la réparation du dommage corporel

L’égalité nominale d’accès à la connaissance est trompeuse pour deux séries de raisons. D’une part, l’accaparement de l’algorithmisation par les juristes et plus généralement par toutes les personnes intéressées est vraisemblablement tronquée (A). D’autre part, le chiffrement des règles de droit réalisé par les algorithmiciens est possiblement biaisé (B).

A.- Accaparement tronqué

Efficience.- L’accaparement par tout un chacun des référentiels indicatifs d’indemnisation des préjudices corporels peut être tronqué en ce sens que si la réparation algorithmique lève l’asymétrie d’information et facilite la liquidation des chefs de préjudices réparables, le trait qui sépare simplification et simplisme n’est pas épais. Prenons garde à ce que sous couvert de facilitation, il ne s’agisse pas bien plutôt de supplantation.

La réparation algorithmique a un mérite : elle simplifie très notablement la recherche de la vérité pendant qu’elle réduit les coûts de production. Mais à la manière d’un code juridique imprimé par un éditeur dont le maniement des notes sous articles est des plus commodes pour le spécialiste mais se révèle être un faux ami pour celui qui s’y aventure à l’occasion, le code informatique pourrait tromper ses utilisateurs les moins avertis, qu’ils soient juristes ou bien profanes.

Performativité.- On écrit, comme pour nous rassurer, que les référentiels d’indemnisation quels qu’ils soient ne sont qu’indicatifs, qu’ils ne seraient tout au plus que des vade-mecum. Seulement, il est bien su que le savoir algorithmique est performatif (normatif)[9]. Qu’on le veuille ou non, et les faits sont têtus, l’utilisation de ces outils finit toujours par être mécanique. L’expérience de l’évaluation barémisée du dommage corporel prouve trop. Les experts médicaux se départissent mal des gradations des atteintes renseignées dans leurs livres de travail. Aussi le juriste expert pourrait-il ne pas faire bien mieux à l’heure de monétiser les chefs de préjudices objectivés à l’aide de l’algorithme. Et la personnalisation nécessaire des dommages et intérêts d’être alors reléguée.

Mais il y a plus fâcheux encore car ce premier risque est connu. C’est que le chiffrement des règles juridiques est possiblement biaisé tandis que les intelligences artificielles destinées à suggérer le droit sont des systèmes à haut risque au sens de la proposition de règlement du 21 avril 2021 de la commission européenne sur l’usage de l’IA. Un pareil effet ciseau est aussi remarquable qu’il prête à discussion.

B.- Chiffrement biaisé

Implémentation.- Tant que les machines ne penseront pas par elles-mêmes (machine learning), l’implémentation des données sera encore la responsabilité de femmes et d’hommes rompus à l’exercice. L’interface homme-machine suppose donc l’association de professionnels avisés des systèmes complexes qu’ils soient juridiques ou numériques. Il importe donc que leur qualité respective soit connue de tous les utilisateurs, que la représentativité (qui des avocats de victimes de dommages corporels, qui des fonds d’indemnisation et de garantie, qui des assureurs) ne souffre pas la discussion. C’est d’explicabilité dont il est question ou, pour le dire autrement, d’éthique de la décision.

Pourquoi cela ? Eh bien parce qu’il faut avoir à l’esprit que les informations renseignées par un système d’information quel qu’il soit (output) sont nécessairement corrélées aux données qui sont entrées (input). C’est très précisément là que réside le biais méthodologique et le risque que représente la réparation algorithmique du dommage corporel, biais et risque qui font dire que l’égalité d’accès à la connaissance n’est que nominale ou apparente, c’est selon.

Indexation.- En bref, il importe de toujours rechercher qui a la responsabilité de sélectionner puis de rentrer la donnée pertinente et aux termes de quel protocole. C’est d’indexation dont il est question techniquement. Les données primitives exploitées par l’algorithme doivent être connues des utilisateurs, une révision des contenus doit être programmée, des évaluations et crash-tests doivent être faits…entre autres conditions. C’est ce qu’il est désormais courant d’appeler « gouvernance des algorithmes »[10]. Il ne faut jamais perdre de vue la puissance normative de la modélisation mathématico-juridique ainsi que les biais algorithmiques.

En bref, la logique mathématique ne saurait jamais être complètement neutre. C’est le sens des théorèmes d’incomplétude formulés par Kurt Gödel (1931).

En guise de conclusion, à la question de savoir quel est l’apport de l’IA en droit de la réparation du dommage corporel, l’égalité d’accès à la connaissance est une première réponse qui confine à une quasi certitude. En revanche, à la question de savoir si l’algorithmisation est de nature à faciliter le travail des sachants ou bien à les supplanter, le doute est de mise.

Certains soutiendront qu’il n’appartient pas à la raison mathématique de gouverner les affaires humaines ; que le droit est un art subtil qui échappe encore à la machine qui consiste à concilier deux impératifs antagonistes : la sécurité (pour permettre une prévisibilité suffisante de la solution) et la souplesse (pour permettre son adaptation à l’évolution sociale) ; que, partant, la mathématisation du droit est illusoire.  

D’autres défendront que l’algorithmisation, aussi imparfaite soit-elle en droit, n’est pas praticable en économie car elle est inflationniste : les parties intéressées considérant la donnée non pas comme un indicateur en-deçà duquel on peut raisonnablement travailler mais une jauge au-delà de laquelle on ne saurait que toujours aller.

Les arguments des uns et des autres renferment une part de vérité. Ceci étant, si l’on considère qu’il n’est pas déraisonnable du tout d’imaginer que le mouvement d’algorithmisation de la réparation des dommages continue de s’amplifier, une nouvelle question ne manquera pas alors de se poser. La voici : veut-on que du droit soit suggéré par des algorithmes (privés) faiseurs de loi ou bien par un législateur faiseur d’algorithmes (publics) ?


[1] Règlement intérieur national de la profession d’avocat, art. 11-2.

[2] Art. L. 211-4-1 c. org. jud.

[3] Voy. not. en ce sens, S. Merabet, La digitalisation pour une meilleure justice. A propos du plan d’action 2022-25 de la Commission européenne pour l’efficacité de la justice, Jcp G. 2022.5.

[4] La réparation algorithmique du dommage corporel : binaire ou ternaire ?, Resp civ. et assur. mai 2021, étude 7 ; Intelligence artificielle et réparation des dommages in La responsabilité civile et l’intelligence artificielle, Bruylant 2022, à paraître.

[5] Arr. du 24 juin 2014 rel. à la gratuité de la réutilisation des bases de données juridiques de la direction de l’information légale et administrative.

[6] Voy. not. J. Bourdoiseau, Datajust ou la réforme du droit de la responsabilité à la découpe, Lexbase 23 avr. 2020, n° 821 ; R. Bigot, Datajust alias Themis IA, Lexbase 07 mai 2020.

[7] CE, 10e et 9e ch. réunies, 30 déc. 2021, n° 440376.

[8] Voy. par ex. J. Horn, Exemple d’utilisation d’une solution IA développée par une legaltech dans des contentieux PI – Utilisation de LitiMark, Dalloz IP/IT 2021.263.

[9] Voy. not. L. Viaut, L’évaluation des préjudices corporels par les algorithmes, Petites affiches 31 mai 2021, p. 10.

[10] Voy. not. L. Huttner et D. Merigoux, Traduire la loi en code grâce au langage de programmation Catala, Dr. fiscal févr. 2021.121. Voy. aussi Autorité de contrôle prudentiel et de résolution, La transformation numérique dans le secteur français de l’assurance, analyses et synthèses n° 132, 2018 ; Institut Montaigne, Algorithmes : contrôle des biais, rapport, mars 2020 (https://www.institutmontaigne.org/publications/algorithmes-controle-des-biais-svp)

Article à paraître Dalloz IP/IT 2022