L’intelligence artificielle et la réparation des dommages

1. Intelligence artificielle, réparation des dommages et arbitrage. A la question de savoir quels rapports entretiennent « intelligence artificielle » et « réparation des dommages », deux positions extrêmes semblent se dessiner. Les rapports nationaux sont en ce sens.

La première position, conservatrice et prudente, consiste à défendre que peu importants soient les apports de la technologie à notre affaire, il n’est pas de bonne méthode de faire dire le droit en général et plus particulièrement le droit civil de la responsabilité par une intelligence artificielle. Le droit, mieux la justice (qui est un projet plus grand), est une affaire de femmes et d’hommes instruits et rompus à l’exercice qui, au nom du peuple français, départagent les parties à la cause et ramènent la paix sociale. En somme, c’est d’intelligence originelle partant humaine dont il doit être question.

La seconde position, novatrice mais aventureuse, consiste à soutenir que les facilités promises sont telles que l’algorithmisation du droit de la responsabilité à visée réparatrice est un must have ; que ce serait à se demander même pour quelle raison le travail de modélisation scientifique n’est pas encore abouti.

En Allemagne et en France, il se pourrait qu’on cédât franchement à la tentation tandis qu’en Belgique, en Italie ou encore en Roumanie, le rubicon ne saurait être résolument franchi à ce jour. Que la technologie ne soit pas au point ou bien que les techniciens ne soient pas d’accord, c’est égal.

Chaque thèse a ses partisans. Et c’est bien naturel. Ceci étant, choisir l’une ou bien l’autre sans procès c’est renoncer d’emblée et aller un peu vite en besogne. Or, celui qui ne doute pas ne peut être certain de rien (loi de Kepler).

2. Intelligence artificielle, réparation des dommages et doute. Formulée autrement, la question des rapports qu’entretiennent « intelligence artificielle » et « réparation des dommages » invite à se demander si le droit de la responsabilité peut frayer ou non avec la science toute naissante de la liquidation algorithmique des chefs de dommages. Peut-être même s’il le faut.

Ce n’est pas de droit positif dont il s’agit. Ce n’est pas un problème de technique juridique – à tout le moins pas en première intention – qui est ici formulé. Il ne s’agit pas de se demander comment articuler les facilités offertes par la Machine avec les règles de droit processuel. Il ne s’agit pas de se demander quoi faire des résultats proposés par un logiciel relativement au principe substantiel (matriciel) de la réparation intégrale. Il ne s’agit même pas de se demander si l’algorithmisation porterait atteinte à un droit ou liberté fondamentale que la constitution garantit. Les faiseurs de systèmes que nous sommes sauraient trouver un modus operandi. C’est une question plus fondamentale qui est posée dans le cas particulier, une question de philosophie du droit. S’interroger sur les rapports que pourraient entretenir « intelligence artificielle » et « réparation des dommages » ne consiste pas à se demander ce qu’est le droit de la responsabilité civile à l’heure de l’open data et de la data science mais bien plutôt ce que doit être le droit. C’est encore se demander collectivement ce qui est attendu de celles et ceux qui pratiquent le droit et façonnent à demande ses règles. C’est de science algorithmique et d’art juridique dont il est question en fin de compte. Voilà la tension dialectique qui a réunit tous les présents aux journées lyonnaises du Groupe de recherche européen sur la responsabilité civile et l’assurance et qui transparaît à la lecture de tous les rapports nationaux.

Pour résumer et se rassurer un peu, rien que de très ordinaire pour nous autres les juristes et le rapporteur de synthèse auquel il est demandé d’écrire une histoire, un récit d’anticipation.

3. Science algorithmique, art juridique et récit d’anticipation. Nous ne saurions naturellement procéder in extenso. La tâche serait trop grande. Qu’il nous soit permis de ne poser ici que quelques jalons avant que nous débattions pour qu’à la fin (il faut l’espérer) nous puissions y voir plus clair.

Le récit d’anticipation proposé, d’autres s’y sont attelés bien avant nous. En 1956, un romancier américain décrit un monde dans lequel un système prédictif est capable de désigner des criminels en puissance sur le point de commettre une infraction. Stoppés in extremis dans leur projet respectif, ils sont jugés sur le champ et écroués. Spielberg adaptera cette nouvelle en 2002. Minority report était créé. Il y sera question de prédiction mathématique, de justice algorithmisée et d’erreur judiciaire. C’est que, aussi ingénieux soit le système, il renfermait une faille. Nous y reviendrons. Plus récemment, et ce n’est pas de fiction dont il s’agit, une firme – Cambridge analytica – s’est aventurée à renseigner à l’aide d’un algorithme, alimenté de données personnelles extraites à la volée de comptes Facebook de dizaines de millions d’internautes, les soutiens d’un candidat à la magistrature suprême américaine. Ce faisant, l’équipe de campagne était en mesure de commander des contenus ciblés sur les réseaux sociaux pour orienter les votes.

Que nous apprennent ces deux premières illustrations. Eh bien qu’il y a matière à douter sérieusement qu’une intelligence artificielle puisse gouverner les affaires des hommes.

Preuve s’il en était besoin que les nombres n’ont pas forcément le pouvoir ordonnateur qu’on leur prête depuis Pythagore. Or (c’est ce qui doit retenir l’attention) s’il existe au moins deux façons de faire quelque chose et qu’au moins l’une de ces façons peut entraîner une catastrophe, il se trouvera forcément quelqu’un quelque part pour emprunter cette voie (loi de Murphy).

4. Pouvoir ordonnateur des nombres, loi de Murphy et principe de réalité. Le risque étant connu, peu important que sa réalisation soit incertaine, nous devrions par voie de conséquence nous garder (à tout le moins en première intention) de prier qu’une pareille intelligence réparât les dommages de quelque nature qu’ils soient. Ceci étant, et relativement à la méthode proposée, doutons méthodiquement soit qu’il s’agisse, après mûre réflexion, de renforcer les résolutions des opposants à l’algorithmisation de la responsabilité civile, soit (et à l’inverse) qu’il s’agisse de soutenir les solutions des zélateurs du droit 2.0.

Car autant le dire tout de suite avec les rapporteurs nationaux, si la question des rapports qu’entretiennent « intelligence artificielle » et « réparation des dommages » se pose c’est que les outils de modélisation scientifique ne sont pas une vue de l’esprit. Les instruments d’aide à la décision médicale ou bien encore à la chirurgie (ex. le diagnostic algorithmique et, plus ambitieux encore le Health data hub[2]) sont le quotidien des professionnels de santé tandis que les outils d’aide à la décision judiciaire font florès. Des juges américains, sur le point d’accorder une libération sous caution, sont ainsi aider par un logiciel qui évalue le risque de défaut de comparution de l’intéressé (Compas)[3]. Tandis que de côté-ci de l’Atlantique des firmes proposent des systèmes d’aide à la décision juridique ou judiciaire supplantant (bien que ce ne soit pas la vocation affichée des legaltech) les quelques expériences de barémisation indicative bien connues des spécialistes de la réparation du dommage corporel.

Nous reviendrons bien entendu sur les tentatives de réparation algorithmique des dommages qu’on ne manquera pas d’évaluer (II). Mais pour commencer, il nous a semblé nécessaire de s’arrêter sur la tentation de la réparation algorithmique des dommages (I).

I.- La tentation de la réparation algorithmique des dommages

La réparation algorithmique des dommages est tentante pour de bonnes raisons qui tiennent plus particulièrement, d’une part, à la faisabilité technique qui est proposée (A) et, d’autre part, aux facilités juridiques qui sont inférées (B).

A.- Faisabilité technique

La faisabilité technique à laquelle on peut songer est à double détente. C’est d’abord une histoire de droit (1) avant d’être ensuite une affaire de nombres (2).

1.- Histoire de droit

5. Règle de droit, structuration binaire et révélation mathématique. Le droit aspire à l’algorithmisation car la structuration de la règle est binaire et sa révélation mathématique (ou presque).

La structuration de la règle juridique ressemble à s’y méprendre au langage des microprocesseurs des ordinateurs, au code qui est utilisé dans les technologies de l’information et de la communication. La règle est écrite de façon binaire : si/alors, qualification juridique/régime, conditions/effets, principe/exception. Le législateur et l’ingénieur parlent donc le même langage… Enfin c’est ce dont ce dernier est convaincu.

Quant à la révélation de la règle applicable aux faits de l’espèce, elle suppose de suivre une démarche logique, pour ne pas dire mathématique. Car le droit ne saurait être bien dit sans une pensée rationnelle, la formulation discursive des vérités, sans rigueur ni exactitude. En bref, l’hypothèse de la réparation algorithmique des dommages est plutôt familière au juriste. Pour preuve : le droit et ses méthodes d’exploration et de résolution des problèmes (qui sont des algorithmes en définitive) sont un puissant vecteur de correction de la réalité. Une personne est victime du comportement dommageable d’un individu (le donné) ? Juridiquement, cette dernière est titulaire d’un droit subjectif au paiement d’un contingent de dommages et intérêts compensatoires (le construit). Appréhendés en droit, les faits de l’espèce (la réalité) sont en quelque sorte réencodés.

En bref, les juristes sont invariablement des faiseurs de systèmes techniques et d’algorithmiques.

On ne s’étonnera donc pas que le droit et ses artisans aient vocation à être (r)attrapés par la science et ses industriels qui se jouent des nombres et font des affaires.

2.- Affaire de nombres

6. Digitalisation et données. Les rapports français et belge montrent plus particulièrement combien la croissance du volume de données disponibles sous forme numérique est exponentielle.

Par voie de conséquence, il existe désormais beaucoup de matière pour nourrir un algorithme quelconque, lui permettre de simuler un phénomène, une situation à l’aune des données qui auront été implémentées dans un programme informatique (qui est appelé « code »). Il est à noter au passage une différence notable entre les pays interrogés dans nos journées lyonnaises. Si les juristes italiens et roumains pratiquent autrement moins l’algorithmisation des règles de la réparation des dommages que leurs homologues allemands et français, c’est très précisément parce que la digitalisation des décisions de justice est moins avancée à ce jour. Quant à la Belgique, le rapport national renseigne l’existence d’un obstacle juridique à ladite digitalisation, qui vient tout récemment d’être levé. À terme, il devrait y avoir suffisamment de matière pour alimenter un algorithme. La Belgique se rapprocherait donc de très près de la France.

Il est remarquable qu’en France précisément des millions de données juridiques aient été mises à disposition pour une réutilisation gratuite[4] par le service public de la diffusion du droit en ligne – Legifrance pratique l’open data[5]. Ce n’est pas tout. Depuis quelques semaines à présent, toutes les décisions rendues par la Cour de cassation française sont aussi en open data. Il devrait en être de même au printemps 2022 des décisions des cours d’appel (hors matière pénale)[6]. Même chose du côté du Conseil d’État français.

La tentation de l’algorithmisation est donc grande car c’est tout à fait faisable techniquement, tout particulièrement en France qui se singularise très nettement dans le concert des droits nationaux continentaux interrogés. Mais il y a d’autres raisons qui président à l’algorithmisation sous étude : ce sont les facilités juridiques qui sont proposées par l’intelligence artificielle.

B.- Facilités juridiques

7. Égalité, intelligibilité et acceptabilité. Au titre des facilités qu’on peut inférer juridiquement parlant des algorithmes à visée réparatoire, on doit pouvoir compter une intelligibilité améliorée des règles applicables à la cause partant une égalité nominale des personnes intéressées et une acceptabilité possiblement renforcée du sort réservé en droit à la victime.

Il faut bien voir que les règles qui gouvernent la réparation des dommages, et plus particulièrement les atteintes à l’intégrité physique, ne sont pas d’un maniement aisé. La monétisation de toute une série de chefs de dommages tant patrimoniaux (futurs) qu’extrapatrimoniaux suppose acquise une compétence technique pointue. Un étalonnage mathématisé présenterait entre autres avantages de prévenir une asymétrie éventuelle d’information en plaçant toutes les personnes sur un pied d’égalité (à tout le moins nominale)[7] à savoir les victimes, leurs conseils, leurs contradicteurs légitimes et leurs juges.

Au fond, et ce strict point de vue, la réparation algorithmique des dommages participe d’une politique publique d’aide à l’accès au droit qui ne dit pas son nom. La notice du décret n° 2020- 356 du 27 mars 2020 Datajust élaborant un référentiel indicatif d’indemnisation des dommages corporels est en ce sens[8].

C’est encore dans le cas particulier l’acceptabilité de la décision qui se joue possiblement C’est que le statut de celui ou celle qui a procédé à l’indemnisation est nécessaire pour conférer son autorité à l’énoncé mais pas suffisant. Toutes les fois que le dommage subi est irréversible, que le retour au statu quo ante est proprement illusoire (et c’est très précisément le cas en droit de la réparation d’un certain nombre de chefs de dommages corporels) on peut inférer de l’algorithmisation de la réparation des dommages une prévention contre le sentiment d’arbitraire que la personne en charge de la liquidation des chefs de préjudice a pu faire naître dans l’esprit de la victime.

Voilà une première série de considérations qui participe de la tentation de la réparation algorithmique des dommages. Puisque selon la loi de Casanova, la meilleure façon d’y résister est d’y succomber, je vous propose de braquer à présent le projecteur sur les tentatives de réparation algorithmique des dommages.

II.- Les tentatives de réparation algorithmique des dommages

8. Opérateurs privés vs administration publique. Les tentatives de réparation algorithmique des dommages sont relativement nombreuses et plutôt récentes, à tout le moins en France car, une fois encore, et à ce jour, le recours à l’intelligence artificielle est plus anecdotique, réduit (en comparaison avec la France) – un état basal ou élémentaire – dans les autres droits internes sous étude.

Ces tentatives sont des plus intéressantes en ce sens qu’elles ont eu notamment pour objet et/ou effet de parachever un travail polymorphe entamé il y a plusieurs années à présent et accompli tous azimuts qui est fait (pour ne prendre que quelques exemples saillants rappelés par les rapporteurs nationaux) d’articles de doctrine renseignant les pratiques indemnitaires des tribunaux et des cours d’appel, de barèmes plus ou moins officiels, de guides ou vade-mecum, de nomenclatures et de référentiels. Les juristes belges et français les pratiquent volontiers pendant qu’avocats et juges ne manquent pas de rappeler que ces outils d’aide à la décision ne sauraient jamais être contraignants : principe de la réparation intégrale obligerait…

Depuis lors, ce sont positionnées sur le segment de marché de la digitalisation de la justice, de l’algorithmisation de la réparation des dommages, de nouveaux opérateurs – plus ou moins capés à en croire les rapporteurs – privés[9] et publics[10].

Une analyse critique de l’offre de services en termes d’intelligence artificielle ainsi formulée par les legaltechs sera faite d’abord (A). Un essai à visée plus prospective sera proposé ensuite (B).

A.- Analyse critique

9. Biais de raisonnement. L’analyse critique de l’algorithmisation de la réparation des dommages que nous proposons d’esquisser consiste à identifier quelques biais de raisonnement induits par l’intelligence artificielle et dont il importe qu’on se garde à tout prix. Nous nous sommes demandés en préparant ce rapport si ce n’était pas la crainte d’échouer dans cette entreprise d’évaluation critique et de contrôle systématique qui faisait douter qu’il faille pousser plus loin l’expérience.

Le problème de fond nous semble tenir au fait qu’un esprit mal avisé pourrait se convaincre qu’une suggestion algorithmique dite par une machine serait équipollente à la vérité juridique recherchée par une femme ou un homme de l’art.

L’embêtant dans cette affaire tient plus concrètement d’abord à la performativité du code (1) et à l’opacité de l’algorithme ensuite (2).

1.- Performativité du code

10. Suggestion algorithmique vs vérité juridique. La réparation algorithmique des dommages a un mérite : elle simplifie la recherche de la vérité, plus encore pour celles et ceux qui ne pratiqueraient la matière qu’occasionnellement ou bien qui seraient tout juste entrés en voie de spécialisation. Seulement voilà : la paroi est mince entre facilitation et supplantation. Il n’est pas assez d’écrire qu’un référentiel d’indemnisation est indicatif, qu’il ne saurait jamais être rangé dans les normes de droit dur. Le savoir algorithmique est performatif (voire impératif pour celui qui le pratiquerait sans prudence) et ce pour plein de raisons (recherche du temps perdu entre autres). Volens nolens, son utilisation finit toujours par être mécanique. Alors, le doute méthodique du juriste, qui est la condition sine qua non pour accéder à la vérité, est chassé par la certitude scientifique apparente de la machine. Pour le dire autrement, le savoir prédictif est normatif. Et il n’y a qu’un pas pour que la vérité censée être dite par personnes instruites et sachantes soit en définitive dite par une machine qui ordonne des 0 et des 1. C’est le delta qui existe si vous voulez entre les mathématiques de l’intelligibilité et les mathématiques que j’ai appelées ailleurs de contrôle[11].

Rien de bien grave nous dira peut-être le rapporteur allemand toutes les fois (à tout le moins) qu’il ne s’agit que de réparer des dommages de masse de faible valeur. Il reste que, dans tous les cas de figure, la suggestion algorithmique est le fruit de l’apprentissage de données tirées du passé. Au mieux, le code informatique peut dire ce qui est mais certainement pas (à tout le moins pas encore) ce qui doit être. L’intelligence artificielle que nous pratiquons (qualifiée de « faible ») n’est pas encore capable de le faire. C’est que cette dernière IA n’est qu’un programme qui n’est pas doté de sens et se concentre uniquement sur la tâche pour laquelle il a été programmé. En bref, les machines ne pensent pas encore par elles-mêmes (ce qu’on appelle le machine learning ou IA « forte »).

Alors, et cela pourrait prêter à sourire, aussi moderne soit ce code informatique là, il est porteur d’une obsolescence intrinsèque qu’on fait mine de ne pas voir. Que la binarité soit un trait caractéristique de la structuration de la règle de droit et que, par voie de conséquence, la modélisation mathématique soit séduisante est une chose. Il reste que dire le droit et rendre la justice impliquent la recherche d’un équilibre entre des intérêts concurrents dont le tiers-juge est le garant (en dernière intention). Droit et justice ne sont pas synonyme. Si la règle juridique aspire à la binarité, sa mise en œuvre se recommande d’un ternaire… En bref, on ne saurait jamais se passer d’un tiers neutre même pas dans une startup nation.

Qu’il soit juridique ou algorithmique, un code se discute. Seulement pour que chacun puisse se voir juridiquement et équitablement attribuer ce qui lui est dû, il importe de lever l’opacité de l’algorithme.

2.- Opacité de l’algorithme

Le code 2.0 doit retenir l’attention de tout un chacun. Aussi puissants soient les calculateurs, et peu important que l’algorithme soit programmé pour apprendre, les machines ne sont encore que le produit de la science humaine, la donnée est encore l’affaire de femmes et d’hommes. Ce n’est pas le moindre des biais méthodologiques. Il a ceci de commun avec celui qu’on vient de décrire qu’il est trompeur.

11. Biais méthodologiques. Les résultats qui sont renseignés par un système d’information (output) sont toujours corrélés aux données qui ont été collectées puis entrées (input). De quoi parle-t-on ? Eh bien de jugement de valeurs dans tous les sens du terme (juridique et technologique). Or un juge, quel qu’il soit, a une obligation : celle de motiver sa décision (art. 455 du Code de procédure civile). Et ce pour de justes et utiles raisons que nous connaissons bien : prévention de l’arbitraire et condition du contrôle de légalité. Quand on sait la puissance performative de la modélisation mathématique, ce serait commettre une erreur de ne pas rechercher à lever l’opacité algorithmique qui est bien connue des faiseurs de systèmes d’informations.

12. Clef de voûte. La transparence en la matière est la clef de voute. L’édification mathématique ne saurait valablement prospérer sans que la méthode analytique des décisions sélectionnées aux fins d’apprentissage de l’algorithme n’ait été explicitée, sans que la sélection des décisions de justice voire des transactions n’ait été présentée, sans que la qualité et le nombre des personnes qui ont procédé n’aient été renseignés. Seulement voilà, et ce qui suit n’augure rien de très bon : le code informatique est un secret industriel protégé en tant que tel que les legaltechs, qui sont en concurrence, n’ont aucun intérêt à révéler. Les initiatives publiques doivent donc être impérativement soutenues. L’accessibilité doit être garantie. En bref, Datajust, qui est un référentiel public relatif à l’indemnisation des victimes de dommages corporels, est la voie à suivre. Encore qu’il ne satisfasse pas complètement aux conditions de praticabilité et de démocratisation attendus. Et que, partant, sa performativité soit possiblement trop grande. Possiblement car l’essai n’a pas été encore transformé en raison des doutes que le décret a suscité.

Doutes que nous souhaiterions aborder à présent dans un essai prospectif pour lister quelques conditions qui nous semble devoir être satisfaites pour qu’ils soient levés.

B.- Essai prospectif

À titre de remarque liminaire, il faut dire (qu’on la redoute ou non) que l’algorithmisation de la réparation des dommages ne saurait prospérer sans que, au préalable, de la donnée soit mise à la disposition du public et des opérateurs. Or, open data et big data ne sont pas aussi répandus qu’on veut bien l’imaginer. En France, nous y sommes presque bien que, en l’état, le compte n’y soit pas tout à fait encore[12]. Ailleurs, la donnée est la propriété presque exclusive de firmes privées qui monnayent un accès amélioré aux décisions de justice sélectionnées par elles-mêmes (Belgique) ou bien la donnée ne peut tout bonnement pas être partagée (Italie).

Une fois cette condition remplie, l’algorithme est en mesure de travailler. Pour s’assurer que le travail soit bien fait, il importerait qu’on s’entende sur quelques spécifications techniques et politiques. C’est sur ces dernières que je souhaiterais conclure.

13. Régulation. En l’état, les systèmes d’information ne sont pas régulés du tout. On se souviendra qu’il aura fallu une exploitation abusive et sans précédent des données personnelles par les Gafam[13] pour qu’on se décide à élaborer un règlement général sur la protection desdites données. Seulement, et sans préjudice des dommages causés aux personnes concernées, il n’est pas ou plus question ici de l’accaparement de données par quelques firmes de marchands. L’affaire est d’un tout autre calibre. C’est d’assistance à la décision juridique ou judiciaire dont il est question. Que la justice ne soit plus tout à fait une fonction régalienne de l’État, admettons. Mais les responsabilistes ne sauraient prêter leur concours sans aucune prévention à l’utilisation de l’intelligence artificielle dans la réparation des dommages. Pour le dire autrement, une gouvernance technique et scientifique nous semble devoir être mise en place. Cette exigence est présente dans les rapports tout particulièrement dans le rapport belge.

14. Règlementation. Le 21 avril 2021 a été diffusé une proposition de règlement européen établissant des règles harmonisées concernant l’intelligence artificielle[14] dans laquelle les IA sont distinguées selon le risque qu’elles font courir. Et des intelligences artificielles, destinées à suggérer le droit pour faire bref, d’être qualifiées de « systèmes à haut risque »…

En résumé, le code doit être connu de ses utilisateurs, les données primitives exploitées par l’algorithme doivent être indexées, une révision des contenus doit être programmée, des évaluations et crash-test doivent être faits. Et nous sommes loin d’épuiser les conditions qu’il s’agirait qu’on respectât pour bien faire. C’est de « gouvernance des algorithmes » dont il est question au fond[15]. C’est qu’il ne faut jamais perdre de vue la puissance normative de la modélisation mathématico-juridique ainsi que les biais algorithmiques. En bref, la logique mathématique ne saurait jamais être complètement neutre. C’est le sens des théorèmes d’incomplétude formulés par Kurt Gödel (1931).

15. En conclusion et parce que nous sommes convaincus qu’on ne stoppera pas le mouvement d’algorithmisation de la réparation des dommages, permettez-nous de formuler une question qui transparaît des rapports nationaux : veut-on que du droit soit suggéré par des algorithmes (privés) faiseurs de loi ou bien par un législateur faiseur d’algorithmes (publics) ?


  1. https://www.health-data-hub.fr/ ?
  2. V. not. sur ce sujet, A. Jean, Les algorithmes sont-ils la loi ? Editions de l’observatoire, ?
  3. Arr. du 24 juin 2014 relatif à la gratuité de la réutilisation des bases de données juridiques de la direction de l’information légale et administrative. ?
  4. Plateforme ouverte des données publiques françaises https://www.data.gouv.fr. Service public de la diffusion du droit en ligne : https://www.legifrance.gouv.fr/ ?
  5. https://www.courdecassation.fr/la-cour-de-cassation/demain/lopen-data-des-decisions-judiciaires ?
  6. J. Bourdoiseau, Intelligence artificielle, réparation du dommage corporel et assurance, Dalloz IP/IT, 2022 (à paraître). ?
  7. Expérimentation dont la légalité a été vérifiée par le Conseil d’État français (CE, 10e et 9e ch. réunies, 30 déc. 2021, n° 440376) mais que le Gouvernement a décidé d’abandonner (Ministère de la justice, comm., 13 janv. 2022). Ch. Quézel-Ambrunaz, V. Rivollier et M. Viglino, Le retrait de Datajust ou la fausse défaite des barèmes, D. 2022.467. ?
  8. Allemagne : Actineo. Belgique : Grille corpus, Repair, Jaumain. France : Case law analytics, Predictice, Juridata analytics. Voy. par ex. J. Horn, Exemple d’utilisation d’une solution IA développée par une legaltech dans des contentieux PI – Utilisation de LitiMark, Dalloz IP/IT 2021.263. ?
  9. France : Datajust. Italie : legal analytics for italian law. ?
  10. J. Bourdoiseau, La réparation algorithmique du dommage corporel : binaire ou ternaire ?, Resp civ. et assur. mai 2021, étude 7. ?
  11. Il est à noter, pour ne prendre que cet exemple, que les juges administratifs français ont accès à la totalité des décisions rendues (quel que soit le degré de juridiction) à l’aide d’un outil qui n’est mis à disposition que pour partie aux justiciables (ce qui interroge), à tout le moins à ce jour (https://www.conseil-etat.fr/arianeweb/#/recherche).
  12. Google, Apple, Facebook (Meta), Amazon, Microsoft. Voy. aussi les géants chinois : BATX (Baidu, Alibaba, Tencent, Xiaomi). ?
  13. https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX:52021PC0206 ?
  14. Voy. not. L. Huttner et D. Merigoux, Traduire la loi en code grâce au langage de programmation Catala, Dr. fiscal févr. 2021.121. Voy. aussi Autorité de contrôle prudentiel et de résolution, La transformation numérique dans le secteur français de l’assurance, analyses et synthèses n° 132, 2018 ; Institut Montaigne, Algorithmes : contrôle des biais, rapport, mars 2020, (https://www.institutmontaigne.org/publications/algorithmes-controle-des-biais-svp) ?

(Article publié in La responsabilité civile et l’intelligence artificielle, Bruylant, 2023)

L’intelligence artificielle et le juriste augmenté

1. Le calcul. L’intelligence artificielle s’est imposée comme une révolution technologique probablement l’une des plus extraordinaires de l’histoire des sciences. Mais aussi spectaculaire soient ses avancées et l’amélioration continue des modèles, l’IA (contrairement à ce qu’on pourrait penser) reste bornée par la complexité des calculs et la consommation d’énergie. Il faut bien voir que les centres de données, qui entraînent les modèles d’IA, sont extrêmement énergivore, à tout le moins pour l’instant. Car une fois que la phase expérimentale de l’informatique quantique aura été dépassée, le champ des possibles sera augmenté dans des proportions qu’on a encore du mal à évaluer. On sait tout au plus que la puissance de calcul des algorithmes quantiques devrait être exponentielle. Accélérant la résolution des opérations et les apprentissages, les machines devraient être bien moins consommatrices d’énergie. Il se pourrait fort par conséquent que plus aucun frein technique ne puisse être mis au travers du chemin des entrepreneurs privés développeurs de modèles d’intelligence artificielle et faiseurs de lois de la cité.

2. La loi. C’est que les modèles d’IA sont proprement performatifs en ce sens qu’ils contribuent à façonner le réel et à influencer les opérateurs dans leur prise de décision. Ceci pour dire que l’IA est très possiblement sur le point d’être législatrice. Martin Heidegger écrit en 1954 lorsque « nous considérons la technique comme quelque chose de neutre (ce que veulent nous faire croire les industriels de la technologie), c’est alors que nous lui sommes livrés de la pire façon car cette conception (…), nous rend complètement aveugle en face de l’essence de la technique »[1]. Il y a une bonne raison à cela, qui a bien été décrite en sciences, à savoir que les technologies, quelles qu’elles soient, sont des systèmes socio-politiques, qui incorporent inévitablement des partis pris et ne sont jamais exempt de la recherche d’un profit pour leurs architectes[2]. Il importe donc à tous les utilisateurs et aux professionnels du droit plus particulièrement d’en avoir pleinement conscience à peine non pas d’être augmentés mes purement et simplement remplacés.

3. Le juriste augmenté qui nous intéresse est un professionnel du droit qui utilise l’intelligence artificielle pour améliorer son office ; qui fait usage de l’IA générative pour renforcer ses compétences au service de son entreprise et de toutes celles et tous ceux qui ont réclamé son ministère. Selon qu’on soit technophobe ou bien au contraire technophile, l’usage des machines n’est pas tout à fait le même. Tandis que les premiers cherchent à faire mieux (ce qui est appréciable), les seconds cherchent à faire différemment (ce qui est remarquable).

Il faut tout de même dire ici que les juristes n’ont pas attendu la mise à disposition des modèles d’intelligence artificielle pour repenser les modalités d’exécution de leur travail, améliorer leur productivité et (c’est selon) gagner des parts de marché. Les uns, convaincus par les vertus de l’artisanat traditionnel ou analogique mais agiles ont su (entre autres leviers de croissance) externaliser les prestations juridiques à faible valeur ajoutée pour réduire les coûts de production du droit et augmenter leur capacité à prester. C’est ce qu’on appelle le legal process outsourcing. Les autres, séduits par les virtualités de l’industrialisation numérique, ont prêté leur concours à l’algorithmisation du droit par le truchement des legal start’up[3]. Où l’on peut aisément imaginer qu’entre ces deux approches ontologiques le champ des possibles et celui des pratiques sont très grands.

4. L’ontologie. L’intelligence artificielle ne se contente pas d’offrir une palette d’outils technologiques plus prodigieux les uns que les autres, qui se proposent de tout dire voire de tout prévoir ou bien encore de tout écrire. La machine n’a pour seule ambition d’assister l’homme de l’art, qu’il soit juriste d’une entreprise ou bien au service d’une personne morale de droit public, avocat, magistrat. Elle prétend faire aussi bien voire mieux. L’Estonie s’est par exemple dotée d’un juge robot chargé de trancher les petits litiges[4]. La technologie pose donc la question de savoir ce qu’est un juriste à l’ère numérique. Être ou ne pas être (juriste) telle semble être désormais la question. Ce que l’on sait pour tenter d’esquisser une réponse : le juriste est augmenté dans son aptitude à saisir la matière juridique et dans sa capacité à la mettre en forme. Ce qu’on ne sait pas : dans quelle mesure sera-t-il supplanté ?

Quelques pistes de réponse seront ébauchées au fur et à mesure de l’exposé des modalités de son augmentation par l’intelligence artificielle, à savoir : l’augmentation du juriste par l’IA dans la connaissance du droit (I) et l’augmentation du juriste par l’IA dans l’écriture du droit (II).

I.- Le juriste augmenté par l’IA dans la connaissance du droit

L’usage de l’intelligence artificielle augmente le juriste dans sa connaissance du droit de bien des façons. Non seulement l’accès aux règles de droit positif, qui sont applicables aux présents cas, est facilité (A) mais l’intelligence artificielle serait en capacité de prédire l’avenir (B).

A) Facilitation du présent

5. L’apprentissage du droit. Avant que les modèles d’IA ne s’imposent comme une réalité tangible, l’apprentissage du droit supposait que des leçons soient données ; que des maîtres transmettent la connaissance critique des règles juridiques et des systèmes de résolution des litiges. Le passé est employé mais l’interface étudiant/professeur ou bien homme/homme existe encore. Elle a un nom : la faculté de droit. Elle a son sanctuaire : la bibliothèque. En disant cela, et sans que nous n’en ayons jamais eu conscience, voilà que depuis la Rome antique une première interface homme/chose a toujours été là sous nos yeux. Nous n’avions tout simplement pas pensé la désigner de cette manière. Elle n’est toutefois pas du tout comparable à ces nouvelles interfaces homme/machine pour plusieurs raisons. D’une part, et aux termes d’une sorte d’anthropomorphisme, le livre écrit par le professeur, qui est consulté pour savoir ou bien savoir-faire, n’est au fond pas autre chose que l’homme de l’art lui-même. D’autre part, et la remarque prête à bien plus de conséquence, l’accès à son contenu est pour ainsi dire interdit à qui n’a pas été initié à la discipline. C’est absolument vrai pour un profane. Et c’est encore vérifiable pour un juriste qui s’aventurerait dans un droit qui lui est proprement étranger (qu’il soit interne ou bien encore international).

De ce point de vue, l’usage de l’IA change notablement la donne. Les faiseurs de modèles font croire aux utilisateurs qu’il n’y a plus besoin d’aucun prérequis pour accéder au droit. Voilà une belle histoire à dormir debout. La machine est encore incapable de certifier que les données qui ont été mobilisées en réponse à la requête sont les bonnes. La pertinence du prompt est donc étroitement corrélée à la connaissance de l’utilisateur, laquelle est absolument nécessaire pour se prémunir d’une éventuelle hallucination de la machine.

Où l’on constate en définitive sur un terrain strictement méthodologique qu’on a fait un tour en rond. Qu’on soit à Rome en -450 av. J.-C. (écriture de la loi des 12 tables) ou bien qu’on soit à Sfax en + 2025 (écriture des lois informatiques), il n’est pas plus évident de consulter utilement un traité juridique que de rédiger une requête qui soit juste.

On conviendra tout de même que la puissance de calcul de la machine offre des facilités extraordinaires au juriste en termes de révélation, de mise en lumières des règles juridiques en ce que le cadre de la recherche n’est plus du tout borné : le temps (aboli par l’instantanéité) et l’espace (dissous par la dématérialisation) ne sont plus des variables de complication. La recherche juridique s’en trouve aussitôt simplifiée.

6. La recherche juridique. Les algorithmes de traitement du langage naturel (natural language processing) ou bien encore le web sémantique, qui sont des outils d’analyse complexes des mots, autorisent une veille juridique proactive, non plus seulement informative comme c’était le cas jusqu’à présent. Dans un environnement normatif qui grossit chaque jour un peu plus (c’est à tout le moins typique en droit français), et il en va de même par voie de conséquence de l’édition juridique, l’intelligence artificielle rend praticable non seulement la mise à jour des connaissances techniques mais elle offre également la possibilité de réaliser une veille anticipative, une analyse des tendances, l’anticipation des projets législatifs. Ce tour de force a certes été rendu possible par les chercheurs et les ingénieurs en données et en intelligence artificielle mais la technologie n’aurait pu se développer sans matière, sans que de très ambitieuses politiques publiques de digitalisation du droit ne soient décidées. C’est ainsi que le service public français de la diffusion du droit en ligne a organisé l’open data de tout le droit légiféré ainsi que de toutes les décisions de justice. Non seulement la recherche juridique est ainsi facilitée mais il y a plus : les modèles d’IA sont en capacité d’analyser le droit à demande. C’est à tout le moins la promesse qui est faite par les fournisseurs de technologies.

7. L’analyse du droit. C’est de raisonnement juridique assisté par une intelligence artificielle dont il est question. L’interface homme/machine révèle ici une bonne part des facilités offertes par la technologie. On pensait que le droit, qui est un ensemble de systèmes notamment dynamiques pour l’application desquels l’interprétation de l’homme de l’art est la clef, ne pourrait pas être pratiqué par une machine. La modélisation des règles de droit a pourtant été faite. De nombreux opérateurs économiques proposent une telle prestation. Des modèles d’IA sont capables de formuler des hypothèses et d’effectuer un raisonnement juridique structuré. Cela ne doit pas étonner plus que cela en vérité. La règle de droit est écrite pour résoudre un problème (plerumque fit). Quant à son écriture, sa structuration, elle est très souvent à deux détentes : qualification juridique/régime, conditions/effets, principe/exception, etc. Ainsi présenté, le droit ressemble à s’y méprendre au langage des microprocesseurs, des ordinateurs, au code qui est utilisé dans les technologies de l’information et de la communication. Pour le dire autrement, le droit est fait d’une multitude d’algorithmes, c’est-à-dire des méthodes d’exploration et de résolution des problèmes[5]. Il ne restait plus aux faiseurs de modèles d’intelligence artificielle et aux chercheurs en traitement du langage avancé qu’à proposer des systèmes capables de structurer un raisonnement juridique en suivant une logique argumentative, capables d’analyser des normes pour formuler des hypothèses, de générer des syllogismes juridiques, de rédiger des conclusions et des mémoires en respectant les canons académiques.

C’est chose à présent faite. Il se peut que nous soyons en train d’assister aux prémices d’une intelligence juridique collective et à une collaboration homme/machine non plus seulement une interface, une collaboration qui ne se limite pas à dire le présent mais qui est en capacité de prédire l’avenir.

B) Prédiction de l’avenir

8. Les modèles. La prédiction de l’avenir : voilà la promesse des legal start’up la plus ahurissante qui soit. Aussi loin qu’on puisse remonter dans l’histoire des sociétés humaines, l’appréhension de l’avenir a été recherchée. Les méthodes divinatoires et mystiques (astrologie, cartomancie, chiromancie, nécromancie, prophétie) ont toutes échoué à le révéler. Encore qu’il arrivât que du droit soit dit sur la foi de pareilles méthodes. Il n’est que de songer, entre autres exemples, aux règles dont la prétendue violation a été sanctionnée par les tribunaux sous l’Inquisition médiévale. Quant aux approches philosophiques (déterminisme, existentialisme, synchronicité), on conviendra qu’elles n’ont pas fait mieux. On doit en revanche à la science et à ses progrès d’avoir développé des outils d’anticipation. Les modèles mathématiques et statistiques ont permis de prévoir des événements futurs. Mais seules ont été concernées l’économie, la météorologie et l’épidémiologie à l’exclusion du droit par conséquent. Mais avec les modèles d’intelligence artificielle, l’analyse massive de larges volumes de données éparses a pu être faite, des tendances ont pu être identifiées, des prédictions ont pu être proposées. Des algorithmes prédictifs permettent désormais d’évaluer les chances de succès d’un recours en justice. Il y a un mot pour dénommer ce qui forme une discipline à part entière : la jurimétrie.

9. La jurimétrie s’inscrit dans une démarche d’objectivation et de rationalisation du raisonnement juridique. Elle repose sur plusieurs approches : l’analyse statistique des décisions de justice, la modélisation prédictive, qui consiste à prévoir l’issue d’un litige au regard des données sélectionnées, le traitement automatisé du langage juridique, l’évaluation de l’efficacité des normes. Les juges américains sont par exemple assistés dans leur prise de décision en matière de libération conditionnelle par un outil qui évalue le risque de récidive des personnes condamnées (Compas). En France, des entreprises commercialisent des solutions qui se proposent d’accompagner les avocats dans leur ministère (Case law analytics par exemple qui est commercialisée par LexisNexis). Le juriste est ainsi en capacité théorique d’évaluer la probabilité de succès de l’action engagée, d’adapter ses arguments en fonction des tropismes éventuels du juge, de déterminer si une transaction est préférable à un procès. Les pouvoirs publics français et leurs juristes savent également recourir à l’intelligence artificielle et à la jurimétrie. Ils peuvent ainsi réaliser une étude d’impact d’une réforme en gestation, détecter un défaut de fabrication de la loi, anticiper les conséquences d’un changement de réglementation. C’est ainsi que le ministère de la justice et la Cour des comptes ont pu analyser la pratique des conseils de prud’hommes relativement à l’application du barème d’indemnisation des salariés licenciés sans cause[6].

Où l’on constate en résumé que le juriste est remarquablement augmenté par l’intelligence artificielle dans sa connaissance du droit. Les mêmes causes produisant les mêmes effets, il en est de même relativement à l’écriture du droit.

II.- Le juriste augmenté par l’IA dans l’écriture du droit

L’écriture du droit est l’une des tâches fondamentales des juristes, qu’il s’agisse de rédiger des actes juridiques, des lois, des règlements, ou des décisions de justice. L’intelligence artificielle transforme le travail des rédacteurs en proposant des outils qui augmentent les capacités des juristes.

A) Rédaction de textes

10. Assistance technique. L’IA propose aujourd’hui des solutions pour assister les juristes dans la rédaction de textes juridiques. On doit ces facilités à la technologie du traitement du langage naturel et à celle de l’apprentissage automatique (machine learning). Les modèles sont capables de générer des actes juridiques tout entiers, des clauses contractuelles, des projets de loi ou de règlement. L’IA peut tout à fait proposer des formulations optimisées au regard du contexte, des parties et des risques renseignés.

Elle peut encore rédiger des textes juridiques plus clairs en analysant la complexité des énoncés et en proposant des reformulations simplifiées. Elle peut aussi favoriser l’emploi d’une écriture inclusive et accessible au grand public, ce qu’on appelle le legal design, qui a pour objet de rendre la matière plus accessible, compréhensible et user-friendly (comme on dit). Le gain de temps est alors très substantiel.

Les juristes, qu’ils expriment leur talent en entreprise, en cabinet d’avocats ou bien encore au palais de justice, se sont dotés très tôt de bibliothèques de modèles d’actes juridiques et de contrats construites de toute pièce ou bien proposées par les éditeurs juridiques. Il reste que la technologie, qui est devenue une clef du contract management, offre bien plus de facilités notamment en termes de prévention et de correction des défauts de fabrication, en termes par voie de conséquence de sécurité juridique. A l’expérience, l’IA dépasse de très loin les utilités offertes par les logiciels de gestion des contrats (CLM ou contract lifecycle management). Il ne s’agit plus seulement d’automatiser des alertes ou bien le suivi des obligations contractées et les coûts environnés (délais et litiges), ou bien encore d’archiver les contrats et les échanges.

11. Contract management. L’IA peut identifier des incohérences, des erreurs de syntaxe ou bien des omissions. Elle peut donc tout à fait se substituer à un juriste sénior dont le travail consistait jusqu’à présent à repérer les vices éventuels de l’acte juridique tant au stade de sa formation qu’à celui de son exécution (pour les contrats successifs). L’intelligence artificielle est également en capacité d’assister le juriste via un parangonnage (benchmark), qui consiste à comparer un texte juridique avec des milliers d’autres pour identifier les meilleures pratiques ou les clauses standardisées. Elle peut faire plus et analyser le contenu d’un acte pour réaliser un audit de performance.

12. Audit de performance. Cet examen appliqué au contrat consiste à réaliser une analyse approfondie des figures juridiques sous étude pour évaluer leur efficacité, leur conformité et l’impact économique des engagements souscrits. Après que les formules d’actes juridiques ont été implémentées, et une fois l’entraînement de la machine terminé (qui suppose donc une expertise renforcée du juriste), l’intelligence artificielle peut vérifier la conformité des contrats analysés avec les lois et régulations en vigueur. Elle peut suggérer des modifications pour réduire les risques juridiques ou améliorer l’économie général d’un contrat. Lorsqu’on sait combien les risques de responsabilité sont grands lorsqu’on s’aventure dans la rédaction successivement de contrats-cadre, de contrats d’application et de leurs avenants éventuels, l’outil augmente de façon tout à fait significative le juriste concerné.

L’IA offre encore bien plus aux juristes en leur permettant de passer d’un travail artisanal à un service industrialisé par la production de séries d’actes.

B) Production de séries

La plus remarquable avancée de l’IA et de la digitalisation des services proposés par les juristes est très certainement la capacité qui leur a été offerte de produire des séries totalement automatisées d’actes juridiques.

13. Automatisation. La génération automatique d’actes juridiques standardisés ou personnalisés supposent une association fine des juristes et des ingénieurs. Tantôt, l’automatisation sert les consommateurs, tantôt elle est au service des entreprises. Dans les deux cas, les gains de productivité et la hausse du chiffre d’affaires des cabinets concernés sont tout à remarquables. Relativement aux consommateurs, le prix unitaire du service vendu est réduit ; les barrières à l’accès au marché du conseil juridique sont donc levées en partie. Quant aux entreprises, qui sont mises en situation de piloter le système d’informations vendues, elle gagne en diminution des tâches répétitives et en sécurisation de la chaine de production des contrats. De nombreux organismes d’assurance sont par exemple concernés, qui ont acheté une telle solution technologique. Aux termes des contrats passés, les produits d’assurance peuvent être automatiquement construits, les propositions commerciales automatiquement rédigées et les notices d’information automatiquement adressées. Lorsqu’il s’agit de faire évoluer les produits sous la contrainte d’une évolution règlementaire (l’actualisation d’un tableau de garanties d’une convention collective nationale par exemple) ou bien pour des raisons stratégiques, la solution technologique qui a été conçue et déployée autorise une correction sans délai et à moindre coûts de toutes les positions contractuelles concernées.

14. En guise de propos conclusifs, qu’il soit bien noté qu’un seul aspect de l’IA a été présenté : ses mérites. Janus bifront, il ne s’agirait pas de minorer le côté obscur d’une telle technologie ni les torts susceptibles d’être causés par l’usage de la machine. Relativement aux IA génératives, aucune personne ne répond de la qualité des contenus renseignés tandis que l’homme de l’art est responsable de sa faute professionnelle. Par voie de conséquence, aussi augmenté soit le juriste, il ne saurait jamais échapper pas à ses obligations en excipant l’usage de l’IA, qui n’est en droit qu’un tiers assistant. Il ne saurait jamais prétendre exercer non plus sans une formation idoine complétée au fil du temps.

Le juriste augmenté par l’IA n’est donc pas prêt d’être un juriste remplacé. Il est bien au contraire un juriste inspiré qui utilise la technologie pour mieux exercer son métier.

  1. Essais et conférences, Gallimard, 1958 (éd. française), p. 4 cité par A. Latil, Le droit du numérique. Une approche par les risques, Dalloz, 2023, p. 24. ?
  2. A. Latil, Le droit du numérique. Une approche par les risques, Dalloz, 2023, pp. 22 et s. ?
  3. J. Bourdoiseau, Le conseil juridique ébranlé par la nouvelle économie ?, Dalloz IP/IT 2019.655. ?
  4. J. Bourdoiseau, Le recours à l’intelligence artificielle pour évaluer les préjudices, rapport de synthèse in Responsabilité civile et intelligence artificielle, Bruylant, 2002, p. 635. ?
  5. J. Bourdoiseau, La réparation algorithmique du dommage corporel : binaire ou ternaire ?, Resp. civ. et assur. mai 2021. ?
  6. Barème fixé à l’article L. 1235-3 C. trav. Rapport de la Cour des comptes, 2019. ?

(Article à paraître aux éditions Latrach, printemps 2025)

L’intelligence artificielle et les infrastructures de collecte des données de santé

1. Révolution. L’intelligence artificielle s’est imposée comme une révolution technologique probablement l’une des plus extraordinaires dans l’histoire des sciences. Mais aussi spectaculaire soient ses avancées et l’amélioration continue des modèles, l’IA (contrairement à ce qu’on pourrait penser) reste bornée par la complexité des calculs et la consommation d’énergie. Il faut bien voir que les centres de données qui entraînent les modèles d’IA sont extrêmement énergivore, à tout le moins pour l’instant. Car une fois que la phase expérimentale de l’informatique quantique aura été dépassée, le champ des possibles sera augmenté dans des proportions qu’on a encore du mal à évaluer. On sait tout au plus que la puissance de calcul des algorithmes quantiques devrait être exponentielle (v. toutefois les performances élevées de Deepseek, l’IA chinoise). Accélérant la résolution des opérations et les apprentissages, les machines devraient être bien moins consommatrices d’énergie. Il se pourrait fort par conséquent que plus aucun frein technique ne puisse être mis au travers du chemin des entrepreneurs privés faiseurs de modèles et de lois de la cité. Des faiseurs de loi, vous avez bien lu. C’est que les modèles d’IA, qui sont des systèmes sociaux-techniques en ce qu’ils incorporent inévitablement des partis pris, sont proprement performatifs en ce sens qu’ils contribuent à façonner le réel et à influencer les opérateurs dans leur prise de décision. Martin Heidegger écrit en 1954 lorsque « nous considérons la technique comme quelque chose de neutre (ce que veulent nous faire croire les industriels de la technologie), c’est alors que nous lui sommes livrés de la pire façon car cette conception (…) , nous rend complètement aveugle en face de l’essence de la technique »[1]. Il est question ici d’IA législatrices. En conséquence, au vu des risques encourus par notre monde sensible et réel, l’intervention des pouvoirs publics était imparable, peu importe ce qu’en pense Elon Musk.

2. Règlementation. Les législateurs français et européen étaient donc tout à fait fondés à édicter un cadre juridique contraignant à large spectre (le Règlement général sur la protection des données adopté le 27 avril 2016 et règlement n° 2024/1689 établissant des règles harmonisées concernant l’intelligence artificielle – Artificial intelligence act – adopté le 13 juin 2024 dont l’entrée en vigueur étalée dans le temps a commencé dimanche 02 dernier)[2] et quelques règles plus spécifiques aux fins de régulation sectorielle. Il en va ainsi des infrastructures numériques de collecte de données de santé, qui n’ont pas été laissées à la discrétion des opérateurs de marché. C’est le cas de la plateforme Mon espace santé, du Système national des données de santé et de la plateformes numérique des données de santé, qui retiendront l’attention. Nous aurions pu également disserter sur les fameuses plateformes de rendez-vous médicaux en ligne qui collectent plus de données de santé qu’on ne l’imagine[3].

3. Numérisation. Mon espace santé, qui intègre le dossier médical partagé dont il n’est plus qu’une composante (art. L. 1111-13 csp), est un outil de centralisation des données de santé. En bref, c’est un carnet de santé numérique. Le législateur lui a consacré de nombreuses dispositions qui ont été intégrées au tout début du code de la santé publique (art. L. 1111-13 et s.). Il est donc question de protection des personnes en matière de santé, de principes aussi généraux que directeurs. On s’étonnera donc que chacune des dispositions que le législateur a consacré au sujet comportent autant de lignes de code. Tandis que l’enjeu dans le contexte que j’ai décrit est considérable, il n’est pas certain du tout que le travail de conceptualisation ait été suffisamment poussé. J’y reviendrais en propos conclusifs. On répondra que la complexité technique du procédé était-t-elle qu’il était proprement impossible de rédiger une série de lignes directrices dans le temps imparti. Il peut être soutenu en contre-argument qu’il y a fort à craindre par voie de conséquence que nous ayons en bout de course inventé une chimère (c’est-à-dire une créature composite et fantastique malfaisante). C’est cette hypothèse de travail que je vous propose de vérifier dans cette brève communication, qui ne sera pas chapitrée.

4. Intention. Contrairement à ce qu’on pourrait penser, Mon espace santé n’est pas un vulgaire carnet de santé on line. C’est la clef de voûte technique d’une politique ambitieuse décidée par les pouvoirs publics plus connue sous le nom de code « Virage numérique en santé » pour la réussite duquel 2 milliards d’euros ont été investis (v. not. www.esante.gouv.fr). Les ministres qui se succèdent à la santé n’en font aucun mystère et ne varient pas. (C’est tant mieux, vu la vitesse de rotation des patrons de l’avenue Duquenne). Il s’agit de centraliser la donnée de santé pour améliorer la prise en charge des patients, rationaliser la consommation de soins et de biens médicaux, alimenter aux fins de recherche le système national des données de santé. Chose faite, et il faudra y revenir, les données sont mises à la disposition des professionnels la plateforme du numérique des données de santé (PNDS), dont l’économie générale est fixée à l’article L. 1462-1 csp.

Les intentions sont louables. Mon espace santé permet à toutes les personnes concernées (le titulaire et les professionnels de santé participant à sa prise en charge au sens de l’article L. 1111-13-1, IV, 1° csp qui ont été en principe autorisés aux termes de l’article R. 1111-46 csp) d’accéder à ses données administratives, à son dossier médical partagé, à ses constantes de santé éventuellement produites par des applications ou bien des objets connectés, à l’ensemble des données relatives au remboursement de ses dépenses de santé, à une messagerie sécurisée, à un questionnaire de santé et, plus généralement, à tout service numérique de prévention, d’orientation dans le parcours de soins, de retour à domicile (art. L. 1111-13-1, II et R. 1111-27 csp). Où l’on se dit après cet énoncé à la Prévert que les utilités de la plateforme sont tout à fait considérables. J’entends déjà poindre une première critique, à savoir que le carnet de santé en ligne est de nature à compliquer la vie des personnes souffrant une fracture numérique. Qu’on se rassure : le législateur a eu à l’esprit cette catégorie de personnes. Seulement voilà, son approche n’est pas opératoire. Je vous propose d’en juger par vous-même : L’article L. 1111-13-2 csp dispose que la conception et la mise en œuvre de l’espace numérique de santé tiennent compte des difficultés d’accès à internet et aux outils informatiques (…) rencontrées par certaines catégories de personnes. Et de proscrire toute discrimination fondée sur la localisation géographique, les ressources ou le handicap. La belle affaire. Nous verrons à l’usage si les 2750 maisons France service, qui sont des espaces de proximité ouverts sur tout le territoire, seront en capacité d’accompagner les personnes en situation de vulnérabilité numérique.

Le carnet de santé dématérialisé retient l’attention pour une autre raison, qui n’est pas dite par les lois et règlements sous étude. A ce jour, le dossier médical (c’est également vrai pour le dossier pharmaceutique) des usagers du système de santé est dispersé tous azimuts. La baisse de la démographie des médecins, les déserts médicaux, le nomadisme médical ont pour conséquence de démultiplier le nombre de soignants, chacun d’entre eux renseignant une petite partie de l’histoire médicale du patient d’un jour. Comment dans de telles conditions optimiser et sécuriser la prise en charge ; comment le moment venu faire la preuve de l’inexécution par le professionnel de santé de ses obligations ? Où l’on constate que la détention par le patient de son dossier 2.0 a vocation à changer radicalement la donne. Détention qui, une fois parfaitement déployée (je le dis au passage), devrait en toute logique entrainer la suppression de l’inversement de la charge de la preuve qui pèse sur les professionnels de santé qu’ils ont bien exécuté leurs obligations. Mais alors où se cache le diable…eh bien dans les détails de la réalisation du virage numérique en santé.

5. Réalisation. Les données qui sont renseignées dans Mon espace santé sont stockées par un hébergeur certifié. Dans le cas particulier, et en application de l’article R. 1111-37 csp, c’est la société d’infogérance ATOS qui a été sélectionnée par l’Agence du numérique en santé et agréé par le ministère des solidarités et de la santé[4]. Pour mémoire, ATOS est une entreprise de droit français dont la restructuration capitalistique en cours a failli avoir pour conséquence le transfert du contrôle de l’entreprise à un investisseur étranger (en l’occurrence le milliardaire tchèque Daniel Kretinsky). Voilà donc une première source d’inquiétude. Car si en droit l’hébergement doit être assuré en Europe pour sécuriser au maximum les données de santé, il se pourrait que le jeu normal des règles du marché et la substitution de la personne de l’hébergeur introduisent un sacré biais de souveraineté numérique. Il sera rétorqué qu’il n’y a pas matière à trop s’inquiéter car l’hébergeur a nécessairement été dans l’obligation de garantir l’interopérabilité du système employé aux fins d’hébergement (au sens de l’article L. 1470-5 csp) ; que si, par extraordinaire, l’entreprise était cédée à un tiers détenteur de nationalité étrangère, il suffirait de faire jouer la clause de réversibilité. Seulement voilà : la possibilité de changer de fournisseur du service d’hébergement – ce qu’on appelle précisément la réversibilité – n’est pas neutre financièrement. Au vu de la quantité de données de santé à migrer, il se pourrait que le prix de l’opération soit rédhibitoire et que les pouvoirs publics doivent alors se contenter d’un statu quo. Quels sont les coûts environnés : portabilité des données, création d’une infrastructure susceptible de les recevoir, implémentation de logiciels dédiés[5]. Ce n’est pas moi qui le dit, ce sont (de concert) le Comité consultatif national d’éthique et le Comité national d’éthique du numérique[6] dans un avis commun publié en février 2023 consacré aux enjeux éthiques des plateformes de santé[7].

Et il se pourrait qu’il y ait plus fâcheux encore ; que l’affaire se complique.

6. Complication. Mon espace santé a retenu seul l’attention pour l’instant. Je vous indiquais qu’il fallait aussi se préoccuper des modalités de fonctionnement du Système national des données de santé. Il s’agit d’une autre plateforme numérique, plus ambitieuse encore, vers laquelle converge les données de santé aussitôt qu’un acte a été pris en charge par l’assurance maladie. Tout est dit aux articles L. 1460-1 et suivants du code de la santé publique dans un titre VI intitulé « Mise à disposition des données de santé ». La liste des sources de données à caractère personnel, qui sont implémentées dans le système national, est plutôt longue, qui renseigne une première intention que je qualifierai de rétrospective, qui consiste à réaliser une évaluation systématique et objective de l’efficacité, de l’efficience et de l’économie des activités, programmes ou politiques d’une organisation. Ce qu’on appelle un audit de performance. Pour ce faire, L. 1461-1 csp, qui est le siège de la matière, dispose que la mise à disposition des données a pour finalité (je cite dans l’ordre du code) : l’information sur la santé, sur l’offre de soins, la prise en charge médico-sociale et leur qualité ; la définition, la mise en œuvre et l’évaluation des politiques de santé et de protection sociale ; la connaissance des dépenses de santé, des dépenses d’assurance maladie et des dépenses médico-sociales, l’information des professionnels sur leur activité ; la surveillance, la veille et la sécurité sanitaire. Une seconde détente à visée prospective doit plus volontiers retenir l’attention. Au 6e du texte précité, la collecte de donnée personnelles a également pour finalité la recherche, les études, l’évaluation et l’innovation dans les domaines de la santé et de la prise en charge médico-sociale (art. L. 1461-1, III csp). Pour le dire autrement, les données ont donc vocation à être modélisées. Et l’on voit mal comment une pareille quantité de lignes de codes pourrait être manipulée sans recourir à une intelligence artificielle. Tout à fait averti des risques encourus, le législateur impose en conséquence l’anonymisation des données. Il précise surtout (et cela prête à plus de conséquences à mon avis), les modalités et la finalité de leur accès (art. L. 1461-3 et 4 csp). Reste que la règle de droit est très imparfaite dans le cas particulier car elle ne prescrit aucune sanction idoine, à tout le moins pas dans le code de la santé publique. La violation des droits de la personnalité des usagers du système de santé supposera donc de mobiliser le règlement général de protection des données personnelles et l’IA act. Violation qui doit être imaginée pour la prévenir.

7. Violation. Le système national des données de santé que je viens de décrire à très grands traits est couplé avec une troisième infrastructure, qui un groupement d’intérêt public, dénommé « plateforme nationale du numérique en santé » (PNDS. Art. 1462-1 csp), appelée Health data hub dans les communications à rayonnement international dit l’arrêté constitutif[8]. Je vous en parlais il y a un instant. Où l’on constate que les sujets préoccupation sont décidément empilés les uns les autres. Les données de référence qu’il importe stocker aux fins de modélisation et d’exploitation sont si importantes et les pouvoirs publics étant dépourvus des moyens techniques idoines, qu’il a fallu recourir à un autre prestataire de service informatique de droit privé. Dans le cas particulier, c’est l’entreprise Microsoft et sa solution cloud azure qui a remporté le marché et qui a été certifiée « hébergeur de données de santé » au sens de l’article L. 1111-8 csp. Une nouvelle fois, et sans faire aucune offense à la firme américaine, il est à craindre que la sécurité des données de santé ne soit pas complètement assurée car en droit américain, les agences fédérales peuvent tout à fait y accéder. C’est l’objet du Foreign intelligence surveillance act (art. 702) et du Cloud act adopté le 23 mars 2018 (Clarifying lawful overseas use of data act) qui autorise les agences de renseignement du Gouvernement US (FBI et NSA notamment – National security agency) à accéder aux données stockées par les entreprises de droit américain peu important le pays où elles sont hébergées. Et c’est précisément pour cette raison que le Health data hub vers lequel migre la totalité des données personnelle de santé, qui ont été collectées, est de nature à susciter les pires inquiétudes. Saisi en référé, le Conseil d’Etat fait montre d’une remarquable sérénité, qui ne considère pas pour sa part que le transfert des données à un Etat tiers est de nature à suspendre l’autorisation données par la CNIL à la plateforme des données de santé[9].

8. Juridictionnalisation. Entre autres arguments tiré de l’article 45 du RGPD, qui prescrit les conditions du transfert de données à caractère personnel, le Conseil d’Etat considère que les États-Unis assurent un niveau adéquat de protection des données éventuellement transférées depuis l’Union vers des organisations établies outre atlantique. La haute juridiction administrative rappelle dans la foulée que la fourniture des données aux agences américaines de police et de renseignement, données qui sont du reste pseudonimisées (ce qui n’est pas la même chose qu’anonymiser, le Conseil d’Etat disserte très justement sur le sujet), n’est pas laissée à la discrétion du Gouvernement mais est conditionnée à une décision de justice pour les besoins d’une enquête criminelle. Qu’il n’y a donc aucune base légale aux demandes de suspension de l’hébergement par Microsoft. Fermer le banc. Le contentieux continue bon train au fond sans plus de succès pour les requérants (CE, 23 nov. 2022, n° 456162, recueil Lebon ; 13 nov. 2024, n° 475297, recueil Lebon ; 19 nov. 2024, n° 491644, recueil Lebon) et en référé avec le même résultat (CE, référés, 22 mars 2024, n° 492369, recueil Lebon). Les administrateurs du groupement d’intérêt public Health data hub sont néanmoins en train de réévaluer la stratégie d’hébergement des données de santé. Une orientation européenne se dessinerait. Où la France, dont les ambitions sont très grandes en termes d’espace numérique de santé, paie la faillite d’ATOS et le retard accumulé dans l’industrie et les services du numérique.

9. Industrialisation. La voie de l’industrialisation qui n’a pas encore été prise interroge plus fondamentalement sur la souveraineté numérique de la France, sur la capacité des pouvoirs publics à protéger les données de santé, à réguler le marché et développer des infrastructures numériques pour mieux les contrôler. En la matière, la puissance des modèles américains et chinois est elle tandis que l’abondement en argent des start’up françaises est inversement proportionnel qu’on peine à envisager à court terme une internalisation résiliente des données de santé[10]. Mais peut-être que la start’up française Mistral AI, qui a ouvert un bureau dans la Silicon valley en novembre dernier pour attirer les talents, les financements et les opportunités business, sera en mesure de prendre une part significative le moment venu. Mais revenons à des considérations moins macro-économiques et intéressons-nous pour conclure aux risques juridiques encourus du fait de la captation ou bien de la divulgation des données de santé de tout un chacun.

10. Révélation. Il y a des opérateurs économiques contre lesquels le législateur a voulu protéger les usagers du système santé, à savoir : les organismes d’assurance. Dans un article L. 1111-13-1, IV, al. 3 csp, la loi dispose que la communication de tout ou partie des données de l’espace numérique de santé ne peut être exigée du titulaire de cet espace lors de la conclusion d’un contrat relatif à une protection complémentaire en matière de couverture des frais de santé et lors de la conclusion ou de l’application de tout autre contrat[11]. Il y matière à commenter. Relativement à la mutuelle d’entreprise, ce n’est là que la réplique du contrat solidaire et responsable de l’article L. 871-1 du code de la sécurité sociale qui interdit à l’opérateur d’assurance de sélectionner les risques, solidarité de métier oblige. Mais le droit des données de santé pousse d’un cran les exigences en ce qu’il vise tout autre contrat. Et l’on songe aux contrats d’assurance de prêt d’argent pour la formation desquels l’assureur devra se contenter des déclarations du preneur d’assurance qu’il aura faites dans le questionnaire idoine. Qu’il soit permis de s’interroger sur l’approche qui a été choisie. L’opération d’assurance suppose l’appréhension fine du risque encouru. Il en va de la capacité de l’organisme à couvrir le sinistre le moment venu aux termes d’une juste tarification et à répondre de ses obligations prudentielles. Ce n’est pas tout. Le contrat d’assurance est un contrat aléatoire, certainement pas un pari, qui consiste pour un preneur d’assurance mal avisé de se garder de tout dire de son état de santé pour contracter à moindre prix en espérant ne pas être démasqué. Où l’on fleurte avec l’enrichissement injustifié. Le pari aurait gagné à être proscrit. La mutualité s’en trouverait mieux considérée tandis que le preneur serait protégé – certes à son corps défendant – contre le risque de nullité du contrat qui est encouru en pareil cas pour fausse déclaration du risque. Qu’il soit rappelé ici, sans faire de juridisme, que la loyauté contractuelle est d’ordre public.

Il me semble que si l’on devait veiller à ce que les organismes d’assurance ne puissent accéder aux données personnelles de santé, c’est pour une toute autre raison que celle spécialement visée par le législateur. Il faut bien voir que ces données renseignent un profil…de prospect. Elles ont donc une valeur d’échange. Constitutives de leads, leur acquisition est la clef du développement commercial de l’assureur, qui peut grossir son portefeuille de clients ou bien de contrats, qui peut tout aussi les revendre…tandis que les consommateurs concernés sont jetés en pâture aux démarcheurs commerciaux que la règlementation en vigueur ne parvient pas à refreiner.

On peut craindre encore du fait de l’usage et de la révélation des données de santé, une discrimination notamment dans l’emploi. Ceci étant dit la mobilisation de l’arsenal constitué par les règles du droit social est nature à refréner de telles velléités et le droit civil des contrats tout à fait apte à sanctionner l’erreur éventuelle sur les qualités essentielles de la personne du salarié. Il me semble en revanche qu’il existe une crainte autrement plus grande, à savoir : les faits de violence civile et pénale tirés de la menace de révéler le contenu des données de santé. En l’état du droit positif, il y a bien quelques règles à vocation corrective. Je pense au vu des enjeux que la prescription de dommages et intérêts punitifs pourrait être des plus préventives[12].

11. Interrogation. Pour terminer qu’il me soit permis de m’interroger sur ce qui semble être un parfait anachronique et qui témoigne d’une conceptualisation juridique insuffisante de l’usage des données de santé, à savoir : la délivrance pour tout enfant nouvellement né d’un carnet de santé…papier[13]. Anachronisme au regard du déploiement du droit de la santé et de l’infrastructure Mon espace santé. Anachronisme au regard du droit civil et du renouvellement de la structuration des couples et des familles recomposées.


  1. Essais et conférences, Gallimard, 1958 (éd. française), p. 4 cité par A. Latil, Le droit du numérique. Une approche par les risques, Dalloz, 2023, p. 24. ?
  2. https://artificialintelligenceact.eu/fr/ai-act-explorer/ ?
  3. M. Bernelin, Au cœur de l’exercice : les plateformes numériques en santé, RDSS 2024, p. 145 et s. ?
  4. Décision du 20 avr. 2018, https://sante.gouv.fr/fichiers/bo/2018/18-05/ste_20180005_0000_0041.pdf). ?
  5. V. en ce sens, M. Bernelin, Au cœur de l’exercice : les plateformes numériques en santé, RDSS 2024, p. 145. ?
  6. Comité créé en mode pilote à la demande du 1er ministre par le Comité consultatif national d’éthique le 2 décembre 2019. Son utilité a été récemment confirmé (D. n° 2024-463 du 23 mai 2024 ; art. 133-2 c. relations entre le public et l’administration)). ?
  7. Avis 143 CCNE / avis 5 CNPEN, pp. 27 et s. https://www.ccne-ethique.fr/sites/default/files/2023-05/CCNE-CNPEN_GT-PDS_avis_final27032023.pdf ?
  8. Arr. 29 nov. 2019 portant approbation de l’avenant à la convention constitutive du groupement d’intérêt public Institut national des données de santé portant création du gip « Plateforme des données de santé ». ?
  9. CE, référés, 19 juin 2020, n° 440916, inédit ; Cnil, délibération n° 2023-146 du 21 décembre 2023 : autorisation de mettre en œuvre un traitement automatisé de données à caractère personnel ayant pour finalité la constitution d’un entrepôt de données dans le domaine de la santé dénommé ” EMC2 ?
  10. V. sur le « Sommet pour l’action sur l’intelligence artificielle » (EU AI champions initiative) des 06 et 11 févr. 2025 (Paris) : Ch. Perreau, Airbus, BNP Parisbas, Lufthansa, Mistral, Plus de 60 entreprises appellent à un sursaut européen dans l’IA, Les Echos 10 févr. 2025. ?
  11. La CNIL restreint l’accès des organismes complémentaires d’assurance maladie aux données de santé en optique, empêche la transmission d’informations détaillées sur les corrections prescrites et freine la lutte contre la fraude à l’assurance, L’Argus de l’assurance 20 déc. 2024. V. plus largement : https://www.cnil.fr/sites/cnil/files/atoms/files/analyse_juridique_adressee_aux_organismes_de_complementaire_sante.pdf ?

  12. Cette sanction n’a jamais été prescrite par le législateur en droit civil, à tout le moins pas en ces termes. Il reste que c’est pourtant l’économie générale de l’article 9-1 du Code civil. ?
  13. Art. L. 2132-1 csp et arr. du 14 novembre 2024 relatif à la forme et à l’utilisation du carnet de santé. ?

(Article publié in Dalloz actualité, 19 févr. 2025)

Intelligence artificielle et réparation des dommages

Groupe de recherche européen sur la responsabilité civile et l’assurance, Journées lyonnaises, 2021, Bruylant 2022, à paraître

Intelligence artificielle, réparation des dommages et arbitrage[1]. A la question de savoir quels rapports entretiennent « intelligence artificielle » et « réparation des dommages », deux positions extrêmes semblent se dessiner. Les rapports nationaux sont en ce sens.

La première position, conservatrice et prudente, consiste à défendre que peu importants soient les apports de la technologie à notre affaire, il n’est pas de bonne méthode de faire dire le droit en général et plus particulièrement le droit civil de la responsabilité par une intelligence artificielle. Le droit, mieux la justice (qui est un projet plus grand), est une affaire de femmes et d’hommes instruits et rompus à l’exercice qui, au nom du peuple français, départagent les parties à la cause et ramènent la paix sociale. En somme, c’est d’intelligence originelle partant humaine dont il doit être question.

La seconde position, novatrice mais aventureuse, consiste à soutenir que les facilités promises sont telles que l’algorithmisation du droit de la responsabilité à visée réparatrice est un must have ; que ce serait à se demander même pour quelle raison le travail de modélisation scientifique n’est pas encore abouti.

Tous les rapports nationaux renseignent le doute ou l’hésitation relativement à la question qui nous occupe. Cela étant, en Allemagne et en France, il se pourrait qu’on cédât franchement à la tentation tandis qu’en Belgique, en Italie (rapp. p. 1) ou encore en Roumanie, le rubicon ne saurait être résolument franchi à ce jour. Que la technologie ne soit pas au point ou bien que les techniciens ne soient pas d’accord, c’est égal.

Chaque thèse a ses partisans. Et c’est bien naturel. Ceci étant, choisir l’une ou bien l’autre sans procès c’est renoncer d’emblée et aller un peu vite en besogne. Or, celui qui ne doute pas ne peut être certain de rien (loi de Kepler).

Intelligence artificielle, réparation des dommages et doute. Formulée autrement, la question des rapports qu’entretiennent « intelligence artificielle » et « réparation des dommages » invite à se demander si le droit de la responsabilité peut frayer ou non avec la science toute naissante de la liquidation algorithmique des chefs de dommages. Peut-être même s’il le faut.

Ce n’est pas de droit positif dont il s’agit. Ce n’est pas un problème de technique juridique – à tout le moins pas en première intention – qui est ici formulé. Il ne s’agit pas de se demander comment articuler les facilités offertes par la Machine avec les règles de droit processuel. Il ne s’agit pas de se demander quoi faire des résultats proposés par un logiciel relativement au principe substantiel (matriciel) de la réparation intégrale. Il ne s’agit même pas de se demander si l’algorithmisation porterait atteinte à un droit ou liberté fondamentale que la constitution garantit. Les faiseurs de systèmes que nous sommes sauraient trouver un modus operandi. C’est une question plus fondamentale qui est posée dans le cas particulier, une question de philosophie du droit. S’interroger sur les rapports que pourraient entretenir « intelligence artificielle » et « réparation des dommages » ne consiste pas à se demander ce qu’est le droit de la responsabilité civile à l’heure de l’open data et de la data science mais bien plutôt ce que doit être le droit. C’est encore se demander collectivement ce qui est attendu de celles et ceux qui pratiquent le droit et façonnent à demande ses règles. C’est de science algorithmique et d’art juridique dont il est question en fin de compte. Voilà la tension dialectique qui a réunit tous les présents aux journées lyonnaises du Groupe de recherche européen sur la responsabilité civile et l’assurance et qui transparaît à la lecture de tous les rapports nationaux.

Pour résumer et se rassurer un peu, rien que de très ordinaire pour nous autres les juristes et le rapporteur de synthèse auquel il est demandé d’écrire une histoire, un récit d’anticipation.

Science algorithmique, art juridique et récit d’anticipation. Nous ne saurions naturellement procéder in extenso. La tâche serait trop grande. Qu’il nous soit permis de ne poser ici que quelques jalons avant que nous débattions pour qu’à la fin (il faut l’espérer) nous puissions y voir plus clair.

Le récit d’anticipation proposé, d’autres s’y sont attelés bien avant nous. En 1956, un romancier américain décrit un monde dans lequel un système prédictif est capable de désigner des criminels en puissance sur le point de commettre une infraction. Stoppés in extremis dans leur projet respectif, ils sont jugés sur le champ et écroués. Spielberg adaptera cette nouvelle en 2002. Minority report était créé. Il y sera question de prédiction mathématique, de justice algorithmisée et d’erreur judiciaire. C’est que, aussi ingénieux soit le système, il renfermait une faille. Nous y reviendrons. Plus récemment, et ce n’est pas de fiction dont il s’agit, une firme – Cambridge analytica – s’est aventurée à renseigner à l’aide d’un algorithme, alimenté de données personnelles extraites à la volée de comptes Facebook de dizaines de millions d’internautes, les soutiens d’un candidat à la magistrature suprême américaine. Ce faisant, l’équipe de campagne était en mesure de commander des contenus ciblés sur les réseaux sociaux pour orienter les votes.

Que nous apprennent ces deux premières illustrations. Eh bien qu’il y a matière à douter sérieusement qu’une intelligence artificielle puisse gouverner les affaires des hommes.

Preuve s’il en était besoin que les nombres n’ont pas forcément le pouvoir ordonnateur qu’on leur prête depuis Pythagore. Or (c’est ce qui doit retenir l’attention) s’il existe au moins deux façons de faire quelque chose et qu’au moins l’une de ces façons peut entraîner une catastrophe, il se trouvera forcément quelqu’un quelque part pour emprunter cette voie (loi de Murphy).

Pouvoir ordonnateur des nombres, loi de Murphy et principe de réalité. Le risque étant connu, peu important que sa réalisation soit incertaine, nous devrions par voie de conséquence nous garder (à tout le moins en première intention) de prier qu’une pareille intelligence réparât les dommages de quelque nature qu’ils soient. Ceci étant, et relativement à la méthode proposée, doutons méthodiquement soit qu’il s’agisse, après mûre réflexion, de renforcer les résolutions des opposants à l’algorithmisation de la responsabilité civile, soit (et à l’inverse) qu’il s’agisse de soutenir les solutions des zélateurs du droit 2.0.

Car autant le dire tout de suite avec les rapporteurs nationaux, si la question des rapports qu’entretiennent « intelligence artificielle » et « réparation des dommages » se pose c’est que les outils de modélisation scientifique ne sont pas une vue de l’esprit. Les instruments d’aide à la décision médicale ou bien encore à la chirurgie (ex. le diagnostic algorithmique et, plus ambitieux encore le Health data hub[2]) sont le quotidien des professionnels de santé tandis que les outils d’aide à la décision judiciaire font florès. Des juges américains, sur le point d’accorder une libération sous caution, sont ainsi aider par un logiciel qui évalue le risque de défaut de comparution de l’intéressé (Compas)[3]. Tandis que de côté-ci de l’Atlantique des firmes proposent des systèmes d’aide à la décision juridique ou judiciaire supplantant (bien que ce ne soit pas la vocation affichée des legaltech) les quelques expériences de barémisation indicative bien connues des spécialistes de la réparation du dommage corporel.

Nous reviendrons bien entendu sur les tentatives de réparation algorithmique des dommages qu’on ne manquera pas d’évaluer (II). Mais pour commencer, il nous a semblé nécessaire de s’arrêter sur la tentation de la réparation algorithmique des dommages (I).

I.- La tentation de la réparation algorithmique des dommages

La réparation algorithmique des dommages est tentante pour de bonnes raisons qui tiennent plus particulièrement, d’une part, à la faisabilité technique qui est proposée (A) et, d’autre part, aux facilités juridiques qui sont inférées (B).

A.- Faisabilité technique

La faisabilité technique à laquelle on peut songer est à double détente. C’est d’abord une histoire de droit (1) avant d’être ensuite une affaire de nombres (2).

1.- Histoire de droit

Règle de droit, structuration binaire et révélation mathématique. Le droit aspire à l’algorithmisation car la structuration de la règle est binaire et sa révélation mathématique (ou presque).

La structuration de la règle juridique ressemble à s’y méprendre au langage des microprocesseurs des ordinateurs, au code qui est utilisé dans les technologies de l’information et de la communication. La règle est écrite de façon binaire : si/alors, qualification juridique/régime, conditions/effets, principe/exception. Le législateur et l’ingénieur parlent donc le même langage… Enfin c’est ce dont ce dernier est convaincu.

Quant à la révélation de la règle applicable aux faits de l’espèce, elle suppose de suivre une démarche logique, pour ne pas dire mathématique. Car le droit ne saurait être bien dit sans une pensée rationnelle, la formulation discursive des vérités, sans rigueur ni exactitude. En bref, l’hypothèse de la réparation algorithmique des dommages est plutôt familière au juriste. Pour preuve : le droit et ses méthodes d’exploration et de résolution des problèmes (qui sont des algorithmes en définitive) sont un puissant vecteur de correction de la réalité. Une personne est victime du comportement dommageable d’un individu (le donné) ? Juridiquement, cette dernière est titulaire d’un droit subjectif au paiement d’un contingent de dommages et intérêts compensatoires (le construit). Appréhendés en droit, les faits de l’espèce (la réalité) sont en quelque sorte réencodés.

En bref, les juristes sont invariablement des faiseurs de systèmes techniques et d’algorithmiques.

On ne s’étonnera donc pas que le droit et ses artisans aient vocation à être (r)attrapés par la science et ses industriels qui se jouent des nombres et font des affaires.

2.- Affaire de nombres

Digitalisation et données. Les rapports français et belge montrent plus particulièrement combien la croissance du volume de données disponibles sous forme numérique est exponentielle.

Par voie de conséquence, il existe désormais beaucoup de matière pour nourrir un algorithme quelconque, lui permettre de simuler un phénomène, une situation à l’aune des données qui auront été implémentées dans un programme informatique (qui est appelé « code »). Il est à noter au passage une différence notable entre les pays interrogés dans nos journées lyonnaises. Si les juristes italiens et roumains pratiquent autrement moins l’algorithmisation des règles de la réparation des dommages que leurs homologues allemands et français, c’est très précisément parce que la digitalisation des décisions de justice est moins avancée à ce jour. Quant à la Belgique, le rapport national renseigne l’existence d’un obstacle juridique à ladite digitalisation, qui vient tout récemment d’être levé. À terme, il devrait y avoir suffisamment de matière pour alimenter un algorithme. La Belgique se rapprocherait donc de très près de la France.

Il est remarquable qu’en France précisément des millions de données juridiques aient été mises à disposition pour une réutilisation gratuite[4] par le service public de la diffusion du droit en ligne – Legifrance pratique l’open data[5]. Ce n’est pas tout. Depuis quelques semaines à présent, toutes les décisions rendues par la Cour de cassation française sont aussi en open data. Il devrait en être de même au printemps 2022 des décisions des cours d’appel (hors matière pénale)[6]. Même chose du côté du Conseil d’État français.

La tentation de l’algorithmisation est donc grande car c’est tout à fait faisable techniquement, tout particulièrement en France qui se singularise très nettement dans le concert des droits nationaux continentaux interrogés. Mais il y a d’autres raisons qui président à l’algorithmisation sous étude : ce sont les facilités juridiques qui sont proposées par l’intelligence artificielle.

B.- Facilités juridiques

Égalité, intelligibilité et acceptabilité. Au titre des facilités qu’on peut inférer juridiquement parlant des algorithmes à visée réparatoire, on doit pouvoir compter une intelligibilité améliorée des règles applicables à la cause partant une égalité nominale des personnes intéressées et une acceptabilité possiblement renforcées du sort réservé en droit à la victime.

Il faut bien voir que les règles qui gouvernent la réparation des dommages, et plus particulièrement les atteintes à l’intégrité physique, ne sont pas d’un maniement aisé. La monétisation de toute une série de chefs de dommages tant patrimoniaux (futurs) qu’extrapatrimoniaux suppose acquise une compétence technique pointue. Un étalonnage mathématisé présenterait entre autres avantages de prévenir une asymétrie éventuelle d’information en plaçant toutes les personnes sur un pied d’égalité (à tout le moins nominale)[7] à savoir les victimes, leurs conseils, leurs contradicteurs légitimes et leurs juges.

Au fond, et ce strict point de vue, la réparation algorithmique des dommages participe d’une politique publique d’aide à l’accès au droit qui ne dit pas son nom. La notice du décret n° 2020- 356 du 27 mars 2020 Datajust élaborant un référentiel indicatif d’indemnisation des dommages corporels est en ce sens[8].

C’est encore dans le cas particulier l’acceptabilité de la décision qui se joue possiblement C’est que le statut de celui ou celle qui a procédé à l’indemnisation est nécessaire pour conférer son autorité à l’énoncé mais pas suffisant. Toutes les fois que le dommage subi est irréversible, que le retour au statu quo ante est proprement illusoire (et c’est très précisément le cas en droit de la réparation d’un certain nombre de chefs de dommages corporels) on peut inférer de l’algorithmisation de la réparation des dommages une prévention contre le sentiment d’arbitraire que la personne en charge de la liquidation des chefs de préjudice a pu faire naître dans l’esprit de la victime.

Voilà une première série de considérations qui participe de la tentation de la réparation algorithmique des dommages. Puisque selon la loi de Casanova, la meilleure façon d’y résister est d’y succomber, je vous propose de braquer à présent le projecteur sur les tentatives de réparation algorithmique des dommages.

II.- Les tentatives de réparation algorithmique des dommages

Opérateurs privés vs administration publique. Les tentatives de réparation algorithmique des dommages sont relativement nombreuses et plutôt récentes, à tout le moins en France car, une fois encore, et à ce jour, le recours à l’intelligence artificielle est plus anecdotique, réduit (en comparaison avec la France) – un état basal ou élémentaire – dans les autres droits internes sous étude.

Ces tentatives sont des plus intéressantes en ce sens qu’elles ont eu notamment pour objet et/ou effet de parachever un travail polymorphe entamé il y a plusieurs années à présent et accompli tous azimuts qui est fait (pour ne prendre que quelques exemples saillants rappelés par les rapporteurs nationaux) d’articles de doctrine renseignant les pratiques indemnitaires des tribunaux et des cours d’appel, de barèmes plus ou moins officiels, de guides ou vade-mecum, de nomenclatures et de référentiels. Les juristes belges et français les pratiquent volontiers pendant qu’avocats et juges ne manquent pas de rappeler que ces outils d’aide à la décision ne sauraient jamais être contraignants : principe de la réparation intégrale obligerait…

Depuis lors, ce sont positionnées sur le segment de marché de la digitalisation de la justice, de l’algorithmisation de la réparation des dommages, de nouveaux opérateurs – plus ou moins capés à en croire les rapporteurs – privés[9] et publics[10].

Une analyse critique de l’offre de services en termes d’intelligence artificielle ainsi formulée par les legaltechs sera faite d’abord (A). Un essai à visée plus prospective sera proposé ensuite (B).

A.- Analyse critique

Biais de raisonnement. L’analyse critique de l’algorithmisation de la réparation des dommages que nous proposons d’esquisser consiste à identifier quelques biais de raisonnement induits par l’intelligence artificielle et dont il importe qu’on se garde à tout prix. Nous nous sommes demandés en préparant ce rapport si ce n’était pas la crainte d’échouer dans cette entreprise d’évaluation critique et de contrôle systématique qui faisait douter qu’il faille pousser plus loin l’expérience.

Le problème de fond nous semble tenir au fait qu’un esprit mal avisé pourrait se convaincre qu’une suggestion algorithmique dite par une machine serait équipollente à la vérité juridique recherchée par une femme ou un homme de l’art.

L’embêtant dans cette affaire tient plus concrètement d’abord à la performativité du code (1) et à l’opacité de l’algorithme ensuite (2).

1.- Performativité du code

Suggestion algorithmique vs vérité juridique. La réparation algorithmique des dommages a un mérite : elle simplifie la recherche de la vérité, plus encore pour celles et ceux qui ne pratiqueraient la matière qu’occasionnellement ou bien qui seraient tout juste entrés en voie de spécialisation. Seulement voilà : la paroi est mince entre facilitation et supplantation. Il n’est pas assez d’écrire qu’un référentiel d’indemnisation est indicatif, qu’il ne saurait jamais être rangé dans les normes de droit dur. Le savoir algorithmique est performatif (voire impératif pour celui qui le pratiquerait sans prudence) et ce pour plein de raisons (recherche du temps perdu entre autres). Volens nolens, son utilisation finit toujours par être mécanique. Alors, le doute méthodique du juriste, qui est la condition sine qua non pour accéder à la vérité, est chassé par la certitude scientifique apparente de la machine. Pour le dire autrement, le savoir prédictif est normatif. Et il n’y a qu’un pas pour que la vérité censée être dite par personnes instruites et sachantes soit en définitive dite par une machine qui ordonne des 0 et des 1. C’est le delta qui existe si vous voulez entre les mathématiques de l’intelligibilité et les mathématiques que j’ai appelées ailleurs de contrôle[11].

Rien de bien grave nous dira peut-être le rapporteur allemand toutes les fois (à tout le moins) qu’il ne s’agit que de réparer des dommages de masse de faible valeur. Il reste que, dans tous les cas de figure, la suggestion algorithmique est le fruit de l’apprentissage de données tirées du passé. Au mieux, le code informatique peut dire ce qui est mais certainement pas (à tout le moins pas encore) ce qui doit être. L’intelligence artificielle que nous pratiquons (qualifiée de « faible ») n’est pas encore capable de le faire. C’est que cette dernière IA n’est qu’un programme qui n’est pas doté de sens et se concentre uniquement sur la tâche pour laquelle il a été programmé. En bref, les machines ne pensent pas encore par elles-mêmes (ce qu’on appelle le machine learning ou IA « forte »).

Alors, et cela pourrait prêter à sourire, aussi moderne soit ce code informatique là, il est porteur d’une obsolescence intrinsèque qu’on fait mine de ne pas voir. Que la binarité soit un trait caractéristique de la structuration de la règle de droit et que, par voie de conséquence, la modélisation mathématique soit séduisante est une chose. Il reste que dire le droit et rendre la justice impliquent la recherche d’un équilibre entre des intérêts concurrents dont le tiers-juge est le garant (en dernière intention). Droit et justice ne sont pas synonyme. Si la règle juridique aspire à la binarité, sa mise en œuvre se recommande d’un ternaire… En bref, on ne saurait jamais se passer d’un tiers neutre même pas dans une startup nation.

Qu’il soit juridique ou algorithmique, un code se discute. Seulement pour que chacun puisse se voir juridiquement et équitablement attribuer ce qui lui est dû, il importe de lever l’opacité de l’algorithme.

2.- Opacité de l’algorithme

Le code 2.0 doit retenir l’attention de tout un chacun. Aussi puissants soient les calculateurs, et peu important que l’algorithme soit programmé pour apprendre, les machines ne sont encore que le produit de la science humaine, la donnée est encore l’affaire de femmes et d’hommes. Ce n’est pas le moindre des biais méthodologiques. Il a ceci de commun avec celui qu’on vient de décrire qu’il est trompeur.

Biais méthodologiques. Les résultats qui sont renseignés par un système d’information (output) sont toujours corrélés aux données qui ont été collectées puis entrées (input). De quoi parle-t-on ? Eh bien de jugement de valeurs dans tous les sens du terme (juridique et technologique). Or un juge, quel qu’il soit, a une obligation : celle de motiver sa décision (art. 455 du Code de procédure civile). Et ce pour de justes et utiles raisons que nous connaissons bien : prévention de l’arbitraire et condition du contrôle de légalité. Quand on sait la puissance performative de la modélisation mathématique, ce serait commettre une erreur de ne pas rechercher à lever l’opacité algorithmique qui est bien connue des faiseurs de systèmes d’informations.

Clef de voûte. La transparence en la matière est la clef de voute. L’édification mathématique ne saurait valablement prospérer sans que la méthode analytique des décisions sélectionnées aux fins d’apprentissage de l’algorithme n’ait été explicitée, sans que la sélection des décisions de justice voire des transactions n’ait été présentée, sans que la qualité et le nombre des personnes qui ont procédé n’aient été renseignés. Seulement voilà, et ce qui suit n’augure rien de très bon : le code informatique est un secret industriel protégé en tant que tel que les legaltechs, qui sont en concurrence, n’ont aucun intérêt à révéler. Les initiatives publiques doivent donc être impérativement soutenues. L’accessibilité doit être garantie. En bref, Datajust, qui est un référentiel public relatif à l’indemnisation des victimes de dommages corporels, est la voie à suivre. Encore qu’il ne satisfasse pas complètement aux conditions de praticabilité et de démocratisation attendus. Et que, partant, sa performativité soit possiblement trop grande. Possiblement car l’essai n’a pas été encore transformé en raison des doutes que le décret a suscité.

Doutes que nous souhaiterions aborder à présent dans un essai prospectif pour lister quelques conditions qui nous semble devoir être satisfaites pour qu’ils soient levés.

B.- Essai prospectif

À titre de remarque liminaire, il faut dire (qu’on la redoute ou non) que l’algorithmisation de la réparation des dommages ne saurait prospérer sans que, au préalable, de la donnée soit mise à la disposition du public et des opérateurs. Or, open data et big data ne sont pas aussi répandus qu’on veut bien l’imaginer. En France, nous y sommes presque bien que, en l’état, le compte n’y soit pas tout à fait encore[12]. Ailleurs, la donnée est la propriété presque exclusive de firmes privées qui monnayent un accès amélioré aux décisions de justice sélectionnées par elles-mêmes (Belgique) ou bien la donnée ne peut tout bonnement pas être partagée (Italie).

Une fois cette condition remplie, l’algorithme est en mesure de travailler. Pour s’assurer que le travail soit bien fait, il importerait qu’on s’entende sur quelques spécifications techniques et politiques. C’est sur ces dernières que je souhaiterais conclure.

Régulation. En l’état, les systèmes d’information ne sont pas régulés du tout. On se souviendra qu’il aura fallu une exploitation abusive et sans précédent des données personnelles par les Gafam[13] pour qu’on se décide à élaborer un règlement général sur la protection desdites données. Seulement, et sans préjudice des dommages causés aux personnes concernées, il n’est pas ou plus question ici de l’accaparement de données par quelques firmes de marchands. L’affaire est d’un tout autre calibre. C’est d’assistance à la décision juridique ou judiciaire dont il est question. Que la justice ne soit plus tout à fait une fonction régalienne de l’État, admettons. Mais les responsabilistes ne sauraient prêter leur concours sans aucune prévention à l’utilisation de l’intelligence artificielle dans la réparation des dommages. Pour le dire autrement, une gouvernance technique et scientifique nous semble devoir être mise en place. Cette exigence est présente dans les rapports tout particulièrement dans le rapport belge.

Règlementation. Le 21 avril 2021 a été diffusé une proposition de règlement européen établissant des règles harmonisées concernant l’intelligence artificielle[14] dans laquelle les IA sont distinguées selon le risque qu’elles font courir. Et des intelligences artificielles, destinées à suggérer le droit pour faire bref, d’être qualifiées de « systèmes à haut risque »…

En résumé, le code doit être connu de ses utilisateurs, les données primitives exploitées par l’algorithme doivent être indexées, une révision des contenus doit être programmée, des évaluations et crash-test doivent être faits. Et nous sommes loin d’épuiser les conditions qu’il s’agirait qu’on respectât pour bien faire. C’est de « gouvernance des algorithmes » dont il est question au fond[15]. C’est qu’il ne faut jamais perdre de vue la puissance normative de la modélisation mathématico-juridique ainsi que les biais algorithmiques. En bref, la logique mathématique ne saurait jamais être complètement neutre. C’est le sens des théorèmes d’incomplétude formulés par Kurt Gödel (1931).

En conclusion et parce que nous sommes convaincus qu’on ne stoppera pas le mouvement d’algorithmisation de la réparation des dommages, permettez-nous de formuler une question qui transparaît des rapports nationaux : veut-on que du droit soit suggéré par des algorithmes (privés) faiseurs de loi ou bien par un législateur faiseur d’algorithmes (publics) ?


[1] La forme orale de ce rapport a été conservée.

[2] https://www.health-data-hub.fr/

[3] V. not. sur ce sujet, A. Jean, Les algorithmes sont-ils la loi ? Editions de l’observatoire,

[4] Arr. du 24 juin 2014 relatif à la gratuité de la réutilisation des bases de données juridiques de la direction de l’information légale et administrative.

[5] Plateforme ouverte des données publiques françaises https://www.data.gouv.fr. Service public de la diffusion du droit en ligne : https://www.legifrance.gouv.fr/

[6][6] https://www.courdecassation.fr/la-cour-de-cassation/demain/lopen-data-des-decisions-judiciaires

[7] J. Bourdoiseau, Intelligence artificielle, réparation du dommage corporel et assurance, Dalloz IP/IT, 2022 (à paraître).

[8] Expérimentation dont la légalité a été vérifiée par le Conseil d’État français (CE, 10e et 9e ch. réunies, 30 déc. 2021, n° 440376) mais que le Gouvernement a décidé d’abandonner (Ministère de la justice, comm., 13 janv. 2022). Ch. Quézel-Ambrunaz, V. Rivollier et M. Viglino, Le retrait de Datajust ou la fausse défaite des barèmes, D. 2022.467.

[9] Allemagne : Actineo. Belgique : Grille corpus, Repair, Jaumain. France : Case law analytics, Predictice, Juridata analytics. Voy. par ex. J. Horn, Exemple d’utilisation d’une solution IA développée par une legaltech dans des contentieux PI – Utilisation de LitiMark, Dalloz IP/IT 2021.263.

[10] France : Datajust. Italie : legal analytics for italian law.

[11] J. Bourdoiseau, La réparation algorithmique du dommage corporel : binaire ou ternaire ?, Resp civ. et assur. mai 2021, étude 7.

[12] Il est à noter, pour ne prendre que cet exemple, que les juges administratifs français ont accès à la totalité des décisions rendues (quel que soit le degré de juridiction) à l’aide d’un outil qui n’est mis à disposition que pour partie aux justiciables (ce qui interroge), à tout le moins à ce jour (https://www.conseil-etat.fr/arianeweb/#/recherche).

[13] Google, Apple, Facebook (Meta), Amazon, Microsoft. Voy. aussi les géants chinois : BATX (Baidu, Alibaba, Tencent, Xiaomi).

[14] https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX:52021PC0206

[15] Voy. not. L. Huttner et D. Merigoux, Traduire la loi en code grâce au langage de programmation Catala, Dr. fiscal févr. 2021.121. Voy. aussi Autorité de contrôle prudentiel et de résolution, La transformation numérique dans le secteur français de l’assurance, analyses et synthèses n° 132, 2018 ; Institut Montaigne, Algorithmes : contrôle des biais, rapport, mars 2020,

(https://www.institutmontaigne.org/publications/algorithmes-controle-des-biais-svp)

La réparation algorithmique du dommage corporel : binaire ou ternaire ?

L’intelligence artificielle a ses adorateurs. La ferveur qui les anime leur fait dire urbi et orbi que le temps de la justice mathématique est enfin venu, que Leibniz et ses continuateurs avaient raison. En résumé, le droit (qui se résumerait à une collection de règles binaires si/alors) serait algorithmique. Relativement à la réparation du dommage corporel, et par voie de conséquence, la promesse d’une égalité arithmétique de traitement entre les victimes serait faite. Qu’il nous soit permis d’exprimer quelques réserves et de douter (méthodiquement) que la raison mathématique puisse sérieusement gouverner les affaires humaines.

***

Banalité !. –  Le droit de la victime à la réparation de son dommage corporel est constitué de règles éparses et complexes. Non que celles-ci soient compliquées par nature. Simplement, la réalité qu’elles ont vocation à appréhender est des moins simples. C’est que le dommage subi est irréversible, le retour au statu quo ante proprement illusoire. Partant, le paiement de dommages-intérêts compensatoires suppose une articulation fine, le travail d’hommes et de femmes passés maîtres dans l’art juridique, qui doivent nécessairement sacrifier à une méthodologie ou, pour le dire autrement, une façon systématique de procéder. Il y a une bonne raison à cela : le droit (ou pour être plus exact sa structuration) est algorithmique. Sa révélation dans un cas particulier repose sur une démarche à la fois logique et mathématique. Le droit ne saurait être bien dit sans une pensée rationnelle, la formulation discursive des vérités, sans rigueur ni exactitude. En bref, l’hypothèse de la réparation algorithmique du dommage corporel est très familière au juriste, qui est l’alpha et l’omega du travail des gens instruits (Kojève). Cinq années d’études supérieures auront à peine suffi à nos étudiants pour commencer à s’en rendre compte du reste.Sous des atours un tantinet énigmatiques, le sujet a tout bonnement partie liée avec la réalisation méthodique du droit privéNote1. L’affaire semble donc moins étrange qu’il n’y paraît. Encore que, appliqués au sujet, binaire et ternaire sont des mots pour le moins bizarres.

Étrangeté ?. –  Vérification faite, ils sont inconnus de la langue du droit. Le vocabulaire juridique n’en dit rien du tout. Même constat du côté du Dictionnaire de la culture juridique et du Dictionnaire encyclopédique de théorie et de sociologie du droit. Ce qui est pour le moins surprenant car la binarité est un trait caractéristique du droit ou de la science juridique. C’est d’ailleurs pour cette raison que la modélisation mathématique est séduisante. Simplement pour que le droit soit utilement et justement dit, c’est un ternaire qui doit nécessairement être à la manœuvre. Reprenons.

Binarité. –  La règle de droit est écrite pour résoudre un problème (plerumque fit). Quant à son écriture, sa structuration, elle est très souvent à deux détentes : qualification juridique/régime, conditions/effets, principe/exception, etc. Ainsi présenté, le droit ressemble à s’y méprendre au langage des microprocesseurs des ordinateurs, au code qui est utilisé dans les technologies de l’information et de la communication. On ne s’étonnera donc pas que le droit et ses artisans aient été (r) attrapés par la science et ses industriels. C’est une innovation de rupture tout à fait remarquable à laquelle on assiste. Cette innovation-là modifie un marché non pas avec un meilleur produit – c’est le rôle de l’innovation pure – mais en l’ouvrant au plus grand nombre. L’algorithmisation sous étude participe donc de l’accès à la connaissance. De ce point de vue, nous aurions mauvaise grâce de refuser d’emblée de vérifier la pertinence de l’hypothèse de la réparation algorithmique du dommage corporel. Le Conseil constitutionnel n’a-t-il pas érigé l’accessibilité et l’intelligibilité de la loi – par extension du droit – au rang des objectifs de valeur constitutionnelleNote 2 ?

Ternaire. –  Ceci posé, la justice est un projet plus grand que le droit et ses algorithmes. La structuration de la règle est une chose. Sa mise en œuvre en est une autre. Elle implique un équilibre entre des intérêts concurrents dont la balance est le symbole le plus évocateur et le juge le garant. Pour le dire autrement, la justice exige le regard d’une troisième personne, un tiers neutre, qui fera acte d’autorité, avec le souci d’intégrer dans sa pensée la confrontation des intérêts en conflit, afin d’exercer en toute objectivité son pouvoir de juger. Il n’est pas certain du tout qu’une suite de 0 et de 1, qu’un algorithme, puisse juridiquement et équitablement attribuer à chacun ce qui lui est dû. On prête certes aux nombres un pouvoir ordonnateur (Pythagore) à telle enseigne que le monde serait mathématiqueNote 3. Mais, Aristote en personne, qui soutenait que la correction du dommage obéissait à un principe d’égalité arithmétique (justice corrective), finit par considérer pourtant que les nombres n’aidaient pas toujours à y voir plus clairNote 4.C’est très précisément ce qu’il s’agira d’illustrer dans cette étude en montrant, en premier lieu, combien les vertus des mathématiques de l’intelligibilité sont grandes en ce qu’elles sont une promesse d’amélioration de l’existant (1) – c’est à tout le moins ce qu’on veut bien nous dire – pour suggérer, en second lieu, combien la pente qui mène tout droit aux mathématiques de contrôle est inclinéeNote 5 (2).

1.   La réparation algorithmique du dommage corporel et les mathématiques de l’intelligibilité

Vade-mecum. –  La réparation algorithmique du dommage corporel est à l’image de l’évaluation médicalisée de l’atteinte à l’intégrité physique et psychique ou bien encore des directives d’interprétation des contrats, à savoir un vade-mecum, une direction de pensée, un guide-âne. D’aucuns soutiennent que meilleure sera la connaissance de ce qui se pratique, telle que les choses se rencontrent le plus souvent, moins l’appréciation portée dans le cas particulier pourrait souffrir la critique. En somme, les mathématiques participeraient de l’intelligibilité des règles qui gouvernent l’évaluation du dommage et la monétisation des chefs de préjudices subis.

Égalité(s). –  L’étalonnage présenterait un autre avantage en ce sens qu’il serait de nature à prévenir l’asymétrie d’informations en plaçant toutes les personnes intéressées sur un pied d’égalité (à tout le moins nominal). De ce strict point de vue, Datajust ne saurait prêter le flanc à la critique. La notice du décret n° 2020-356 du 27 mars 2020 portant création d’un traitement automatisé de données à caractère personnel est très claire à ce sujet : l’algorithme est destiné à permettre l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels, l’information des parties à l’aide de l’évaluation du montant de l’indemnisation à laquelle les victimes peuvent prétendre ainsi que l’information ou la documentation des juges appelés à statuer sur des demandes d’indemnisation des préjudices corporels. En un mot, c’est de politique publique d’aide à l’accès au droit dont il s’agit en fin de compte.

Accès au droit. –  L’algorithme pourrait volontiers faire office de facilitateur en permettant à toute personne intéressée de connaître la matière. C’est que les nombres qui seront renseignés par la machine pourraient aider tout un chacun à y voir plus clair précisément. Quant à la vocation prédictive du dispositif, elle ne doit donc pas inquiéter, à tout le moins pas en première intention. Il se pourrait même qu’elle participe d’une adhésion renforcée au jugement qui a été prononcé, à la transaction qui a été acceptée. Si l’on s’accorde pour dire que le principe d’équivalence entre la réparation et le dommage est une croyance qui structure la perception des victimes et de leurs proches, il y aurait beaucoup à gagner à renforcer l’acceptabilité du sort qui a été réservé en droit aux intéressés.

Acceptabilité. –  Le droit et ses algorithmes (i.e. ses méthodes d’exploration et de résolution des problèmes) sont un puissant vecteur de correction de la réalité. Une personne est victime du comportement dommageable d’un individu (le donné) ? Juridiquement, cette dernière est titulaire d’un droit subjectif au paiement d’un contingent de dommages et intérêts compensatoires (le construit). Appréhendés en droit, les faits de l’espèce (la réalité) sont en quelque sorte réencodés. L’acceptabilité d’une telle opération par toutes les parties prenantes suppose que des explications soient données, qui sont plus utiles encore lorsqu’il s’agit de procéder à l’évaluation de la réparation de préjudices non économiques ou bien encore à l’évaluation de chefs de préjudices patrimoniaux futurs. Cette dernière évaluation étant inévitablement arbitraire, on ne saurait garantir aux victimes aucune égalité de traitement. Il serait erroné, de notre point de vue, de penser que le statut de celui ou celle qui a procédé au codage suffit à conférer son autorité à l’énoncé. Il n’est pas ou plus suffisant de déclarer publiquement au nom du peuple français laquelle des prétentions en conflit est bien fondée pour panser les plaies de la victime et rétablir la paix (CPC, art. 454). Si on veut bien admettre qu’« une décision de justice ne puise sa rationalité que dans la confrontation des arguments qui l’a fait naître […], alors on conviendra que la connaissance des débats est une condition de l’acceptation de la rationalité de la décision »Note 6. Ceci pour suggérer qu’un référentiel indicatif d’indemnisation des préjudices corporels pourrait participer de l’œuvre de justice et de la transparence qui est appelée de leurs vœux par les justiciables. La symbolique du nouveau palais de justice de Paris, qui est fait de verre et d’acier, est caractéristique. On peut en effet inférer de la connaissance (certes hypothétique) par tout un chacun des dommages et intérêts qui pourraient être alloués par comparaison avec un cas approchant un effort plus créatif encore du juge pour garantir l’autorité de sa décision : faire comprendre, non pas faire croire, que les dommages et intérêts alloués sont ceux qui, toute chose égale par ailleurs, attestent l’observance du principe de l’équivalence entre la réparation et le dommage. Est-il si iconoclaste de défendre que l’algorithme qui a été employé pour rétablir aussi exactement que possible l’équilibre détruit par le dommage fait figure en quelque sorte de signifiant ? Ne pourrait-on pas soutenir que, relativement au chiffrage de toute une série de chefs de préjudices (qui est un exercice qui tient de la gageure), la réparation algorithmique garantit aux adversaires en conflit qu’ils ont été séparés avec le souci d’une égalité de traitement ? Mieux : que ces derniers n’ont pas été départagés à l’aide d’un ersatz de barémisation (ou pire en application d’un critère « aquadigital » (Quézel-Ambrunaz) ? Que leur conseil, leur contradicteur légitime et leur juge (ternaire) ont été en mesure de parler un même langage (binaire) ?Mais voilà qu’une nouvelle question se pose à la manière d’une matriochka : la réparation algorithmique du dommage corporel ne renfermerait-elle pas un pouvoir heuristique qui ne dit pas son nom ?

Heuristique. –  C’est qu’il faut être passé grand maître dans l’art de la réparation du dommage corporel pour être en mesure de transformer en monnaie aussi utilement que justement les chefs de préjudices corporels. Ce n’est pas une compétence technique dont sont nécessairement doués tous les avocats ni tous les juges tandis que les premiers sont pourtant amenés à porter assistance et conseil en toutes circonstances pendant que les autres sont priés de dire le droit quoi qu’il en soitNote 7. Il n’est pas anodin d’avoir attribué aux tribunaux judiciaires compétence exclusive pour connaître des actions en réparation d’un dommage corporel (COJ, art. L. 211-4-1)…En somme, et c’est le sens de cette première série de considérations, l’élaboration d’un référentiel indicatif d’indemnisation des chefs de préjudices gagnerait à être défendue. C’est une proposition qui a été faite par les rédacteurs de l’avant-projet de réforme du droit de la responsabilité civile à laquelle s’est rangée depuis la ChancellerieNote 8. Datajust en est la manifestation éclatante. Ceci étant, la concorde est loin d’être acquise à ce sujet. Dans une récente proposition de loiNote 9, des sénateurs ont supprimé toute mention à l’étalonnage de la monétisation des chefs de préjudices renseignés. Pour leur part, de nombreux auteurs (théoriciens et praticiens) refusent de croire au miracle de la réparation algorithmique et nous exhortent à ne pas céder à la tentation pour nous délivrer du mal. Ce serait un tort de ne pas les entendre. Car les mathématiques de l’intelligibilité, qui donnent le sentiment à tout un chacun de maîtriser l’évaluation du préjudice corporel sont une chose. Mais nous savons trop que toute chose a son revers. Et, dans le cas particulier, il n’y a qu’un pas entre ces mathématiques-là et les mathématiques qui, sous couvert d’ordonner pour informer, pourraient participer d’un regrettable contrôleNote 10.

2.   La réparation algorithmique du dommage corporel ou les mathématiques de contrôle

Performativité. –  La réparation algorithmique du dommage corporel, qui a le mérite de simplifier la recherche de la vérité, est une tentation à laquelle on peut volontiers succomber. Le chiffrement de la réalité que le droit a participé à façonner est un facilitateur, particulièrement pour les généralistes qui seraient amenés à pratiquer la matière occasionnellement ou bien pour celles et ceux qui seraient entrés en voie de spécialisation. Seulement voilà, la paroi est mince entre faciliter et supplanter. Il n’est pas assez d’écrire qu’un référentiel d’indemnisation des préjudices corporels est indicatif, qu’il ne serait qu’un vade-mecum. Le savoir algorithmique est performatif (voire impératif pour celui qui le pratiquerait sans prudence). Volens nolens, son utilisation finit toujours (de proche en proche) par être mécanique. Le doute méthodique du juriste, qui est la condition sine qua non d’accès à la vérité, est chassé par la certitude scientifique de la machine. « Les héritiers de Pythagore ont en commun de postuler l’existence dans le monde d’une légalité de type numérique, qui se donnerait à voir aussi bien dans le domaine de la cosmologie que dans ceux de la théologie, de la musique, de l’éthique ou du droit »Note 11. Pour dire les choses autrement, le savoir prédictif est normatif.

Normativité. –  Les pôles émetteurs du droit sont à l’image d’un iceberg. Le gros de l’affaire se trouve sous la ligne de flottaison. Il y a les grandes sources du droit qui se donnent facilement à contempler (loi, règlement, jurisprudence). Et puis les petites sources du droit qui ont une égale vocation à influencer le comportement des acteurs juridiques mais qui attirent moins l’attentionNote 12. C’est le cas des documents de portée générale émanant d’une autorité publique tels que les circulaires, instructions, recommandations, notes, présentations ou interprétations du droit positifNote 13. Il s’agirait désormais d’ajouter à cette longue liste les livres blancs (sur l’indemnisation du dommage corporel notamment), les nomenclatures et, last but not least, les algorithmesNote 14. Les praticiens le savent parfaitement. L’expérience de l’évaluation barémisée du dommage subi par la victime prouve trop. Les experts médicaux se départissant mal des gradations de l’atteinte renseignées dans leurs livres de travail (ex. barème du concours médical) le juriste expert pourrait ne pas faire bien mieux à l’heure de monétiser les chefs de préjudices objectivés. En bref, la barémisation, à l’image des formules de convention qui sont du prêt à contracter, éloigne possiblement le juriste de la personnalisation nécessaire des dommages et intérêts compensatoires, du sur-mesure qu’il est pourtant prié de plaider ou bien de négocier. L’aide opportune à la décision pourrait très rapidement prendre les traits d’une assistance fâcheuse à la décision, une décision sous contrôle en quelque sorte. Il n’y a qu’un pas pour que la vérité censée être dite par des hommes et femmes instruits et sachants soit en définitive dite par une machine qui ordonne des 0 et des 1. Et il y a plus fâcheux. L’ère des machines qui réfléchiraient par elles-mêmes n’est pas encore venue. En bref, l’implémentation de la donnée est toujours affaire d’hommes et de femmesNote 15.

Implémentation. –  Il faut très clairement avoir à l’esprit que les informations qui sont renseignées par un système d’information quel qu’il soit (output) sont corrélées aux données qui sont entrées (input) – c’est à tout le moins ce qu’il faut espérer sans quoi il y aurait matière à s’inquiéter plus sérieusement encore. C’est là que réside le biais méthodologique et le risque que représente la réparation algorithmique du dommage corporel. Il importe de toujours rechercher qui a la responsabilité de rentrer la donnée et aux termes de quel protocole. Ce serait commettre une grave erreur de ne pas s’en préoccuper. Car, la puissance performative de ces modèles mathématiques (qui ne sont jamais neutres) est telle qu’elle pourrait pousser ses utilisateurs, à leur corps défendant le plus souvent, au conservatismeNote 16. Non seulement la pertinence de la nomenclature des chefs de préjudices pourrait ne pas être réinterrogée. Mais le quantum des dommages-intérêts statistiquement accordés dans un cas de figure pourrait ne pas être corrigé non plus (à la hausse comme à la baisse du reste).

En conclusion , à la question de savoir si la réparation algorithmique du dommage corporel est de nature à faciliter le travail des sachants ou bien à les supplanter, permettez-moi de douter franchement que la raison mathématique puisse sérieusement gouverner les affaires humaines. C’est que le droit est l’art de concilier deux impératifs antagonistes : la sécurité (pour permettre une prévisibilité suffisante de la solution) et la souplesse (pour permettre son adaptation à l’évolution sociale). Par nature, les normes juridiques allient concepts durs et concepts mous (les standards), lesquels donnent une grande et nécessaire latitude aux juristes et rendent illusoire la mathématisation du droit et, plus particulièrement, la réparation algorithmique du dommage corporel.

Note 1 H. Motulsky, Principes d’une réalisation méthodique du droit privé. La théorie des éléments générateurs des droits subjectifs, préf. P. Roubier : rééd. Dalloz, 2002, p. 47 et s.

Note 2 Cons. const., 16 déc. 1999, n° 99-421 DC, cons. 13.

Note 3 V. sur ce point, A. Supiot, La gouvernance par les nombres : Fayard, 2015, p. 104 et s.

Note 4 V. particulièrement ce qui est écrit dans Éthique à Nicomaque sur la justice de réciprocité proportionnelle – préfiguration de notre justice sociale.

Note 5 Étude présentée dans le cadre du webinaire « État des lieux critiques des outils d’évaluation des préjudices consécutifs à un dommage corporel » (Ch. Quézel-Ambrunaz (dir.) : université de Savoie, déc. 2020).

Note 6 D. Rousseau, Une opinion dissidente en faveur des opinions dissidentes : Cah. Cons. const., n° 8, 2000, p.113. – V. P. Drai, Le délibéré et l’imagination du juge, Mél. R. Perrot : Dalloz, 1996, p. 107, spéc. 118 : « [le juge] ne doit plus se considérer comme satisfait s’il a pu motiver sa décision de façon acceptable. Il lui faut se surpasser et rechercher si cette décision sera tenue pour juste ou, du moins, raisonnable et, en plus, acceptable pour les parties ».

Note 7 V. également B. Mornet, Le référentiel indicatif d’indemnisation du dommage corporel des cours d’appel in Des spécificités de l’indemnisation du dommage corporel : Bruylant, 2017, p. 243.

Note 8 Projet de réforme, 13 mars 2017, art. 1271.

Note 9 Prop.de loi n° 678, 29 juill. 2020.

Note 10 En ce sens, Ph. Baumard, La compromission numérique, nouvelle incrimination principielle ? in Vers de nouvelles humanités, t. 59 :

APD, 2017, p. 237, spéc. p. 241.

Note 11 A. Supiot, La gouvernance par les nombres : Fayard, 2015, p. 106.

Note 12 S. Gerry-Vernière, Les petites sources du droit. À propos des sources étatiques non contraignantes, préf. N. Molfessis : Economica, 2012.

Note 13 À noter que ces documents peuvent être déférés au juge de l’excès de pouvoir lorsqu’ils sont susceptibles d’avoir des effets notables sur les droits ou la situation d’autres personnes que les agents chargés, le cas échéant, de les mettre en œuvre : CE, 12 juin 2020, n° 418142 :

JurisData n° 2020-007983 ; RD adm. 2020, comm. 39.

Note 14 V. également J.-B. Prévost, Penser la blessure. Un éclairage philosophique sur la réparation du dommage corporel, préf. Ph. Brun, LGDJ, 2018, p. 138 « normativité seconde ».

Note 15 Pour aller plus loin, S. Mérabet, Vers un droit de l’intelligence artificielle, préf. H. Barbier, vol. 197 : Dalloz, 2020, spéc. p. 191 et s.

Note 16 V. not. en ce sens, Les enjeux de la justice prédictive : JCP G 2017, doctr. 31. – Également en ce sens, J.-M. Sauvé, La justice prédictive (introduction) : Dalloz, 2018, p. 9.

N.B. Article publié à Resp. civ. et assur. mai 2021, étude 7.

Actualité : L’intelligence artificielle, la responsabilité civile et la réparation des dommages (projet de règlement)

Le Groupe de recherche européen sur la responsabilité civile et l’assurance en Europe, qui regroupe de nombreux responsabilistes (universitaires, avocats et magistrats), s’est réuni à la Faculté de droit de l’Université Lyon3 pour son séminaire annuel (oct. 21). Au programme des journées lyonnaises : “La responsabilité civile et l’intelligence artificielle” en général et plus particulièrement “L’intelligence artificielle et la réparation des dommages”. Dans l’attente d’un prolongement éditorial des travaux collectifs, voici quelques considérations analytiques sur les droits français et étrangers interrogés (droits allemand, belge, italien, roumain – espagnol à venir) ainsi que quelques autres développements à visée prospective. J.B.

1.- Intelligence artificielle, réparation des dommages et arbitrage. A la question de savoir quels rapports entretiennent « intelligence artificielle » et « réparation des dommages », deux positions extrêmes semblent se dessiner. Les rapports nationaux sont en ce sens.

La première position, conservatrice et prudente, consiste à défendre que peu importants soient les apports de la technologie à notre affaire, il n’est pas de bonne méthode de faire dire le droit en général et plus particulièrement le droit civil de la responsabilité par une intelligence artificielle. Le droit, mieux la justice (qui est un projet plus grand), est une affaire de femmes et d’hommes instruits, rompus à l’exercice qui, au nom du peuple français, départagent les parties à la cause et ramènent la paix sociale. En somme, c’est d’intelligence originelle partant humaine dont il doit être question.

La seconde position, novatrice mais aventureuse, consiste à soutenir que les facilités promises sont telles que l’algorithmisation du droit de la responsabilité à visée réparatrice est un must have ; que ce serait à se demander même pour quelle raison le travail de modélisation scientifique n’est pas encore abouti.

Tous les rapports nationaux renseignent le doute ou l’hésitation relativement à la question qui nous occupe. Cela étant, en Allemagne et en France, il se pourrait qu’on cédât franchement à la tentation tandis qu’en Belgique, en Italie ou encore en Roumanie, le rubicon ne saurait être résolument franchi à ce jour. Que la technologie ne soit pas au point ou bien que les techniciens ne soient pas d’accord, c’est égal.

Chaque thèse à ses partisans. Et c’est bien naturel. Ceci étant, choisir l’une ou bien l’autre sans procès c’est renoncer d’emblée et aller un peu vite en besogne. Or, celui qui ne doute pas ne peut être certain de rien (loi de Kepler).

2.- Intelligence artificielle, réparation des dommages et doute. Formulée autrement, la question des rapports qu’entretiennent « intelligence artificielle » et « réparation des dommages » invite à se demander si le droit de la responsabilité peut frayer ou non avec la science toute naissante de la liquidation algorithmique des chefs de dommages. Peut-être même s’il le faut.

Ce n’est pas de droit positif dont il s’agit. Ce n’est pas un problème de technique juridique – à tout le moins pas en première intention – qui est ici formulé. Il ne s’agit pas de se demander comment articuler les facilités offertes par la Machine avec les règles de droit processuel. Il ne s’agit pas de se demander quoi faire des résultats proposés par un logiciel relativement au principe substantiel (matriciel) de la réparation intégrale. Il ne s’agit même pas de se demander si l’algorithmisation porterait atteinte à un droit ou liberté fondamentale que la constitution garantit. Les faiseurs de systèmes que nous sommes sauraient trouver un modus operandi. Il me semble que c’est une question plus fondamentale qui est posée dans le cas particulier, une question de philosophie du droit. S’interroger sur les rapports que pourraient entretenir « intelligence artificielle » et « réparation des dommages » ne consiste pas à se demander ce qu’est le droit de la responsabilité civile à l’heure de l’open data mais bien plutôt ce que doit être le droit. C’est encore se demander collectivement ce qui est attendu de celles et ceux qui pratiquent le droit et façonnent à demande ses règles. C’est de science algorithmique et d’art juridique dont il est question en fin de compte. Voilà la tension dialectique qui nous réunit au fond ce matin. Il me semble l’avoir perçue à la lecture de chacun des rapports nationaux.

Pour résumé et se rassurer un peu, rien que de très ordinaire pour nous autres les juristes. Il est demandé d’écrire une histoire, un récit d’anticipation.

3.- Science algorithmique, art juridique et récit d’anticipation. Je ne saurais naturellement procéder in extenso dans ce papier (si tant est que j’en sois capable). Aussi, permettez-moi de me limiter à poser quelques jalons avant que nous ne débattions et qu’à la fin (il faut l’espérer) nous puissions y voir plus clair.

Le récit d’anticipation que je m’apprête à vous faire, d’autres s’y sont attelés bien avant moi. En 1956, un romancier américain décrit un monde dans lequel un système prédictif est capable de désigner des criminels en puissance sur le point de commettre une infraction. Stoppés in extremis dans leur projet respectif, ils sont jugés sur le champ et écroués. Spielberg adaptera cette nouvelle en 2002. Minority report était créé. Il y sera question de prédiction mathématique, de justice algorithmisée et d’erreur judiciaire. C’est que, aussi ingénieux soit le système, il renfermait une faille. Nous y reviendrons. Plus récemment, et ce n’est pas de fiction dont il s’agit, une firme – Cambridge analytica – s’est aventurée à renseigner à l’aide d’un algorithme, alimenté de données personnelles extraites à la volée de comptes Facebook de dizaines de millions d’internautes, les soutiens d’un candidat à la magistrature suprême américaine. Ce faisant, l’équipe de campagne était en mesure de commander des contenus ciblés sur les réseaux sociaux pour orienter les votes.

Que nous apprennent ces deux premières illustrations. Eh bien qu’il y a matière à douter sérieusement qu’une intelligence artificielle puisse gouverner les affaires des hommes. Entendons-nous bien : il ne s’agit pas d’écarter l’hypothèse de travail d’un revers de main mais de s’interroger méthodiquement sur ses vices et vertus.

Preuve s’il en était besoin que les nombres n’ont pas forcément le pouvoir ordonnateur qu’on leur prête depuis Pythagore. Or (c’est ce qui doit retenir l’attention) s’il existe au moins deux façons de faire quelque chose et qu’au moins l’une de ces façons peut entraîner une catastrophe, il se trouvera forcément quelqu’un quelque part pour emprunter cette voie (loi de Murphy).

4.- Pouvoir ordonnateur des nombres, loi de Murphy et principe de réalité. Le risque étant connu, peu important que sa réalisation soit incertaine, nous devrions par voie de conséquence nous garder (à tout le moins en première intention) de prier qu’une pareille intelligence réparât les dommages de quelque nature qu’ils soient. Ceci étant, et relativement à la méthode proposée, doutons méthodiquement (loi de Descartes) soit qu’il s’agisse, après mûre réflexion, de renforcer les résolutions des opposants à l’algorithmisation de la responsabilité civile, soit (et à l’inverse) qu’il s’agisse de soutenir les solutions des zélateurs du droit 2.0.

Car autant le dire tout de suite avec les rapporteurs nationaux, si la question des rapports qu’entretiennent « intelligence artificielle » et « réparation des dommages » se pose c’est que les outils de modélisation scientifique ne sont pas une vue de l’esprit. Les instruments d’aide à la décision médicale ou bien encore à la chirurgie (ex. le diagnostic algorithmique et, plus ambitieux encore le Health data hub[2]) sont le quotidien des professionnels de santé tandis que les outils d’aide à la décision judiciaire font florès. Des juges américains, sur le point d’accorder une libération sous caution, sont ainsi aider par un logiciel qui évalue le risque de défaut de comparution de l’intéressé (Compas). Tandis que de côté-ci de l’Atlantique des firmes proposent des systèmes d’aide à la décision juridique ou judiciaire supplantant (bien que ce ne soit pas la vocation affichée des legaltech) les quelques expériences de barémisation indicative bien connus des spécialistes de la réparation du dommage corporel.

Nous reviendrons bien entendu sur les tentatives de réparation algorithmique des dommages qu’on ne manquera pas d’évaluer (II). Mais pour commencer, il m’a semblé nécessaire que nous nous arrêtions sur la tentation de la réparation algorithmique des dommages (I).

I.- La tentation de la réparation algorithmique des dommages

La réparation algorithmique des dommages est tentante pour de bonnes raisons qui tiennent plus particulièrement, d’une part, à la faisabilité technique qui est proposée (A) et, d’autre part, aux facilités juridiques qui sont inférées (B).

A.- Faisabilité technique

La faisabilité technique à laquelle on peut songer est à double détente. C’est d’abord une histoire de droit (1) avant d’être ensuite une affaire de nombres (2).

1.- Histoire de droit

5.- Règle de droit, structuration binaire et révélation mathématique. Le droit aspire à l’algorithmisation car la structuration de la règle est binaire et sa révélation mathématique (ou presque).

La structuration de la règle juridique ressemble à s’y méprendre au langage des microprocesseurs des ordinateurs, au code qui est utilisé dans les technologies de l’information et de la communication. La règle est écrite de façon binaire : si/alors, qualification juridique/régime, conditions/effets, principe/exception. Le législateur et l’ingénieur parle donc le même langage…enfin c’est ce dont ces derniers sont convaincus.

Quant à la révélation de la règle applicable aux faits de l’espèce, elle suppose de suivre une démarche logique, pour ne pas dire mathématique. Car le droit ne saurait être bien dit sans une pensée rationnelle, la formulation discursive des vérités, sans rigueur ni exactitude. En bref, l’hypothèse de la réparation algorithmique des dommages est plutôt familière au juriste. Pour preuve : le droit et ses méthodes d’exploration et de résolution des problèmes (qui sont des algorithmes en définitive) sont un puissant vecteur de correction de la réalité. Une personne est victime du comportement dommageable d’un individu (le donné) ? Juridiquement, cette dernière est titulaire d’un droit subjectif au paiement d’un contingent de dommages et intérêts compensatoires (le construit). Appréhendés en droit, les faits de l’espèce (la réalité) sont en quelque sorte ré-encodés.

En bref, les juristes sont invariablement des faiseurs de systèmes techniques et d’algorithmiques.

On ne s’étonnera donc pas que le droit et ses artisans aient vocation à être (r)attrapés par la science et ses industriels qui se jouent des nombres et font des affaires.

2.- Affaire de nombres

6.- Digitalisation et données. Les rapports français et belge montrent plus particulièrement combien la croissance du volume de données disponibles sous forme numérique est exponentielle.

Par voie de conséquence, il existe désormais beaucoup de matière pour nourrir un algorithme quelconque, lui permettre de simuler un phénomène, une situation à l’aune des données qui auront été implémentées dans un programme informatique (qui est appelé « code »). Il est à noter au passage une différence notable entre les pays interrogés dans nos journées lyonnaises. Si les juristes italiens et roumains pratiquent autrement moins l’algorithmisation des règles de la réparation des dommages que leurs homologues allemands, et français, c’est très précisément parce que la digitalisation des décisions de justice est moins avancée à ce jour.

Il est remarquable qu’en France des millions de données juridiques aient été mises à disposition pour une réutilisation gratuite[3] par le service public de la diffusion du droit en ligne – Legifrance pratique l’open data. Ce n’est pas tout. Depuis quelques semaines à présent, toutes les décisions rendues par la Cour de cassation française sont aussi en open data. Il devrait en être de même au printemps 2022 des décisions des cours d’appel (hors matière pénale)[4]. Même chose du côté du Conseil d’État français. Quant à la digitalisation des décisions judiciaires rendues par les juridictions belges, le cadre normatif a été inventé par le législateur constitutionnel – l’obstacle juridique est donc levé. Par comparaison, la Roumanie n’est encore qu’au stade de la consultation.

La tentation de l’algorithmisation est donc grande car c’est tout à fait faisable techniquement, tout particulièrement en France qui se singularise très nettement dans le concert des droits nationaux continentaux interrogés. Mais il y a d’autres raisons qui président à l’algorithmisation sous étude : ce sont les facilités juridiques qui sont proposées par l’intelligence artificielle.

B.- Facilités juridiques

7.- Egalite, intelligibilité et acceptabilité. Au titre des facilités qu’on peut inférer juridiquement parlant des algorithmes à visée réparatoire, on doit pouvoir compter une intelligibilité améliorée des règles applicables à la cause partant une égalité nominale des personnes intéressées et une acceptabilité possiblement renforcées du sort réservé en droit à la victime.

Il faut bien voir que les règles qui gouvernent la réparation des dommages, et plus particulièrement les atteintes à l’intégrité physique, ne sont pas d’un maniement aisé. La monétisation de toute une série de chefs de dommages tant patrimoniaux (futurs) qu’extrapatrimoniaux suppose acquise une compétence technique pointue. Un étalonnage mathématisé présenterait entre autres avantages de prévenir une asymétrie éventuelle d’information en plaçant toutes les personnes sur un pied d’égalité (à tout le moins nominale) à savoir les victimes, leurs conseils, leurs contradicteurs légitimes et leurs juges.

Au fond, et ce strict point de vue, la réparation algorithmique des dommages participe d’une politique publique d’aide à l’accès au droit qui ne dit pas son nom. La notice du décret n° 2020- 356 du 27 mars 2020 Datajust élaborant un référentiel indicatif d’indemnisation des dommages corporels est en ce sens.

C’est encore dans le cas particulier l’acceptabilité de la décision qui se joue possiblement C’est que le statut de celui ou celle qui a procédé à l’indemnisation est nécessaire pour conférer son autorité à l’énoncé mais pas suffisant. Toutes les fois que le dommage subi est irréversible, que le retour au statu quo ante est proprement illusoire (et c’est très précisément le cas en droit de la réparation d’un certain nombre de chefs de dommages corporels) on peut inférer de l’algorithmisation de la réparation des dommages une prévention contre le sentiment d’arbitraire que la personne en charge de la liquidation des chefs de préjudice a pu faire naître dans l’esprit de la victime.

Voilà une première série de considérations qui participe de la tentation de la réparation algorithmique des dommages. Puisque selon la loi de Casanova, la meilleure façon d’y résister est d’y succomber, je vous propose de braquer à présent le projecteur sur les tentatives de réparation algorithmique des dommages.

2.- Les tentatives de réparation algorithmique des dommages

8.- Opérateurs privés vs administration publique. Les tentatives de réparation algorithmique des dommages sont relativement nombreuses et plutôt récentes, à tout le moins en France car, une fois encore, et à ce jour, le recours à l’intelligence artificielle est plus anecdotique, réduit (en comparaison avec la France) – un état basal ou élémentaire – dans les autres droits internes sous étude.

Ces tentatives sont des plus intéressantes en ce sens qu’elles ont eu notamment pour objet et/ou effet de parachever un travail polymorphe entamé il y a plusieurs années à présent et accompli tous azimuts qui est fait (pour ne prendre que quelques exemples saillants rappelés par les rapporteurs nationaux) d’articles de doctrine renseignant les pratiques indemnitaires des tribunaux et des cours d’appel, de barèmes plus ou moins officiels, de guides ou vade-mecum, de nomenclatures et de référentiels, etc. Les juristes belges et français les pratiquent volontiers pendant qu’avocats et juges ne manquent pas de rappeler que ces outils d’aide à la décision ne sauraient jamais être contraignants : principe de la réparation intégrale obligerait…

Depuis lors, se sont positionnées sur le segment de marché de la digitalisation de la justice, de l’algorithmisation de la réparation des dommages, de nouveaux opérateurs – plus ou moins capés à en croire les rapporteurs – privés (not. Allemagne : Actineo / Belgique : Grille corpus, Repair, Jaumain / France : Case law analytics, Predictice, Juridata analytics) et public (France : Datajust / Italie : legal analytics for italian law).

Une analyse critique de l’offre de services en termes d’intelligence artificielle ainsi formulées par les legaltech sera faite d’abord (A). Un essai à visée plus prospective sera proposé ensuite (B).

A.- Analyse critique

9.- Biais de raisonnement. L’analyse critique de l’algorithmisation de la réparation des dommages que je vous propose d’esquisser (en portant la voix des rapporteurs nationaux) consiste à identifier quelques biais de raisonnement induits par l’intelligence artificielle et dont il importe qu’on se garde à tout prix. Je me suis demandé en préparant ce rapport de synthèse si ce n’était pas la crainte d’échouer dans cette entreprise d’évaluation critique et de contrôle systématique qui faisait douter qu’il faille pousser plus loin l’expérience.

Le problème de fond me semble tenir au fait qu’un esprit mal avisé pourrait se convaincre qu’une suggestion algorithmique dite par une machine serait équipollente à la vérité juridique recherchée par un homme ou une femme de l’art.

L’embêtant dans cette affaire tient plus concrètement d’abord à la performativité du code (1) et à l’opacité de l’algorithme (2).

1.- Performativité du code

10.- Suggestion algorithmique vs vérité juridique. La réparation algorithmique des dommages a un mérite : elle simplifie la recherche de la vérité, plus encore pour celles et ceux qui ne pratiqueraient la matière qu’occasionnellement ou bien qui seraient tout juste entrés en voie de spécialisation. Seulement voilà : la paroi est mince entre facilitation et supplantation. Il n’est pas assez d’écrire qu’un référentiel d’indemnisation est indicatif, qu’il ne serait jamais être rangé dans les normes de droit dur. Le savoir algorithmique est performatif (voire impératif pour celui qui le pratiquerait sans prudence) et ce pour plein de raisons (recherche du temps perdu not.). Volens nolens, son utilisation finit toujours (de proche en proche) par être mécanique. Alors, le doute méthodique du juriste, qui est la condition sine qua non pour accéder à la vérité, est chassé par la certitude scientifique apparente de la machine. Pour le dire autrement, le savoir prédictif est normatif. Et il n’y a qu’un pas pour que la vérité censée être dite par des femmes et des hommes instruits et sachants soit en définitive dite par une machine qui ordonne des 0 et des 1. C’est le delta qui existe si vous voulez entre les mathématiques de l’intelligibilité et les mathématiques que j’ai appelées ailleurs de contrôle (v. art. JB in Responsabilité et assurance, LexisNexis, 2021.)

11.- Rien de bien grave nous dira peut-être le rapporteur allemand toutes les fois (à tout le moins) qu’il ne s’agit que de réparer des dommages de masse de faible valeur, l’automatisation est pertinente (v. par ex. l’Estonie qui pourrait avoir initié le juge-robot pour les petites affaires de – 5.000 euros). Il reste que, dans tous les cas de figure, la suggestion algorithmique est le fruit de l’apprentissage de données tirées du passé. Au mieux, le code informatique peut dire ce qui est mais certainement pas (à tout le moins pas encore) ce qui doit être. C’est que l’intelligence artificielle que nous pratiquons (qu’il est d’usage de qualifiée de faible) n’est pas encore capable de le faire. Alors, et cela pourrait prêter à sourire, aussi moderne soit ce code informatique là, il est porteur d’une obsolescence intrinsèque qu’on fait mine de ne pas voir. Que la binarité soit un trait caractéristique de la structuration de la règle de droit et que, par voie de conséquence, la modélisation mathématique soit séduisante est une chose. Il reste que dire le droit et rendre la justice impliquent la recherche d’un équilibre entre des intérêts concurrents dont le tiers-juge est le garant (en dernière intention). Droit et justice ne sont pas synonyme. Si la règle juridique aspire à la binarité, sa mise en œuvre se recommande d’un ternaire…En bref, on ne saurait jamais se passer d’un tiers neutre même pas dans une start’up nation.

Qu’il soit juridique ou algorithmique, un code se discute. Seulement pour que chacun puisse se voir juridiquement et équitablement attribuer ce qui lui est dû, il importe de lever l’opacité de l’algorithme.

2.- Opacité de l’algorithme

12.- Le code 2.0 doit retenir l’attention de tout un chacun. Aussi puissants soient les calculateurs, et peu important que l’algorithme soit programmé pour apprendre, les machines ne sont encore que le produit de la science humaine, la donnée est encore l’affaire de femmes et d’hommes. Ce n’est pas le moindre des biais méthodologiques. Il a ceci de commun avec celui qu’on vient de décrire qu’il est trompeur.

13.- Biais méthodologiques. Les résultats qui sont renseignés par un système d’information (output) sont toujours corrélés aux données qui ont été collectées puis entrées (input). De quoi parle-t-on. Eh bien de jugement de valeurs dans tous les sens du terme (juridique et technologique). Or un juge quel qu’il soit a une obligation : celle de motiver sa décision (art. 455 cpc). Et ce pour de justes et utiles raisons que nous connaissons bien : prévention de l’arbitraire et condition du contrôle de légalité. Quand on sait la puissance performative de la modélisation mathématique, ce serait commettre une erreur de ne pas rechercher à lever l’opacité algorithmique qui est bien connue des faiseurs de systèmes d’informations.

14.- Clef de voûte. La transparence en la matière est la clef de voute. L’édification mathématique ne saurait valablement prospérer sans que la méthode analytique des décisions sélectionnées aux fins d’apprentissage de l’algorithme n’ait été explicitée, sans que la sélection des décisions de justice voire des transactions n’ait été présentée, sans que la qualité et le nombre des personnes qui ont procédé n’aient été renseignés. Seulement voilà, et ce que je veux vous dire n’augure rien de très bon : le code informatique est un secret industriel protégé en tant que tel que les legaltech, qui sont en concurrence, n’ont aucun intérêt à révéler. Les initiatives publiques doivent donc être impérativement soutenues. L’accessibilité doit être garantie. En bref, Datajust, qui est un référentiel public relatif à l’indemnisation des victimes de dommages corporels, est la voie à suivre. Encore qu’il ne satisfasse pas complètement aux conditions de praticabilité et de démocratisation attendus. Et que, partant, sa performativité soit possiblement trop grande. Possiblement car l’essai n’a pas été encore transformée en raison des doutes que le décret a suscité.

Doutes que je souhaiterais aborder à présent dans un essai prospectif pour lister quelques conditions qui me semble devoir être satisfaites pour qu’ils soient levés.

B.- Essai prospectif

15.- Algorithmisation et open data. À titre de remarque liminaire, il faut dire (qu’on la redoute ou non) que l’algorithmisation de la réparation des dommages ne sauraient prospérer sans que, au préalable, de la donnée soit mise à la disposition du public et des opérateurs. Or, l’open data n’est pas aussi répandu qu’on veut bien l’imaginer. En France, je l’ai dit tout à l’heure, nous y sommes presque. En l’état, le compte n’y pas tout à fait encore. Ailleurs, la donnée est la propriété presque exclusive de firmes privées qui monnayent un accès amélioré aux décisions de justice sélectionnées par elles-mêmes (Belgique) ou bien la donnée ne peut tout bonnement pas être partagée (Italie).

Une fois cette condition remplie, l’algorithme est en mesure de travailler. Pour s’assurer que le travail soit bien fait, il importerait qu’on s’entende sur quelques spécifications techniques et politiques. C’est sur ces dernières que je souhaiterais conclure.

16.- Régulation. En l’état, les systèmes d’information ne sont pas régulés du tout. On se souviendra qu’il aura fallu une exploitation abusive et sans précédent des données personnelles par les Gafam pour qu’on se décide à élaborer un règlement général sur la protection desdites données. Seulement, et sans préjudice des dommages causés aux personnes concernées, il n’est pas ou plus question ici de l’accaparement de données par quelques firmes de marchands. L’affaire est d’un tout autre calibre. C’est d’assistance à la décision juridique ou judiciaire dont il est question. Que la justice ne soit plus tout à fait une fonction régalienne de l’État, admettons. Mais les responsabilistes ne sauraient prêter leur concours sans aucune prévention à l’utilisation de l’intelligence artificielle dans la réparation des dommages. Pour le dire autrement, une gouvernance technique et scientifique me semble devoir être mise en place. Cette exigence est présente dans les rapports tout particulièrement dans le rapport belge.

17.- Règlementation. Le 21 avril 2021 a été diffusé une proposition de règlement établissant des règles harmonisées concernant l’intelligence artificielle dans laquelle les IA sont distinguées selon le risque qu’elles font courir. Et des intelligences artificielles, destinées à suggérer le droit pour faire bref, d’être qualifiées de systèmes à haut risque. La belle affaire. On est encore loin du compte.

En résumé, le code doit être connu de ses utilisateurs, les données primitives exploitées par l’algorithme doivent être indexées, une révision des contenus doit être programmée, des évaluations et crash-test doivent être faits. Et je suis loin d’épuiser les conditions qu’il s’agirait qu’on respectât pour bien faire.

18.- En conclusion et parce que je suis intimement convaincu qu’on ne stoppera pas le mouvement d’algorithmisation de la réparation des dommages, permettez-moi de formuler cette question un tantinet provocante et qui transparaît des rapports nationaux : veut-on que du droit soit suggéré par des algorithmes (privés) faiseurs de loi ou bien plutôt du droit dit par un législateur faiseur d’algorithmes (publics) ?


[1] Un style parlé a été employé dans cette version provisoire.

[2] https://www.health-data-hub.fr/

[3] Arr. du 24 juin 2014 relatif à la gratuité de la réutilisation des bases de données juridiques de la direction de l’information légale et administrative.

[4][4] https://www.courdecassation.fr/la-cour-de-cassation/demain/lopen-data-des-decisions-judiciaires

Le conseil juridique ébranlé par la nouvelle économie ?

Le conseil juridique est-il ébranlé ou non par la nouvelle économie ?* Telle est la question. Ou, pour le dire autrement : To be or not to be shaken that is the question ? Pour quelle raison ces quelques mots anglais ? Pour signifier que le conseil juridique 2.0, qui est en prise avec la nouvelle économie, celle du numérique, parle anglais. Il ne fait pas un rapport de synthèse à son client ou à son patron, il fait un reporting. Il ne passe pas un coup de téléphone, il a un call… Ces quelques emprunts à la langue de Shakespeare disent plus qu’il n’y paraît. C’est que cette langue est l’instrument de communication de larges domaines spécialisés des sciences et des techniques, de l’économie et des finances. Et puisque le colloque s’intéresse précisément aux défis du numérique (1), se demander pour quelle raison le conseil juridique serait ébranlé, c’est prononcer à un moment ou à un autre les mots « legaltech », « legal start-up », « legal process outsourcing », « machine learning », « e.lawyering » (entre autres inventions)… En bref ou last but not least (pour rester dans le ton), « business and disruption » – affaires et perturbations ou ébranlement.

La disruption est un anglicisme qui désigne le bouleversement d’un marché sur lequel les positions sont établies avec une stratégie inédite. C’est ce qu’il est courant de désigner par innovation de rupture. Cette innovation-là modifie un marché non pas avec un meilleur produit – c’est le rôle de l’innovation pure, écrit-on volontiers – mais en l’ouvrant au plus grand nombre. C’est cette histoire qu’ont commencé à écrire quelques ingénieux opérateurs économiques qui se sont positionnés sur le marché du droit (2). Et c’est une histoire qui intéresse au premier chef les conseils juridiques, les avocats en particulier. Pour cause : il a été prédit que « l’effet disruptif de l’intelligence artificielle [engendrerait] la fin du monopole des avocats » (3). C’est somme toute aller un peu vite en besogne. La fin du monde réglementé du conseil juridique par le feu de l’innovation tous azimuts n’a pas encore sonné. Ce n’est toutefois pas à dire qu’il ne sonnera pas. Car des mesures d’allégement réglementaire ont été prises ces dernières années (4).

Le service rendu par les hommes et les femmes de l’art, peu important leur titre ou leur qualité dans le cas particulier, est considéré par trop onéreux. Le montant des honoraires facturés est montré du doigt. On dit qu’il participe d’une augmentation des prix, de l’obtention de revenus élevés, de la réalisation de surprofits. On crie haro sur la réglementation professionnelle. La normalisation de l’activité de conseil juridique créerait des barrières à l’entrée du marché. L’obligation de recourir à un auxiliaire de justice ou bien de requérir le ministère d’un officier public ministériel augmenterait artificiellement la demande (5). En bref, les conseils juridiques ont ressenti un grand trouble dans la Force. Et la guerre des étoiles montantes du numérique de faire rage. C’est que les nouvelles technologies, qui sont des facilitateurs et des accélérateurs, ont ouvert la porte à tous les possibles (6) ! Les juristes, à tout le moins celles et ceux qui en doutaient encore, sont assurément entrés dans l’ère du dumping.

Dumping. Dans la nouvelle économie numérique, celle de la start-up nation (7), le droit n’est plus l’apanage des juristes. L’exercice du conseil juridique est désormais l’affaire d’une multitude de firmes (bandes ?) organisées (8) dont le capital social n’est du reste pas nécessairement détenu par des professionnels du droit. Un pareil changement de paradigme est proprement renversant. On ne saurait donc mieux dire que le conseil juridique est ébranlé par la nouvelle économie.

Mais, une fois encore, il serait aventureux de jouer les Cassandre. Autant le dire tout de suite, l’« ubérisation » du marché du conseil juridique ne sera pas (9). Le droit est un objet du commerce juridique par trop complexe pour être tout entier ramassé en un système binaire « si alors ». Le système juridique n’a pas vocation à être absolument gouverné par les nombres (10). Cela étant, les entreprises innovantes ont apporté la preuve que la production du droit pouvait être notablement améliorée sous certaines conditions.

Amélioration. Les professionnels du droit, qui ont été saisis par la nouvelle économie, n’ont pas manqué d’apporter leur pierre à la transformation numérique. Dans le même temps, l’investissement dans l’économie de la connaissance sur le sujet a été entamé : organisation d’un forum du numérique par l’école des avocats du nord-ouest, financement d’un programme d’incubation dédiée aux legalstarts par le barreau de Paris(11), création du site de mise en relations www.avocats.fr, constitution d’une association d’avocats legal startupers (Avotech), habilitation de formations universitaires (par ex., Paris 2 : DU Transformation numérique du droit et legaltech. Caen, Reims : M2 Droit du numérique).

Pour le dire autrement, le conseil juridique a certes été questionné par la nouvelle économie (I). Ce qui était inévitable. Mais l’important au fond c’est que le conseil juridique a été repensé par la nouvelle économie (II). C’était prévisible.

I – Le conseil juridique questionné par la nouvelle économie

Efficience ? En première intention, l’observateur est saisi par ce questionnement soudain du conseil juridique par la nouvelle économie. La lecture des quelques études publiées sur le droit à l’ère du numérique objective la surprise des opérateurs positionnés de longue date sur le marché, par une suite d’héritages sans discontinuité ni perdition. L’aptitude du conseil juridique à fournir le meilleur rendement est pourtant attestée. La capacité des juristes à maximiser l’allocation des ressources n’est pas douteuse. Et voilà que l’Ordre des avocats et le Conseil national des barreaux (CNB) en sont réduits à intenter des actions en concurrence parasitaire contre quelques legal start-up qui ont le vent en poupe (12). En bref, les hommes de l’art n’ont pas été en mesure de prévenir (correctement) le risque… algorithmique et toutes ses incidences(13) ! Non seulement l’homme de droit a été saisi par le marché (A), mais l’art de faire du droit a été troublé par la science (B).

A – L’homme (de droit) saisi par le marché

Réglementation du conseil juridique (14) a fait croire à l’homme et à la femme de droit que leur positionnement sur le marché ne serait pas discuté, à tout le moins pas plus que d’ordinaire. Mauvaise inspiration s’il en est. La puissance du web, dont on a fêté les trente ans en mars 2019, a autorisé les consommateurs et les concurrents à les détromper.

1 – Les consommateurs

Barrières. L’accès aux règles juridiques ne s’impose pas avec évidence. Des barrières empêchent nombre de clients de « consommer » simplement du droit. Les empêchements sont de plusieurs ordres. Un premier obstacle est d’ordre matériel. Il a trait au prix. Ce n’est toutefois pas à dire qu’aucun effort n’ait été fait à l’intention de nos concitoyens les moins bien lotis : aide juridictionnelle, maison de la justice et du droit, cliniques juridiques… L’empêchement est aussi de nature intellectuelle. Il faut bien voir que nos concitoyens sont très souvent dans l’incapacité de formuler leur(s) besoin(s) de droit(s). Ce n’est pas à dire non plus qu’ils n’ont pas l’intuition de l’existence de telle ou telle règle ou le sentiment de la violation de tel ou tel droit subjectif. Il reste que, dans l’ensemble, très peu sont en situation de prendre aussitôt attache avec un avocat-conseil. Or, à mesure que le temps passe, les difficultés rencontrées peuvent aller crescendo. L’homme et la femme de l’art sont alors priés de démêler des situations parfois inextricables. Les honoraires de diligence étant déterminés en conséquence, ils sont un frein à la consultation.

L’empêchement est en outre psychologique. La sophistication d’un cabinet, la langue qu’on y parle, les tenues qu’on y porte, le tout peut, à tort ou à raison, faire écran. Enfin, la nécessité qu’il faille réclamer à son employeur un jour de congé pour se rendre chez un avocat complique un peu plus encore les démarches à entreprendre et les rend vaines lorsque le problème rencontré prête a priori à peu de conséquences. Que reste-t-il au consommateur-justiciable en demande ? Eh bien Internet.

Internet. Quelques mots tapés dans l’un des plus puissants moteurs de recherche jamais inventés et du droit est dit. C’est très commode. Une question demeure pourtant. Est-ce bien dit ? On peut en douter. Soit la généralité de l’information rend vaine l’application de la règle de droit au cas particulier. Soit l’information juridique est absconse et le consommateur 2.0 ne comprend rien du tout. Le constat n’est pas nouveau. Preuve est rapportée, dira-t-on, qu’on ne saurait faire l’économie d’un conseil juridique. Il existe pourtant un facteur qui impose, nous semble-t-il, djusue réécrire pour partie l’histoire du marché du conseil juridique. Il a trait au désir de consommer.

Consommation. Alors que tout est à peu près dans le commerce juridique, qu’on peut presque tout acheter en ligne, le droit ne peut l’être ou bien alors de façon bien moins satisfaisante. Il ne s’agit pas de disserter sur les heurts et malheurs d’une pareille offre mais de prendre la mesure de ce qui est en train de se passer. La demande de droit(s) va crescendo. Pour preuve, quelques commerçants bien inspirés ont commencé à satisfaire ce besoin exprimé par les consommateurs-justiciables. Depuis, les concurrents se sont positionnés.

2 – Les concurrents

Les sites Internet d’information et d’intermédiation dédiés se développent(15). Rien ne devrait empêcher ces opérateurs économiques concurrents de continuer sur leur lancée. C’est que l’esprit comme la nature a horreur du vide.

Vide. C’est très précisément ce qui a été comblé par de jeunes entreprises innovantes, les fameuses legaltech. La concurrence a su tirer le meilleur profit de la transformation numérique. Les nouveaux entrants sur le marché du conseil juridique, ceux qu’on qualifie parfois de disruptifs, se sont d’abord concentrés sur les segments du marché négligés par les firmes d’ores et déjà positionnées. On peut raisonnablement s’attendre à ce que les segments de marché occupés soient visés. Cèderont-ils ? Je n’en sais rien. Tout dépendra du niveau auquel le législateur aura placé le curseur de la (dé)réglementation de l’activité.

Ce qu’on peut dire, en revanche, c’est que les concurrents se sont positionnés à la manière de médias, d’intermédiaires, à tout le moins pour l’instant, et qu’ils sont tout à fait rompus à l’expérience client (c’est-à-dire la problématique des interactions entre une personne et un objet).

La lumière a été donnée au consommateur-justiciable : non seulement le droit a été révélé mais le conseil juridique a été montré pendant que l’accès au juge a été facilité. Le tout à titre gratuit ou presque, en quelques clics au pire et avec une facilité déconcertante. Et la Cour de cassation de donner tout récemment son onction au procédé.

Onction. À la question posée par l’Ordre des avocats et le CNB de savoir si l’activité de la société commerciale demanderjustice.com ne constituait pas une forme d’exercice illicite de la profession d’avocat, la Chambre criminelle a répondu par la négative (16) pendant que le juge de première instance estimait pour sa part qu’il y avait là une aide automatisée offerte aux justiciables pour l’accomplissement des actes de procédure (17).

C’est cela l’innovation de rupture. Jamais une telle impression sur le marché du droit n’avait été constatée par les hommes et les femmes de droit. Indiscutablement, la science a troublé l’art de faire du droit.

B – L’art (de faire du droit) troublé par la science

En quoi la science, particulièrement les nouvelles technologies de l’information et de la communication ont-elles troublé l’art de faire du droit ? Eh bien en donnant la possibilité d’industrialiser le conseil juridique (1) et, par voie de conséquence, en offrant celle de monétiser tout conseil juridique (2).

1 – L’industrialisation

Production. Le conseil juridique est une création de l’esprit empreinte d’une certaine originalité. Sa nature complique voire interdit tout remploi. Le système de production est par voie de conséquence artisanal. La standardisation du conseil et des procédures n’est pas absolument empêchée. Simplement, les hausses de productivité qui peuvent être espérées (en temps comme en argent) sont sans commune mesure avec une production de type industriel. Or, c’est très précisément la promesse qui est faite par les legal start-up : industrialisation des processus, facilitation des conseils, optimisation des coûts, augmentation des marges et, par voie de conséquence, extension de la zone de chalandise.

Facilitation. Les facilités proposées par les algorithmes sont de tous ordres(18). Si l’on devait les catégoriser, on pourrait dire que les premiers renseignent les demandes de conseils en droit, que les deuxièmes discriminent les professionnels du droit(19), que les troisièmes arbitrent les moyens de droit. Et tous de satisfaire le consommateur de conseils juridiques à des degrés divers. À titre d’exemple, la technologie la plus avancée permettrait à tout un chacun de prédire les chances de succès d’un procès. En revanche, il n’est pas encore question de généraliser la « justice algorithmique » (20), c’est-à-dire une justice qui serait rendue par des robots (21). Une fois encore, ce n’est pas dire qu’elle n’existe pas. Le traitement automatisé des infractions de la route l’atteste. Ce dernier cas mis à part, pour l’heure, c’est au mieux de justice, de défense et de conseil assistés par ordinateur (22) dont il est question et non de droit dit par un ordinateur (23). C’est déjà beaucoup car les algorithmes d’aide à la décision (24) ont donné l’occasion à tous les opérateurs de monétiser n’importe quel conseil juridique.

2 – La monétisation

Prospect. Il y a peu de temps encore, le conseil était matériellement empêché de satisfaire n’importe quelle demande de droit à peine de mettre possiblement en péril sa structure d’exercice professionnelle. L’explosion quantitative de la donnée numérique a permis l’apparition de nouvelles offres de service susceptibles de contenter n’importe quelle demande de droit et de monétiser n’importe quel conseil. En bref, les legal start-up sont de nature à apporter aux avocats (entre autres prestataires de conseils juridiques) une clientèle qui leur échappe (25).

Désormais, les professionnels du droit rivalisent de stratégies digitales (comme on dit) pour apprivoiser la machine et les problématiques dont ils ont été saisis. Et c’est parce que le conseil juridique a été questionné par la nouvelle économie, qu’il a été depuis lors repensé.

II – Le conseil juridique repensé par la nouvelle économie

Mutation anthropologique. Annoncer que le conseil juridique a été repensé par la nouvelle économie, c’est signifier que la donne a été notablement changée, qu’il se pourrait même qu’on ait assisté à une mutation anthropologique des opérateurs (26). Non seulement les façons de faire du droit ont été modifiées, mais les hommes et les femmes de droit se sont réinventés. Pour le dire autrement, l’histoire de l’art de faire du droit a été réécrite (A) tandis que l’homme de l’art a été augmenté (B).

A – L’histoire de l’art réécrite

Psychologie de l’exemple. La réorganisation remarquable du marché du conseil juridique et des structures d’exercice professionnel a entraîné une réécriture remarquable de l’histoire (de faire) du droit. En bref, le droit n’a plus vocation à être révélé tout à fait de la même manière. Les pratiques qui ont cours dans quelques firmes pointues seulement devraient vraisemblablement faire tache d’huile et se rencontrer plus volontiers, à savoir la discrimination des questions de droit (1) et l’externalisation des réponses juridiques (2).

1 – La discrimination des questions de droit

Repositionnement. Le juriste d’entreprise du XXIe siècle ou le cabinet 2.0 est très vivement incité à discriminer les questions de droit dont il est saisi : économie de la firme et digitalisation de l’entreprise obligent. D’aucuns objecteront, à raison, que c’est monnaie courante. Il faut bien voir toutefois que les raisons de procéder ont changé. La différenciation ne trouve plus (ou plus seulement) sa cause dans la formation des apprentis juristes et des élèves avocats auxquels il importe de confier des questions dont la difficulté va crescendo à mesure que l’expérience métier augmente. Elle trouve sa raison d’être dans le repositionnement de la firme sur les questions complexes à plus forte valeur ajoutée. Au fond, à tort ou à raison, c’est de modèle de développement dont il s’agit.

Modèle de développement. Si l’on en croit l’Organisation de coopération et de développement économique (OCDE), la recherche d’une segmentation poussée des activités serait l’un des piliers de l’innovation. Quelle est l’idée ? Celle qu’en découpant la production d’une prestation en un maximum d’éléments distincts, on permet de réaliser chaque élément de la manière la moins coûteuse et donc de faire jouer la concurrence par les prix (27). C’est une façon de voir les choses… qui consiste à externaliser par voie de conséquence nombre de réponses juridiques.

2 – L’externalisation des réponses juridiques

Source. L’externalisation des réponses juridiques, qui tend à se développer en France, est un procédé bien connu des pays angloaméricains qui consiste tantôt à sous-traiter la prestation tantôt à sous-traiter le service. Et ce toutes les fois que la prestation juridique est à faible valeur ajoutée (qu’il s’agisse de prestations élémentaires, récurrentes, volumineuses). Un mot désigne le procédé : legal process outsourcing (28).

Legal process outsourcing. Pour résumer, l’outsourcing se décline en deux propositions principales : l’offshoring et le onshoring. L’offshoring consiste à interroger une firme implantée à l’étranger dans un pays où le coût du travail est faible (ex. cabinet Kalexius) (29). Le onshoring consiste à interroger une firme implantée en France dans une ville où les coûts de production sont moindres. C’est un dispositif qui donne à penser (30). Ce n’est pas le seul du reste (31).

Le marché des services juridiques alternatifs. Ce marché propose à toute entreprise intéressée la collaboration à temps plein d’un avocat dans ses propres locaux. Aucun mystère sur le sujet, c’est purement et simplement du détachement…d’avocats. Quant à l’inspiration, elle est toute trouvée. On la doit aux cabinets d’audit et de conseils aux entreprises. Business model que s’est contenté de dupliquer avec beaucoup d’ingéniosité un ancien cadre de chez CapGemini (32), leader dans l’outsourcing numérique.

Que penser définitivement de cette réécriture de l’histoire de l’art juridique que je viens de dépeindre à grands traits ? Je ne doute pas que l’auditoire saura m’aider à y voir plus clair. Ce qui paraît plus certain en revanche, c’est qu’en répondant aux défis du numérique, l’homme de l’art est ressorti augmenté.

B – L’homme de l’art augmenté

Exosquelette. La profusion des legal start-up et l’amplification de l’outsourcing ont très certainement contribué à augmenter l’homme et la femme de l’art. Cela étant, l’expertise d’un conseil juridique n’est absolument pas substituable. À titre personnel, je pense que le professionnel du droit formé dans une faculté de droit plusieurs années durant ne sera pas remplacé. Car le droit n’est pas une collection de règles éparses qu’il suffirait de transformer en 0 et en 1 pour, chose faite, se contenter d’ordonner à une machine de révéler, conseiller, voire juger. Il y a un travail de façon de la matière juridique et une part de mystère dans la réalisation du droit que seul l’homme de l’art rompu à l’exercice peut approcher justement et utilement. Cela étant, les blocs de règles juridiques sont désormais si nombreux et intriqués pendant que la masse de demandes de droit est devenue tellement importante et pressante que l’homme et la femme de l’art gagneront sans aucun doute à maîtriser les nouvelles machines et à pratiquer leurs puissants algorithmes. C’est en d’autres termes accepter de se doter d’un exosquelette.

Il a été rappelé qu’il existe deux formes d’innovation : « celle de continuité ou incrémentale, qui vise à améliorer un produit existant ou satisfaire sa clientèle, et celle de rupture dont l’objet est d’inventer un nouveau produit. C’est au fond la différence entre l’évolution et la révolution ; certaines entreprises (les traditionnelles) cherchent à faire mieux tandis que d’autres (les numériques) ambitionnent de faire différemment » (33). C’est au fond de destruction créatrice dont il est question (Shumpeter)… Une question demeure : To be or not to be a start-up nation : that is the question (34) ?

Notes :

* Article paru à la revue Dalloz IP/IT 2019.655 (JB)

(1) Voy, aussi, J.-B. Auby, Le droit administratif face aux défis du numérique, AJDA 2018. 835.

(2) Sur la marchéisation de la justice, L. Cadiet, L’accès à la justice, D. 2017. 522, n° 15 ; Ordre concurrentiel et justice, in L’ordre concurrentiel, Mélanges Antoine Pirovano, éd. Frison-Roche, 2004, p. 109.

(3) J. McGinnis & R. Pearce, The Great Disruption, The disruptive effect of machine intelligence will trigger the end of lawyer’s monopoly, Fordham Law Review, vol. 82, 2014, p. 3065, cités par F. G’Sell, Professions juridiques et judiciaires – impact des innovations de rupture sur le marché des services juridiques : l’OCDE s’interroge, JCP 2016. 445.

(4) B. Deffains, Loi Macron : faut-il opposer modèle professionnel et modèle concurrentiel ?, JCP N 2015. 150.

(5) J. Deffains, op. cit., n° 11.

(6) F. Douet, Fiscalité 2.0. – Fiscalité du numérique, 2e éd., LexisNexis, 2018, p. 1.

(7) N. Collin, Qu’est-ce qu’une « start-up nation » ?, L’Obs, chron., 2018.

(8) M. Blanchard, La révolution du marché du droit. Les nouveaux acteurs du droit, Cah. dr. entr. 5/2018, dossier 15.

(9) S. Smatt et L. Blanc, Les avocats doivent-ils craindre l’« ubérisation » du droit ?, JCP 2015. 1017. R. Amaro, L’ubérisation desprofessions du droit face à l’essor des legaltech, in Dossier L’ubérisation : l’appréhension par le droit d’un phénomène numérique, Dalloz IP/IT 2017. 161.

(10) A. Supiot, La Gouvernance par les nombres, Fayard, 2015.

(11) https://bit.ly/379kk9V.

(12) www.saisirprud’hommes.com et www.demanderjustice.com. Sur la notion, L. Vogel, Traité de droit économique, Droit de la concurrence, Droit français, t. 1, 2e éd., Bruylant, 2018, nos 538 s.

(13) L. Godefroy, Le code algorithmique au service du droit, D. 2018. 734.

(14) Loi n° 71-1130 du 31 déc. 1971 portant réforme de certaines professions judiciaires et juridiques, art. 54.

(15) Voy., par ex., www.litiges.fr ou www.demanderjustice.com.

(16) Cass. crim., 21 mars 2017, n° 16-82.437, inédit, D. 2018. 87, obs. T. Wickers ; D. avocats 2017. 148, obs. M. Bénichou ; Légipresse 2017. 175 et les obs. (confirmation Paris, ch. 5-12, 21 mars 2016).

(17) TGI Paris, 13 mars 2014, n° 13248000496, D. 2015. 35, obs. T. Wickers ; JCP 2014. 578, note C. Bléry et J.-P. Teboul.

(18) Dossier, Le droit saisi par les algorithmes, Dalloz IP/IT 2017. 494.

(19) Une discrimination passive consisterait à orienter le consommateur-justiciable vers un conseil juridique au vu du problème de droit formulé. C’est l’objet de quelques sites Internet, notamment de www.avocats.fr. Une discrimination active consisterait à proposer au consommateur-justiciable un comparateur de conseils juridiques au vu des expériences clients renseignées. V. sur cette dernière tentative, F. G’Sell, Les comparateurs d’avocats sont-ils illicites. De l’application de la déontologie de la profession d’avocat au-delà de la profession, JCP 2016. 4. Cmp. Les comparateurs d’avocats en ligne licites à condition de respecter le droit des consommateurs, JCP 2018. 1399, veille.

(20) B. Barraud, Avocats et magistrats à l’ère des algorithmes : modernisation ou gadgétisation de la justice ?, Revue pratique de laprospective et de l’innovation, oct. 2017, dossier 11, n° 4.

(21) F. Rouvière, Le raisonnement par algorithmes : le fantasme du juge-robot, RTD civ. 2018. 530.

(22) F. Barraud, préc.

(23) S. Chassagnard-Pinet, Les usages des algorithmes en droit : prédire ou dire le droit ?, Dalloz IP/IT 2017. 495. Y. Gaudemet, La justice à l’heure des algorithmes, RD publ. 2018. 651. A. Garapon, La legaltech : une chance ou une menace pour les professions du droit ?, LPA 18 sept. 2017, p. 4 (entretien).

(24) S.-M. Ferrié, Les algorithmes à l’épreuve du droit au procès équitable, Procédures 2018. Étude 4.

(25) L. Neuer, Avocatus numericus, modes d’emploi. Enquête. JCP 2017. 1079.

(26) N. Fricero, Plaidoyer pour un procès civil disruptif et pour une mutation anthropologique des acteurs judiciaires. À propos du rapportde l’Institut Montaigne « Justice : faites entrer le numérique », JCP 2017. 1305.

(27) OCDE, Protecting and promoting competition in response to disruptive innovations in legal services, DAF/COMP/WP2(2016)1, 9 mars 2016, § 13. Rapp. cité par M. Blanchard in La révolution du marché du droit. Les nouveaux acteurs du droit, préc. note 8.

(28) Sur la défense de la localisation de l’activité juridique dans le Grand Paris, H. Bouthinon-Dumas et B. Deffains, La place juridique deParis, D. 2019. 29.

(29) Le nearshoring est une variante qui consiste à délocaliser le traitement de la question dans un pays certes étranger mais qui est facilement accessible et qui entretient une proximité culturelle avec le donneur d’ordres.

(30) L. Carnerie, Legaltechs : les professions réglementées mettent en avant leurs avantages concurrentiels, Gaz. Pal. 10 juill. 2017, p. 5.

(31) A. Coignac, Externalisation des prestations juridiques et services juridiques alternatifs. Une réorganisation du marché. Enquête, JCP2017. 335.

(32) A. Coignac, préc. V., plus particulièrement, le témoignage de S. Lefer, fondateur d’Oxygen+.

(33) F. Luzzu, Le notaire 2.0 ou comment éviter l’ubérisation du notariat, JCP N 2015. 1195, spéc. n° 35).

(34) E. Macron, Salon VivaTech 2017, discours, https://bit.ly/356oQnP) !