L’expertise architecturale : clef de voûte de la quantification des frais de logement adapté et condition de la réparation intégrale de la victime

Résumé. Que l’expertise soit nécessaire aux fins de quantification des chefs de préjudices subis est l’évidence. Que l’expertise architecturale soit déterminante dans l’évaluation des frais de logement adapté s’entend. Reste encore à bien avoir à l’esprit l’objet desdits frais de logement adapté et la multiplicité des chefs de dépense. A l’expérience, le champ des possibles n’est pas toujours bien connu et le rétablissement de la victime pas assez complet.

* * *

Le droit de la responsabilité civile ordonne que l’équilibre détruit par le dommage soit rétabli aussi exactement que possible. Pour le dire autrement, la victime doit être replacée dans la situation où elle se serait trouvée si l’acte dommageable n’avait pas eu lieu (C. civ., art. 1240). Il importe donc que l’équivalent en argent qui est alloué soit de nature à remplir la victime de toutes les joies de l’existence qui étaient les siennes et lui permettre d’exercer tous les droits et libertés dont elle jouissait quelques instants encore avant que l’accident ne survienne.

Les praticiens de la réparation du dommage corporel se sont bien familiarisés avec la nomenclature des chefs de préjudices corporels qui dresse, à titre indicatif, une série (non exhaustive) de postes de préjudices. Au nombre de ceux-ci, il en est un qui a très justement retenu l’attention des derniers États généraux du dommage corporel[1] et qui mérite d’être plus amplement étudié tant il a vocation à participer au quotidien à la compensation du handicap subsistant de la victime. Il s’agit des « frais de logement adopté » (ou FLA), qui est un chef de préjudice patrimonial permanent[2].

Les enjeux pour la victime, ses proches et, plus généralement, tous les aidants, qu’ils soient professionnels ou non, sont grands. Que ce chef de préjudice soit mal évalué, et du malheur sera aussitôt ajouté au drame. Aussi l’expertise architecturale ne saurait-elle être bien faite sans que la situation de la victime ne soit parfaitement renseignée et son autonomie résiduelle explicitement évaluée. Quant à la consolidation éventuelle, il faut avoir à l’esprit que cette notion est une variable déterminante pour le maître d’œuvre qui ne saurait, à défaut, dessiner utilement l’habitat idoine. En bref, l’expertise médicale et l’expertise architecturale sont les deux faces d’une même médaille : la notion de frais de logement adapté (I), une typologie indicative desdits frais (II) et une présentation des dépenses types susceptibles d’être engagées (III) l’attestent.

1.- Notion de « frais de logement adapté »

En théorie, les frais de logement adaptés qu’il faut avoir en tête sont ceux engagés ou qui ont vocation à l’être du chef de la victime directe et/ou du chef de ses proches. Leur vocation : proposer à la victime un habitat en adéquation avec son handicap. La lecture de la nomenclature des préjudices résultant d’une atteinte à la personne renseigne assez bien le lecteur sur l’objet des dommages et intérêts compensatoires susceptibles d’être alloués.

Si l’on se représente intuitivement les dépenses qu’il s’agit d’engager pour adapter le logement de la victime, particulièrement lorsqu’elle a perdu en tout ou partie sa capacité de se mouvoir seule dans son environnement (peu important qu’elle souffre de chefs de préjudices temporaires – frais divers – ou permanents – FLA), une étude de jurisprudence peut aider à y voir plus clair et prévenir le risque de minoration de ce préjudice. Car il est à craindre que les besoins de la victime ne soient pas suffisamment interrogés et que, par voie de conséquence, non seulement le financement des conditions de son rétablissement (aussi fragile puisse-t-il être) ne soit pas assuré mais que l’apaisement que cette dernière est en droit d’espérer ne soit pas offert. Pour le dire autrement, l’expertise architecturale doit avoir pour objet et pour effet de prévenir une double peine.

En pratique, l’exercice est des moins évidents. Les derniers États généraux du dommage corporel évoqués ci-dessus ont été l’occasion de lister les principaux chefs de complication. Au nombre de ceux-ci, et ce n’est malheureusement pas propre à l’expertise architecturale, il est assez compliqué de trouver un expert en capacité de faire le travail, à savoir un architecte, tout naturellement, mais, plus encore, une femme ou un homme de l’art rompu à l’exercice très particulier de l’expertise architecturale sensibilisé à la propension de l’habitat à contribuer d’une certaine façon aux soins apportés à la victime. Or il est bien su que « pour fonctionner, le système a besoin de techniciens disponibles »[3] et disposés, pourrait-on ajouter. Aussi bien, à la manière de la Commission nationale des accidents médicaux (CNAMed), qui instruit les demandes d’inscription des professionnels de santé sur la liste nationale des experts en accidents médicaux[4], ne pourrait-on pas recommander qu’une instance indépendante se charge d’élaborer, au profit de toutes les personnes concernées, une liste d’architectes experts ? Peut-être même, pour simplifier les choses, la CNAMed pourrait-elle voir son champ de compétences élargi en conséquence ? Si l’hypothèse de travail devait être jugée pertinente, il importerait également de recommander l’initiation des élèves architectes et ingénieurs, voire la formation des architectes diplômés d’État à l’expertise non pas médico-légale mais architecturo-légale[5]. Nous ne saurions douter de la capacité des personnes qui exercent l’art de l’architecture. Reste que l’exercice à visée précontentieuse ou bien consécutivement à la saisine d’une juridiction est suffisamment spécifique pour recommander a minima une initiation.

Un autre chef de difficulté réside dans les oppositions éventuelles de l’assureur de responsabilité civile et les hésitations possibles du juge de la réparation. Il faut bien se représenter les sommes en jeu, leur nature[6] et le caractère possiblement conservatoire de la dépense. Aussi, une approche « tous chefs de frais de logement adapté » vers laquelle un praticien pourrait être tenté de s’aventurer, faute d’avoir pu s’adjoindre un sapiteur dans le temps imparti, est-elle à proscrire, sous peine de ne pas emporter la conviction[7].

2.- Typologie des frais de logement adapté

Relativement aux dépenses que la victime peut être amenée à engager, et qui ont vocation à être remboursées par l’auteur du dommage et son assureur de responsabilité civile, on compte les frais commandés par l’aménagement du domicile ou bien de la résidence de l’intéressée, et ceux nécessités par l’aménagement du domicile de ses proches, que lesdits soient temporaires ou non[8]. À noter qu’il en sera de même en cas d’accueil de la victime dans une structure idoine (foyer ou maison médicalisée).

Le domicile actuel de la victime, quand bien même cette dernière n’aurait pas vocation à s’y maintenir, doit être aménagé. Peu important donc que la victime soit dans l’obligation, à court ou moyen terme, de faire l’acquisition d’un logement mieux adapté[9]. Et la Cour de cassation d’indiquer au surplus qu’il importe peu que le logement existant ait pu être aménagé par des travaux adaptés ; le responsable reste tenu de payer les frais d’acquisition[10] d’un nouveau logement pérenne et les frais d’aménagement de l’habitat[11]. Il y a une raison à pareille exigence. C’est que le changement du lieu de vie n’est pas « un choix purement personnel de la victime », pour reprendre les mots de la Cour de cassation mais un choix provoqué par les séquelles de l’accident.

La réparation intégrale du dommage corporel commande en conséquence l’indemnisation des frais d’acquisition d’un terrain puis de construction et d’aménagement du logement adapté[12]. Aussi bien les juges du fond et les cours régulatrices ne sont-ils pas sensibles au moyen tiré de la violation du principe de la réparation intégrale en ce que « l’acquisition en pleine propriété d’un logement financé par l’assureur de l’auteur de l’accident constitue[rait] un enrichissement patrimonial, qui [irait] au-delà de la réparation du préjudice subi ; que le préjudice lié aux frais de logement adapté, correspondant aux dépenses que la victime handicapée doit exposer pour bénéficier d’un habitat en adéquation avec son handicap, ne saurait être indemnisé sans tenir compte des sommes que la victime aurait de toute façon dû débourser pour se loger, si elle n’avait pas subi de handicap »[13].

3.- Types de dépenses engagées

Les types de dépenses engagées, qui sont renseignées dans les décisions de justice sélectionnées peuvent être rangés en deux catégories : les dépenses aux fins d’aménagements ponctuels[14] et les dépenses aux fins d’aménagements structurels. C’est relativement à ces derniers aménagements que l’expertise architecturo-légale est des plus importantes. Adapter l’habitat et les espaces de vie, cela peut être : dégager des aires de rotation, créer une pièce technique dédiée aux matériels et/ou aux soins, concevoir une salle de bain en surnombre réservée à la personne en perte d’autonomie, dessiner un espace de retrait réservé à la tierce personne aux fins d’hébergement (condition du respect des conditions de travail de l’aide humaine et de la pérennisation de la relation professionnelle).

Où l’on constate, en conclusion, que la spécialisation fine des avocats-conseils en la matière et le travail de formation continue assuré chaque année à l’occasion des États généraux du dommage corporel participent indiscutablement du juste et utile rétablissement des victimes atteintes dans leur intégrité corporelle.


[1] 13es États généraux du dommage corporel organisés par le Conseil national des Barreaux le 25 novembre 2021 à Paris sur le thème « L’expertise dans tous ses états » : v. la publication des actes in n° hors-série Gaz pal. 25 janv. 2022.

[2] V. également la prestation de compensation du handicap (art. L. 245-3, 3° et L. 425-3, 3° du Code de l’action sociale et des familles et L. 425-3, 3°)

[3] G. Mor et L. Clerc-Renaud, Évaluation du préjudice corporel, 2e éd, 2014, Delmas, n° 111-14.

[4] CSP, art. L. 1142-10.

[5] Une semblable remarque peut être faite s’agissant des ergothérapeutes chargés de dresser le bilan situationnel de la victime.

[6] Sur la détermination de la fiscalité des travaux, v. Cass. crim., 2 nov. 2011, n° 10-83219 : Bull. crim., n° 224.

[7] V. not. Cass. 2e civ., 8 juill. 2021, n° 20-15106, D : absence de preuve objective et suffisante du caractère inadapté des logements pris à bail, et rejet de la demande d’acquisition d’une maison d’habitation.

[8] Cass. 2e civ., 14 avr. 2016, nos 15-16625 et 15-22147 : Bull. civ. II, n° 849 – CE, 5e ch., 27 déc. 2019, n° 421792 – CE, 5e-6e ch. réunies, 27 mai 2021, n° 433863.

[9] CE, 5e-6e ch. réunies, 27 mai 2021, n° 433863 – Cass. 2e civ., 18 mai 2017, n° 16-15912 – Cass. 2e civ., 9 mai 2019, n° 18-15786. V. encore, pour une incompatibilité des aménagements nécessaires avec le caractère provisoire de la location, CE, 4 déc. 2009, n° 309521, Cts El Khebbas : Lebon – Cass. 2e civ., 5 févr. 2015, n° 14-16015 – Cass. 2e civ., 14 avr. 2016, n° 15-16625.

[10] Cass. 2e civ., 18 mai 2017, n° 16-15912, PB – Cass. 2e civ., 23 mai 2019, n° 18-16651, D.

[11] Cass. 2e civ., 6 mai 2021, n° 19-25524, D.

[12] Cass. 2e civ., 14 avr. 2016, nos 15-16625 et 15-22147 – Cass. 2e civ., 18 mai 2017, n° 16-15912, F-PB. V. égal. CE, 5e-4e ss-sect. réunies, 4 déc. 2009, n° 309521 : Lebon (décision implicite).

[13] V. not., très clairement en ce sens, Cass. 2e civ., 14 avr. 2016, nos 15-16625 et 15-22147.

[14] Par exemple : travaux de terrassement, électrification et automatisation d’un portail (à noter qu’il appartient de réserver l’entièreté du temps de travail des soignants aux seuls soins à apporter à la victime) et des volets, installation de rampes d’accès, remplacement des portes.

Intelligence artificielle et réparation des dommages

Groupe de recherche européen sur la responsabilité civile et l’assurance, Journées lyonnaises, 2021, Bruylant 2022, à paraître

Intelligence artificielle, réparation des dommages et arbitrage[1]. A la question de savoir quels rapports entretiennent « intelligence artificielle » et « réparation des dommages », deux positions extrêmes semblent se dessiner. Les rapports nationaux sont en ce sens.

La première position, conservatrice et prudente, consiste à défendre que peu importants soient les apports de la technologie à notre affaire, il n’est pas de bonne méthode de faire dire le droit en général et plus particulièrement le droit civil de la responsabilité par une intelligence artificielle. Le droit, mieux la justice (qui est un projet plus grand), est une affaire de femmes et d’hommes instruits et rompus à l’exercice qui, au nom du peuple français, départagent les parties à la cause et ramènent la paix sociale. En somme, c’est d’intelligence originelle partant humaine dont il doit être question.

La seconde position, novatrice mais aventureuse, consiste à soutenir que les facilités promises sont telles que l’algorithmisation du droit de la responsabilité à visée réparatrice est un must have ; que ce serait à se demander même pour quelle raison le travail de modélisation scientifique n’est pas encore abouti.

Tous les rapports nationaux renseignent le doute ou l’hésitation relativement à la question qui nous occupe. Cela étant, en Allemagne et en France, il se pourrait qu’on cédât franchement à la tentation tandis qu’en Belgique, en Italie (rapp. p. 1) ou encore en Roumanie, le rubicon ne saurait être résolument franchi à ce jour. Que la technologie ne soit pas au point ou bien que les techniciens ne soient pas d’accord, c’est égal.

Chaque thèse a ses partisans. Et c’est bien naturel. Ceci étant, choisir l’une ou bien l’autre sans procès c’est renoncer d’emblée et aller un peu vite en besogne. Or, celui qui ne doute pas ne peut être certain de rien (loi de Kepler).

Intelligence artificielle, réparation des dommages et doute. Formulée autrement, la question des rapports qu’entretiennent « intelligence artificielle » et « réparation des dommages » invite à se demander si le droit de la responsabilité peut frayer ou non avec la science toute naissante de la liquidation algorithmique des chefs de dommages. Peut-être même s’il le faut.

Ce n’est pas de droit positif dont il s’agit. Ce n’est pas un problème de technique juridique – à tout le moins pas en première intention – qui est ici formulé. Il ne s’agit pas de se demander comment articuler les facilités offertes par la Machine avec les règles de droit processuel. Il ne s’agit pas de se demander quoi faire des résultats proposés par un logiciel relativement au principe substantiel (matriciel) de la réparation intégrale. Il ne s’agit même pas de se demander si l’algorithmisation porterait atteinte à un droit ou liberté fondamentale que la constitution garantit. Les faiseurs de systèmes que nous sommes sauraient trouver un modus operandi. C’est une question plus fondamentale qui est posée dans le cas particulier, une question de philosophie du droit. S’interroger sur les rapports que pourraient entretenir « intelligence artificielle » et « réparation des dommages » ne consiste pas à se demander ce qu’est le droit de la responsabilité civile à l’heure de l’open data et de la data science mais bien plutôt ce que doit être le droit. C’est encore se demander collectivement ce qui est attendu de celles et ceux qui pratiquent le droit et façonnent à demande ses règles. C’est de science algorithmique et d’art juridique dont il est question en fin de compte. Voilà la tension dialectique qui a réunit tous les présents aux journées lyonnaises du Groupe de recherche européen sur la responsabilité civile et l’assurance et qui transparaît à la lecture de tous les rapports nationaux.

Pour résumer et se rassurer un peu, rien que de très ordinaire pour nous autres les juristes et le rapporteur de synthèse auquel il est demandé d’écrire une histoire, un récit d’anticipation.

Science algorithmique, art juridique et récit d’anticipation. Nous ne saurions naturellement procéder in extenso. La tâche serait trop grande. Qu’il nous soit permis de ne poser ici que quelques jalons avant que nous débattions pour qu’à la fin (il faut l’espérer) nous puissions y voir plus clair.

Le récit d’anticipation proposé, d’autres s’y sont attelés bien avant nous. En 1956, un romancier américain décrit un monde dans lequel un système prédictif est capable de désigner des criminels en puissance sur le point de commettre une infraction. Stoppés in extremis dans leur projet respectif, ils sont jugés sur le champ et écroués. Spielberg adaptera cette nouvelle en 2002. Minority report était créé. Il y sera question de prédiction mathématique, de justice algorithmisée et d’erreur judiciaire. C’est que, aussi ingénieux soit le système, il renfermait une faille. Nous y reviendrons. Plus récemment, et ce n’est pas de fiction dont il s’agit, une firme – Cambridge analytica – s’est aventurée à renseigner à l’aide d’un algorithme, alimenté de données personnelles extraites à la volée de comptes Facebook de dizaines de millions d’internautes, les soutiens d’un candidat à la magistrature suprême américaine. Ce faisant, l’équipe de campagne était en mesure de commander des contenus ciblés sur les réseaux sociaux pour orienter les votes.

Que nous apprennent ces deux premières illustrations. Eh bien qu’il y a matière à douter sérieusement qu’une intelligence artificielle puisse gouverner les affaires des hommes.

Preuve s’il en était besoin que les nombres n’ont pas forcément le pouvoir ordonnateur qu’on leur prête depuis Pythagore. Or (c’est ce qui doit retenir l’attention) s’il existe au moins deux façons de faire quelque chose et qu’au moins l’une de ces façons peut entraîner une catastrophe, il se trouvera forcément quelqu’un quelque part pour emprunter cette voie (loi de Murphy).

Pouvoir ordonnateur des nombres, loi de Murphy et principe de réalité. Le risque étant connu, peu important que sa réalisation soit incertaine, nous devrions par voie de conséquence nous garder (à tout le moins en première intention) de prier qu’une pareille intelligence réparât les dommages de quelque nature qu’ils soient. Ceci étant, et relativement à la méthode proposée, doutons méthodiquement soit qu’il s’agisse, après mûre réflexion, de renforcer les résolutions des opposants à l’algorithmisation de la responsabilité civile, soit (et à l’inverse) qu’il s’agisse de soutenir les solutions des zélateurs du droit 2.0.

Car autant le dire tout de suite avec les rapporteurs nationaux, si la question des rapports qu’entretiennent « intelligence artificielle » et « réparation des dommages » se pose c’est que les outils de modélisation scientifique ne sont pas une vue de l’esprit. Les instruments d’aide à la décision médicale ou bien encore à la chirurgie (ex. le diagnostic algorithmique et, plus ambitieux encore le Health data hub[2]) sont le quotidien des professionnels de santé tandis que les outils d’aide à la décision judiciaire font florès. Des juges américains, sur le point d’accorder une libération sous caution, sont ainsi aider par un logiciel qui évalue le risque de défaut de comparution de l’intéressé (Compas)[3]. Tandis que de côté-ci de l’Atlantique des firmes proposent des systèmes d’aide à la décision juridique ou judiciaire supplantant (bien que ce ne soit pas la vocation affichée des legaltech) les quelques expériences de barémisation indicative bien connues des spécialistes de la réparation du dommage corporel.

Nous reviendrons bien entendu sur les tentatives de réparation algorithmique des dommages qu’on ne manquera pas d’évaluer (II). Mais pour commencer, il nous a semblé nécessaire de s’arrêter sur la tentation de la réparation algorithmique des dommages (I).

I.- La tentation de la réparation algorithmique des dommages

La réparation algorithmique des dommages est tentante pour de bonnes raisons qui tiennent plus particulièrement, d’une part, à la faisabilité technique qui est proposée (A) et, d’autre part, aux facilités juridiques qui sont inférées (B).

A.- Faisabilité technique

La faisabilité technique à laquelle on peut songer est à double détente. C’est d’abord une histoire de droit (1) avant d’être ensuite une affaire de nombres (2).

1.- Histoire de droit

Règle de droit, structuration binaire et révélation mathématique. Le droit aspire à l’algorithmisation car la structuration de la règle est binaire et sa révélation mathématique (ou presque).

La structuration de la règle juridique ressemble à s’y méprendre au langage des microprocesseurs des ordinateurs, au code qui est utilisé dans les technologies de l’information et de la communication. La règle est écrite de façon binaire : si/alors, qualification juridique/régime, conditions/effets, principe/exception. Le législateur et l’ingénieur parlent donc le même langage… Enfin c’est ce dont ce dernier est convaincu.

Quant à la révélation de la règle applicable aux faits de l’espèce, elle suppose de suivre une démarche logique, pour ne pas dire mathématique. Car le droit ne saurait être bien dit sans une pensée rationnelle, la formulation discursive des vérités, sans rigueur ni exactitude. En bref, l’hypothèse de la réparation algorithmique des dommages est plutôt familière au juriste. Pour preuve : le droit et ses méthodes d’exploration et de résolution des problèmes (qui sont des algorithmes en définitive) sont un puissant vecteur de correction de la réalité. Une personne est victime du comportement dommageable d’un individu (le donné) ? Juridiquement, cette dernière est titulaire d’un droit subjectif au paiement d’un contingent de dommages et intérêts compensatoires (le construit). Appréhendés en droit, les faits de l’espèce (la réalité) sont en quelque sorte réencodés.

En bref, les juristes sont invariablement des faiseurs de systèmes techniques et d’algorithmiques.

On ne s’étonnera donc pas que le droit et ses artisans aient vocation à être (r)attrapés par la science et ses industriels qui se jouent des nombres et font des affaires.

2.- Affaire de nombres

Digitalisation et données. Les rapports français et belge montrent plus particulièrement combien la croissance du volume de données disponibles sous forme numérique est exponentielle.

Par voie de conséquence, il existe désormais beaucoup de matière pour nourrir un algorithme quelconque, lui permettre de simuler un phénomène, une situation à l’aune des données qui auront été implémentées dans un programme informatique (qui est appelé « code »). Il est à noter au passage une différence notable entre les pays interrogés dans nos journées lyonnaises. Si les juristes italiens et roumains pratiquent autrement moins l’algorithmisation des règles de la réparation des dommages que leurs homologues allemands et français, c’est très précisément parce que la digitalisation des décisions de justice est moins avancée à ce jour. Quant à la Belgique, le rapport national renseigne l’existence d’un obstacle juridique à ladite digitalisation, qui vient tout récemment d’être levé. À terme, il devrait y avoir suffisamment de matière pour alimenter un algorithme. La Belgique se rapprocherait donc de très près de la France.

Il est remarquable qu’en France précisément des millions de données juridiques aient été mises à disposition pour une réutilisation gratuite[4] par le service public de la diffusion du droit en ligne – Legifrance pratique l’open data[5]. Ce n’est pas tout. Depuis quelques semaines à présent, toutes les décisions rendues par la Cour de cassation française sont aussi en open data. Il devrait en être de même au printemps 2022 des décisions des cours d’appel (hors matière pénale)[6]. Même chose du côté du Conseil d’État français.

La tentation de l’algorithmisation est donc grande car c’est tout à fait faisable techniquement, tout particulièrement en France qui se singularise très nettement dans le concert des droits nationaux continentaux interrogés. Mais il y a d’autres raisons qui président à l’algorithmisation sous étude : ce sont les facilités juridiques qui sont proposées par l’intelligence artificielle.

B.- Facilités juridiques

Égalité, intelligibilité et acceptabilité. Au titre des facilités qu’on peut inférer juridiquement parlant des algorithmes à visée réparatoire, on doit pouvoir compter une intelligibilité améliorée des règles applicables à la cause partant une égalité nominale des personnes intéressées et une acceptabilité possiblement renforcées du sort réservé en droit à la victime.

Il faut bien voir que les règles qui gouvernent la réparation des dommages, et plus particulièrement les atteintes à l’intégrité physique, ne sont pas d’un maniement aisé. La monétisation de toute une série de chefs de dommages tant patrimoniaux (futurs) qu’extrapatrimoniaux suppose acquise une compétence technique pointue. Un étalonnage mathématisé présenterait entre autres avantages de prévenir une asymétrie éventuelle d’information en plaçant toutes les personnes sur un pied d’égalité (à tout le moins nominale)[7] à savoir les victimes, leurs conseils, leurs contradicteurs légitimes et leurs juges.

Au fond, et ce strict point de vue, la réparation algorithmique des dommages participe d’une politique publique d’aide à l’accès au droit qui ne dit pas son nom. La notice du décret n° 2020- 356 du 27 mars 2020 Datajust élaborant un référentiel indicatif d’indemnisation des dommages corporels est en ce sens[8].

C’est encore dans le cas particulier l’acceptabilité de la décision qui se joue possiblement C’est que le statut de celui ou celle qui a procédé à l’indemnisation est nécessaire pour conférer son autorité à l’énoncé mais pas suffisant. Toutes les fois que le dommage subi est irréversible, que le retour au statu quo ante est proprement illusoire (et c’est très précisément le cas en droit de la réparation d’un certain nombre de chefs de dommages corporels) on peut inférer de l’algorithmisation de la réparation des dommages une prévention contre le sentiment d’arbitraire que la personne en charge de la liquidation des chefs de préjudice a pu faire naître dans l’esprit de la victime.

Voilà une première série de considérations qui participe de la tentation de la réparation algorithmique des dommages. Puisque selon la loi de Casanova, la meilleure façon d’y résister est d’y succomber, je vous propose de braquer à présent le projecteur sur les tentatives de réparation algorithmique des dommages.

II.- Les tentatives de réparation algorithmique des dommages

Opérateurs privés vs administration publique. Les tentatives de réparation algorithmique des dommages sont relativement nombreuses et plutôt récentes, à tout le moins en France car, une fois encore, et à ce jour, le recours à l’intelligence artificielle est plus anecdotique, réduit (en comparaison avec la France) – un état basal ou élémentaire – dans les autres droits internes sous étude.

Ces tentatives sont des plus intéressantes en ce sens qu’elles ont eu notamment pour objet et/ou effet de parachever un travail polymorphe entamé il y a plusieurs années à présent et accompli tous azimuts qui est fait (pour ne prendre que quelques exemples saillants rappelés par les rapporteurs nationaux) d’articles de doctrine renseignant les pratiques indemnitaires des tribunaux et des cours d’appel, de barèmes plus ou moins officiels, de guides ou vade-mecum, de nomenclatures et de référentiels. Les juristes belges et français les pratiquent volontiers pendant qu’avocats et juges ne manquent pas de rappeler que ces outils d’aide à la décision ne sauraient jamais être contraignants : principe de la réparation intégrale obligerait…

Depuis lors, ce sont positionnées sur le segment de marché de la digitalisation de la justice, de l’algorithmisation de la réparation des dommages, de nouveaux opérateurs – plus ou moins capés à en croire les rapporteurs – privés[9] et publics[10].

Une analyse critique de l’offre de services en termes d’intelligence artificielle ainsi formulée par les legaltechs sera faite d’abord (A). Un essai à visée plus prospective sera proposé ensuite (B).

A.- Analyse critique

Biais de raisonnement. L’analyse critique de l’algorithmisation de la réparation des dommages que nous proposons d’esquisser consiste à identifier quelques biais de raisonnement induits par l’intelligence artificielle et dont il importe qu’on se garde à tout prix. Nous nous sommes demandés en préparant ce rapport si ce n’était pas la crainte d’échouer dans cette entreprise d’évaluation critique et de contrôle systématique qui faisait douter qu’il faille pousser plus loin l’expérience.

Le problème de fond nous semble tenir au fait qu’un esprit mal avisé pourrait se convaincre qu’une suggestion algorithmique dite par une machine serait équipollente à la vérité juridique recherchée par une femme ou un homme de l’art.

L’embêtant dans cette affaire tient plus concrètement d’abord à la performativité du code (1) et à l’opacité de l’algorithme ensuite (2).

1.- Performativité du code

Suggestion algorithmique vs vérité juridique. La réparation algorithmique des dommages a un mérite : elle simplifie la recherche de la vérité, plus encore pour celles et ceux qui ne pratiqueraient la matière qu’occasionnellement ou bien qui seraient tout juste entrés en voie de spécialisation. Seulement voilà : la paroi est mince entre facilitation et supplantation. Il n’est pas assez d’écrire qu’un référentiel d’indemnisation est indicatif, qu’il ne saurait jamais être rangé dans les normes de droit dur. Le savoir algorithmique est performatif (voire impératif pour celui qui le pratiquerait sans prudence) et ce pour plein de raisons (recherche du temps perdu entre autres). Volens nolens, son utilisation finit toujours par être mécanique. Alors, le doute méthodique du juriste, qui est la condition sine qua non pour accéder à la vérité, est chassé par la certitude scientifique apparente de la machine. Pour le dire autrement, le savoir prédictif est normatif. Et il n’y a qu’un pas pour que la vérité censée être dite par personnes instruites et sachantes soit en définitive dite par une machine qui ordonne des 0 et des 1. C’est le delta qui existe si vous voulez entre les mathématiques de l’intelligibilité et les mathématiques que j’ai appelées ailleurs de contrôle[11].

Rien de bien grave nous dira peut-être le rapporteur allemand toutes les fois (à tout le moins) qu’il ne s’agit que de réparer des dommages de masse de faible valeur. Il reste que, dans tous les cas de figure, la suggestion algorithmique est le fruit de l’apprentissage de données tirées du passé. Au mieux, le code informatique peut dire ce qui est mais certainement pas (à tout le moins pas encore) ce qui doit être. L’intelligence artificielle que nous pratiquons (qualifiée de « faible ») n’est pas encore capable de le faire. C’est que cette dernière IA n’est qu’un programme qui n’est pas doté de sens et se concentre uniquement sur la tâche pour laquelle il a été programmé. En bref, les machines ne pensent pas encore par elles-mêmes (ce qu’on appelle le machine learning ou IA « forte »).

Alors, et cela pourrait prêter à sourire, aussi moderne soit ce code informatique là, il est porteur d’une obsolescence intrinsèque qu’on fait mine de ne pas voir. Que la binarité soit un trait caractéristique de la structuration de la règle de droit et que, par voie de conséquence, la modélisation mathématique soit séduisante est une chose. Il reste que dire le droit et rendre la justice impliquent la recherche d’un équilibre entre des intérêts concurrents dont le tiers-juge est le garant (en dernière intention). Droit et justice ne sont pas synonyme. Si la règle juridique aspire à la binarité, sa mise en œuvre se recommande d’un ternaire… En bref, on ne saurait jamais se passer d’un tiers neutre même pas dans une startup nation.

Qu’il soit juridique ou algorithmique, un code se discute. Seulement pour que chacun puisse se voir juridiquement et équitablement attribuer ce qui lui est dû, il importe de lever l’opacité de l’algorithme.

2.- Opacité de l’algorithme

Le code 2.0 doit retenir l’attention de tout un chacun. Aussi puissants soient les calculateurs, et peu important que l’algorithme soit programmé pour apprendre, les machines ne sont encore que le produit de la science humaine, la donnée est encore l’affaire de femmes et d’hommes. Ce n’est pas le moindre des biais méthodologiques. Il a ceci de commun avec celui qu’on vient de décrire qu’il est trompeur.

Biais méthodologiques. Les résultats qui sont renseignés par un système d’information (output) sont toujours corrélés aux données qui ont été collectées puis entrées (input). De quoi parle-t-on ? Eh bien de jugement de valeurs dans tous les sens du terme (juridique et technologique). Or un juge, quel qu’il soit, a une obligation : celle de motiver sa décision (art. 455 du Code de procédure civile). Et ce pour de justes et utiles raisons que nous connaissons bien : prévention de l’arbitraire et condition du contrôle de légalité. Quand on sait la puissance performative de la modélisation mathématique, ce serait commettre une erreur de ne pas rechercher à lever l’opacité algorithmique qui est bien connue des faiseurs de systèmes d’informations.

Clef de voûte. La transparence en la matière est la clef de voute. L’édification mathématique ne saurait valablement prospérer sans que la méthode analytique des décisions sélectionnées aux fins d’apprentissage de l’algorithme n’ait été explicitée, sans que la sélection des décisions de justice voire des transactions n’ait été présentée, sans que la qualité et le nombre des personnes qui ont procédé n’aient été renseignés. Seulement voilà, et ce qui suit n’augure rien de très bon : le code informatique est un secret industriel protégé en tant que tel que les legaltechs, qui sont en concurrence, n’ont aucun intérêt à révéler. Les initiatives publiques doivent donc être impérativement soutenues. L’accessibilité doit être garantie. En bref, Datajust, qui est un référentiel public relatif à l’indemnisation des victimes de dommages corporels, est la voie à suivre. Encore qu’il ne satisfasse pas complètement aux conditions de praticabilité et de démocratisation attendus. Et que, partant, sa performativité soit possiblement trop grande. Possiblement car l’essai n’a pas été encore transformé en raison des doutes que le décret a suscité.

Doutes que nous souhaiterions aborder à présent dans un essai prospectif pour lister quelques conditions qui nous semble devoir être satisfaites pour qu’ils soient levés.

B.- Essai prospectif

À titre de remarque liminaire, il faut dire (qu’on la redoute ou non) que l’algorithmisation de la réparation des dommages ne saurait prospérer sans que, au préalable, de la donnée soit mise à la disposition du public et des opérateurs. Or, open data et big data ne sont pas aussi répandus qu’on veut bien l’imaginer. En France, nous y sommes presque bien que, en l’état, le compte n’y soit pas tout à fait encore[12]. Ailleurs, la donnée est la propriété presque exclusive de firmes privées qui monnayent un accès amélioré aux décisions de justice sélectionnées par elles-mêmes (Belgique) ou bien la donnée ne peut tout bonnement pas être partagée (Italie).

Une fois cette condition remplie, l’algorithme est en mesure de travailler. Pour s’assurer que le travail soit bien fait, il importerait qu’on s’entende sur quelques spécifications techniques et politiques. C’est sur ces dernières que je souhaiterais conclure.

Régulation. En l’état, les systèmes d’information ne sont pas régulés du tout. On se souviendra qu’il aura fallu une exploitation abusive et sans précédent des données personnelles par les Gafam[13] pour qu’on se décide à élaborer un règlement général sur la protection desdites données. Seulement, et sans préjudice des dommages causés aux personnes concernées, il n’est pas ou plus question ici de l’accaparement de données par quelques firmes de marchands. L’affaire est d’un tout autre calibre. C’est d’assistance à la décision juridique ou judiciaire dont il est question. Que la justice ne soit plus tout à fait une fonction régalienne de l’État, admettons. Mais les responsabilistes ne sauraient prêter leur concours sans aucune prévention à l’utilisation de l’intelligence artificielle dans la réparation des dommages. Pour le dire autrement, une gouvernance technique et scientifique nous semble devoir être mise en place. Cette exigence est présente dans les rapports tout particulièrement dans le rapport belge.

Règlementation. Le 21 avril 2021 a été diffusé une proposition de règlement européen établissant des règles harmonisées concernant l’intelligence artificielle[14] dans laquelle les IA sont distinguées selon le risque qu’elles font courir. Et des intelligences artificielles, destinées à suggérer le droit pour faire bref, d’être qualifiées de « systèmes à haut risque »…

En résumé, le code doit être connu de ses utilisateurs, les données primitives exploitées par l’algorithme doivent être indexées, une révision des contenus doit être programmée, des évaluations et crash-test doivent être faits. Et nous sommes loin d’épuiser les conditions qu’il s’agirait qu’on respectât pour bien faire. C’est de « gouvernance des algorithmes » dont il est question au fond[15]. C’est qu’il ne faut jamais perdre de vue la puissance normative de la modélisation mathématico-juridique ainsi que les biais algorithmiques. En bref, la logique mathématique ne saurait jamais être complètement neutre. C’est le sens des théorèmes d’incomplétude formulés par Kurt Gödel (1931).

En conclusion et parce que nous sommes convaincus qu’on ne stoppera pas le mouvement d’algorithmisation de la réparation des dommages, permettez-nous de formuler une question qui transparaît des rapports nationaux : veut-on que du droit soit suggéré par des algorithmes (privés) faiseurs de loi ou bien par un législateur faiseur d’algorithmes (publics) ?


[1] La forme orale de ce rapport a été conservée.

[2] https://www.health-data-hub.fr/

[3] V. not. sur ce sujet, A. Jean, Les algorithmes sont-ils la loi ? Editions de l’observatoire,

[4] Arr. du 24 juin 2014 relatif à la gratuité de la réutilisation des bases de données juridiques de la direction de l’information légale et administrative.

[5] Plateforme ouverte des données publiques françaises https://www.data.gouv.fr. Service public de la diffusion du droit en ligne : https://www.legifrance.gouv.fr/

[6][6] https://www.courdecassation.fr/la-cour-de-cassation/demain/lopen-data-des-decisions-judiciaires

[7] J. Bourdoiseau, Intelligence artificielle, réparation du dommage corporel et assurance, Dalloz IP/IT, 2022 (à paraître).

[8] Expérimentation dont la légalité a été vérifiée par le Conseil d’État français (CE, 10e et 9e ch. réunies, 30 déc. 2021, n° 440376) mais que le Gouvernement a décidé d’abandonner (Ministère de la justice, comm., 13 janv. 2022). Ch. Quézel-Ambrunaz, V. Rivollier et M. Viglino, Le retrait de Datajust ou la fausse défaite des barèmes, D. 2022.467.

[9] Allemagne : Actineo. Belgique : Grille corpus, Repair, Jaumain. France : Case law analytics, Predictice, Juridata analytics. Voy. par ex. J. Horn, Exemple d’utilisation d’une solution IA développée par une legaltech dans des contentieux PI – Utilisation de LitiMark, Dalloz IP/IT 2021.263.

[10] France : Datajust. Italie : legal analytics for italian law.

[11] J. Bourdoiseau, La réparation algorithmique du dommage corporel : binaire ou ternaire ?, Resp civ. et assur. mai 2021, étude 7.

[12] Il est à noter, pour ne prendre que cet exemple, que les juges administratifs français ont accès à la totalité des décisions rendues (quel que soit le degré de juridiction) à l’aide d’un outil qui n’est mis à disposition que pour partie aux justiciables (ce qui interroge), à tout le moins à ce jour (https://www.conseil-etat.fr/arianeweb/#/recherche).

[13] Google, Apple, Facebook (Meta), Amazon, Microsoft. Voy. aussi les géants chinois : BATX (Baidu, Alibaba, Tencent, Xiaomi).

[14] https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX:52021PC0206

[15] Voy. not. L. Huttner et D. Merigoux, Traduire la loi en code grâce au langage de programmation Catala, Dr. fiscal févr. 2021.121. Voy. aussi Autorité de contrôle prudentiel et de résolution, La transformation numérique dans le secteur français de l’assurance, analyses et synthèses n° 132, 2018 ; Institut Montaigne, Algorithmes : contrôle des biais, rapport, mars 2020,

(https://www.institutmontaigne.org/publications/algorithmes-controle-des-biais-svp)