Interface homme-machine.- Qui consomme des biens et des services sur le web a dû, à un moment ou un autre, avoir été prié par un système d’informations d’attester qu’il n’était pas une machine… Voilà une bien singulière révolution. C’est dire combien la fameuse IHM – interface homme-machine – est pleine de virtualités potentielles qui échappent encore à beaucoup de gens, juristes compris dont la production de droit est encore (et pour l’essentiel) artisanale tandis qu’elle aspire pourtant ici et là à l’industrialisation.
Algorithmisation.- La question des rapports qu’entretiennent intelligence artificielle, réparation du dommage corporel et assurance se pose plus particulièrement depuis que la nouvelle économie (celle de la startup nation, du big data,de l’open data, de la data science et des legaltechs) rend possible l’algorithmisation du droit. En résumé, il se pourrait fort bien que les affaires des hommes puissent être gouvernées par une intelligence artificielle et que, pour ce qui nous concerne plus particulièrement, la liquidation des chefs de préjudices corporels puisse être plutôt bien dite à l’aide d’outils de modélisation scientifique et ce par anticipation.
Clef de voûte.- Anticipation. Voilà la clef de voûte, qui ne saurait exclusivement avoir partie liée avec la cinématographie, la météorologie ou bien encore la cartomancie. C’est que le désir de connaître est irrépressible, toutes les parties intéressées recherchant le montant des dommages et intérêts compensatoires en jeu. Quant à l’assureur du risque de responsabilité civile, le calcul de la provision technique ne souffre pas le doute (pas plus que le calcul de la dotation générale de fonctionnement des fonds d’indemnisation et de garantie). Seulement voilà, la variance du risque de responsabilité est telle que son assurabilité est structurellement précaire. Aussi, et à titre très conservatoire à ce stade, peut-on inférer de l’intelligence artificielle une baisse significative de ladite variance pour les uns et une augmentation remarquable de la prévoyance pour les autres.
Ternaire.- À la question posée de savoir quel apport au singulier est-on en droit d’attendre de l’intelligence artificielle à la réparation du dommage corporel, toute une série de mots peut être convoquée, lesquels mots, une fois regroupés, forment un ternaire : prévisibilité, facilité, sécurité et qui participent, plus fondamentalement de l’égalité de tout un chacun devant la connaissance.
C’est ce qui sera montré en premier lieu, à savoir combien, et c’est heureux au fond, l’égalité apportée par l’algorithmisation du droit de la réparation du dommage corporel est profitable I). Chose faite, une fois le projecteur braqué sur les tenants de l’intelligence artificielle, il importera, en second lieu, d’attirer l’attention sur les zones d’ombres et les aboutissants de l’algorithmisation de la matière pour dire combien ladite égalité est trompeuse en ce sens qu’elle n’est que nominale (II).
I.- Heureuse et profitable égalité apportée par l’algorithmisation de la réparation du dommage corporel
La connaissance par toutes les parties intéressées du quantum des dommages et intérêts susceptibles d’être grosso modo alloués dans un cas particulier participe d’une heureuse et profitable égalité. La data science et l’algorithmisation de la réparation du dommage corporel autorisent à croire, d’une part, que l’égalité sous étude est faisable techniquement et donnent à penser, d’autre part, qu’elle est opportune politiquement.
A.- Faisabilité technique
Réservation.- Le recours à l’intelligence artificielle dans le dessein de garantir à tout un chacun un égal accès à la connaissance est faisable techniquement bien que la liquidation des chefs de préjudices corporels soit un exercice relativement complexe, qui est l’affaire de personnes sachantes qui ne sont pas très nombreuses ni pas toujours très faciles à identifier.
Rares sont les justiciables qui savent que la maîtrise du droit du dommage corporel est une spécialité que peuvent renseigner quelques avocats-conseils[1] et un contentieux exclusivement confié aux tribunaux judiciaires à défaut de transaction[2]. Rares sont encore les juristes ou les personnes instruites qui peuvent sans trop de difficultés s’aventurer. Ce n’est pas à dire qu’aucune formation ne soit proposée ni qu’aucune source doctrinale ou jurisprudentielle ne soit accessible en la matière. Bien au contraire. Seulement voilà, la connaissance élémentaire du droit de la réparation du dommage corporel se monnaye (formation, abonnement, honoraires) tandis que, dans le même temps, toutes les règles qui organisent le paiement des dommages et intérêts compensatoires sont désormais en libre accès. Cela a été bien vu par les faiseurs de systèmes algorithmiques qui sont très désireux de proposer à la vente quelques nouveaux services, considérant à raison que la connaissance pure est à présent libre de droits. Nous y reviendrons.
Invention.- Pour l’heure, faute de traitement automatisé des données ni de référentiel indicatif d’indemnisation des préjudices corporels 2.0, toutes les personnes intéressées sont laissées à leur imagination fertile et leurs ressources techniques respectives pour gagner en efficacité. Il faut bien voir que le dommage causé est irréversible et le retour au statu quo ante illusoire. Aussi bien les opérateurs économiques ont-ils toujours recherché un moyen de procéder méthodiquement tantôt pour informer, tantôt pour conseiller, tantôt pour transiger, tantôt pour juger : toujours, et invariablement, pour économiser du temps (à tout le moins)[3]. L’élaboration d’étalonnages s’est donc nécessairement faite de façon manuelle mais confidentielle pour l’essentiel par chacun des acteurs de la réparation : maximisation de l’allocation des ressources oblige.
Disruption.- Les algorithmiciens ont trouvé dans le droit un terrain fructueux d’expérimentation. Les juristes ont d’abord résisté. Ils sont nombreux à continuer du reste en repoussant l’algorithmisation. Et de soutenir que le droit est affaire des seuls femmes et hommes passés grands maîtres dans l’art de liquider les chefs de préjudices corporels et de garantir le principe de la réparation intégrale. Mais aussi vertueuse soit la démarche, qui est animée par le désir de protéger au mieux les victimes, n’est-il pas douteux qu’on puisse continuer de s’opposer à toute invention qui participerait d’un égal accès à la connaissance ? Car, c’est ce dont il semble bien être question en vérité.
D’ingénieux informaticiens accompagnés par d’audacieux juristes ont fait le pari que l’algorithmisation du droit n’était pas une lubie de chercheurs désœuvrés et par trop aventureux mais une remarquable innovation de rupture. Innovation qui se caractérise précisément par la modification d’un marché en l’ouvrant au plus grand nombre.
Il faut bien voir que le droit aspire (naturellement pourrait-on dire) à l’algorithmisation. On l’a montré ailleurs[4]. La structuration de la règle juridique est de type binaire (qualification juridique/régime, conditions/effets, principe/exception…). Quant à sa révélation, elle est mathématique (ou presque) en ce sens qu’elle suppose employées quelques méthodes éprouvées d’exploration et de résolution des problèmes. Ainsi présenté, le droit ressemble assez au langage des microprocesseurs des ordinateurs, au code qui est utilisé dans les technologies de l’information et de la communication. Le juriste et l’informaticien, le législateur et l’ingénieur, ne parleraient-ils pas le même langage en fin de compte ou, à tout le moins, un langage plus commun qu’il n’y paraît de prime abord ?
En résumé, l’algorithmisation sous étude participe très certainement d’un égal accès à la connaissance. Non seulement, il est techniquement faisable de le garantir mais, plus encore, il est politiquement opportun de procéder.
B.- Opportunité politique
Open data.- Les industriels n’ont pas manqué de relever le caractère assez artisanal de nombreux pans ou chaînes de production du droit. Dans le même temps, jamais le volume de données disponibles en France et mises à disposition pour une utilisation gratuite n’a été si grand[5]. Tout Legifrance, tous les arrêts de la Cour de cassation, toutes les décisions du Conseil d’État sont en open data (https://www.data.gouv.fr). Il en sera de même sous peu de tous les arrêts rendus par les cours judiciaires d’appel.
Datajust.- Sur cette pente, le Gouvernement a publié un décret n° 2020-356 du 27 mars 2020 Datajust ayant pour finalité le développement d’un algorithme destiné précisément à permettre l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels. Peu important les critiques qui ont pu être formulées quant au déploiement du dispositif, l’intention était des plus intéressantes[6]. Saisi, le Conseil d’État considérait du reste le 30 décembre dernier qu’il n’y avait aucune raison d’annuler ledit décret[7]. Le 13 janvier dernier, le ministère de la justice faisait pourtant machine arrière et renonçait (pour l’instant) à l’expérimentation.
Justice algorithmique.- Que l’algorithmisation de la réparation du dommage corporel fasse naître quelques craintes, et que la méthode employée soit critiquable, personne n’en disconviendra. Il faut bien voir que pratiquer une intelligence artificielle dans notre cas particulier, c’est une sacrée entreprise, à savoir : renseigner la créance de réparation de la victime et la dette de dommages et intérêts du responsable. En bref, c’est dire du droit assisté par ordinateur et possiblement faire justice. Que l’IA participe du règlement amiable des différends, chacun étant peu ou prou avisé de ses droits et obligations respectifs, que, partant, le référentiel indicatif d’indemnisation des préjudices corporels désengorge les tribunaux, c’est chose. Seulement voilà, toute cette ingénierie n’est acceptable que pour autant que l’algorithmisation de la réparation n’est pas l’affaire des seuls opérateurs économiques, privés s’entend[8].
Service public.- Il serait des plus opportuns que l’État s’applique à développer un algorithme et/ou à réguler les modèles mathématiques existants : service public du droit et de la justice oblige. La nature est ainsi faite qu’elle exècre le vide. Les systèmes algorithmiques à visée indemnitaire ne sont plus du tout underground pendant qu’ils sont autrement plus fructueux que les publications (sans préjudice de leur qualité naturellement) qui consistent à renseigner les pratiques des juridictions (pour l’essentiel), des barémisations, des nomenclatures, des référentiels. Seulement, en l’état, lesdits systèmes ne sont pas régulés du tout. Or c’est d’aide à la décision juridique et juridictionnelle dont il est question. Sous couvert de participer à la défense d’un égal accès à la connaissance de tout un chacun, ces legal startups pourraient donner à penser aux victimes et à celles et ceux qui pratiquent leurs algorithmes que le droit serait une suite sans discontinuité ni rupture de données élémentaires que rien ne ferait plus mentir. Chose faite, seul le fort, à savoir celui qui a la connaissance du droit et la puissance rhétorique de se disputer, saurait déjouer la vérité algorithmique. La prudence est donc de mise.
C’est ce qu’il importe à présent d’aborder à savoir qu’à la différence de l’ordre juridique, l’ordre numérique ne promeut qu’une bien trompeuse égalité nominale.
II.- Trompeuse et nominale égalité apportée par l’algorithmisation de la réparation du dommage corporel
L’égalité nominale d’accès à la connaissance est trompeuse pour deux séries de raisons. D’une part, l’accaparement de l’algorithmisation par les juristes et plus généralement par toutes les personnes intéressées est vraisemblablement tronquée (A). D’autre part, le chiffrement des règles de droit réalisé par les algorithmiciens est possiblement biaisé (B).
A.- Accaparement tronqué
Efficience.- L’accaparement par tout un chacun des référentiels indicatifs d’indemnisation des préjudices corporels peut être tronqué en ce sens que si la réparation algorithmique lève l’asymétrie d’information et facilite la liquidation des chefs de préjudices réparables, le trait qui sépare simplification et simplisme n’est pas épais. Prenons garde à ce que sous couvert de facilitation, il ne s’agisse pas bien plutôt de supplantation.
La réparation algorithmique a un mérite : elle simplifie très notablement la recherche de la vérité pendant qu’elle réduit les coûts de production. Mais à la manière d’un code juridique imprimé par un éditeur dont le maniement des notes sous articles est des plus commodes pour le spécialiste mais se révèle être un faux ami pour celui qui s’y aventure à l’occasion, le code informatique pourrait tromper ses utilisateurs les moins avertis, qu’ils soient juristes ou bien profanes.
Performativité.- On écrit, comme pour nous rassurer, que les référentiels d’indemnisation quels qu’ils soient ne sont qu’indicatifs, qu’ils ne seraient tout au plus que des vade-mecum. Seulement, il est bien su que le savoir algorithmique est performatif (normatif)[9]. Qu’on le veuille ou non, et les faits sont têtus, l’utilisation de ces outils finit toujours par être mécanique. L’expérience de l’évaluation barémisée du dommage corporel prouve trop. Les experts médicaux se départissent mal des gradations des atteintes renseignées dans leurs livres de travail. Aussi le juriste expert pourrait-il ne pas faire bien mieux à l’heure de monétiser les chefs de préjudices objectivés à l’aide de l’algorithme. Et la personnalisation nécessaire des dommages et intérêts d’être alors reléguée.
Mais il y a plus fâcheux encore car ce premier risque est connu. C’est que le chiffrement des règles juridiques est possiblement biaisé tandis que les intelligences artificielles destinées à suggérer le droit sont des systèmes à haut risque au sens de la proposition de règlement du 21 avril 2021 de la commission européenne sur l’usage de l’IA. Un pareil effet ciseau est aussi remarquable qu’il prête à discussion.
B.- Chiffrement biaisé
Implémentation.- Tant que les machines ne penseront pas par elles-mêmes (machine learning), l’implémentation des données sera encore la responsabilité de femmes et d’hommes rompus à l’exercice. L’interface homme-machine suppose donc l’association de professionnels avisés des systèmes complexes qu’ils soient juridiques ou numériques. Il importe donc que leur qualité respective soit connue de tous les utilisateurs, que la représentativité (qui des avocats de victimes de dommages corporels, qui des fonds d’indemnisation et de garantie, qui des assureurs) ne souffre pas la discussion. C’est d’explicabilité dont il est question ou, pour le dire autrement, d’éthique de la décision.
Pourquoi cela ? Eh bien parce qu’il faut avoir à l’esprit que les informations renseignées par un système d’information quel qu’il soit (output) sont nécessairement corrélées aux données qui sont entrées (input). C’est très précisément là que réside le biais méthodologique et le risque que représente la réparation algorithmique du dommage corporel, biais et risque qui font dire que l’égalité d’accès à la connaissance n’est que nominale ou apparente, c’est selon.
Indexation.- En bref, il importe de toujours rechercher qui a la responsabilité de sélectionner puis de rentrer la donnée pertinente et aux termes de quel protocole. C’est d’indexation dont il est question techniquement. Les données primitives exploitées par l’algorithme doivent être connues des utilisateurs, une révision des contenus doit être programmée, des évaluations et crash-tests doivent être faits…entre autres conditions. C’est ce qu’il est désormais courant d’appeler « gouvernance des algorithmes »[10]. Il ne faut jamais perdre de vue la puissance normative de la modélisation mathématico-juridique ainsi que les biais algorithmiques.
En bref, la logique mathématique ne saurait jamais être complètement neutre. C’est le sens des théorèmes d’incomplétude formulés par Kurt Gödel (1931).
En guise de conclusion, à la question de savoir quel est l’apport de l’IA en droit de la réparation du dommage corporel, l’égalité d’accès à la connaissance est une première réponse qui confine à une quasi certitude. En revanche, à la question de savoir si l’algorithmisation est de nature à faciliter le travail des sachants ou bien à les supplanter, le doute est de mise.
Certains soutiendront qu’il n’appartient pas à la raison mathématique de gouverner les affaires humaines ; que le droit est un art subtil qui échappe encore à la machine qui consiste à concilier deux impératifs antagonistes : la sécurité (pour permettre une prévisibilité suffisante de la solution) et la souplesse (pour permettre son adaptation à l’évolution sociale) ; que, partant, la mathématisation du droit est illusoire.
D’autres défendront que l’algorithmisation, aussi imparfaite soit-elle en droit, n’est pas praticable en économie car elle est inflationniste : les parties intéressées considérant la donnée non pas comme un indicateur en-deçà duquel on peut raisonnablement travailler mais une jauge au-delà de laquelle on ne saurait que toujours aller.
Les arguments des uns et des autres renferment une part de vérité. Ceci étant, si l’on considère qu’il n’est pas déraisonnable du tout d’imaginer que le mouvement d’algorithmisation de la réparation des dommages continue de s’amplifier, une nouvelle question ne manquera pas alors de se poser. La voici : veut-on que du droit soit suggéré par des algorithmes (privés) faiseurs de loi ou bien par un législateur faiseur d’algorithmes (publics) ?
[1] Règlement intérieur national de la profession d’avocat, art. 11-2.
[2] Art. L. 211-4-1 c. org. jud.
[3] Voy. not. en ce sens, S. Merabet, La digitalisation pour une meilleure justice. A propos du plan d’action 2022-25 de la Commission européenne pour l’efficacité de la justice, Jcp G. 2022.5.
[4] La réparation algorithmique du dommage corporel : binaire ou ternaire ?, Resp civ. et assur. mai 2021, étude 7 ; Intelligence artificielle et réparation des dommages in La responsabilité civile et l’intelligence artificielle, Bruylant 2022, à paraître.
[5] Arr. du 24 juin 2014 rel. à la gratuité de la réutilisation des bases de données juridiques de la direction de l’information légale et administrative.
[6] Voy. not. J. Bourdoiseau, Datajust ou la réforme du droit de la responsabilité à la découpe, Lexbase 23 avr. 2020, n° 821 ; R. Bigot, Datajust alias Themis IA, Lexbase 07 mai 2020.
[7] CE, 10e et 9e ch. réunies, 30 déc. 2021, n° 440376.
[8] Voy. par ex. J. Horn, Exemple d’utilisation d’une solution IA développée par une legaltech dans des contentieux PI – Utilisation de LitiMark, Dalloz IP/IT 2021.263.
[9] Voy. not. L. Viaut, L’évaluation des préjudices corporels par les algorithmes, Petites affiches 31 mai 2021, p. 10.
[10] Voy. not. L. Huttner et D. Merigoux, Traduire la loi en code grâce au langage de programmation Catala, Dr. fiscal févr. 2021.121. Voy. aussi Autorité de contrôle prudentiel et de résolution, La transformation numérique dans le secteur français de l’assurance, analyses et synthèses n° 132, 2018 ; Institut Montaigne, Algorithmes : contrôle des biais, rapport, mars 2020 (https://www.institutmontaigne.org/publications/algorithmes-controle-des-biais-svp)
Article à paraître Dalloz IP/IT 2022
No comment yet, add your voice below!