L’intelligence artificielle, la réparation du dommage corporel et l’assurance

Interface homme-machine.- Qui consomme des biens et des services sur le web a dû, à un moment ou un autre, avoir été prié par un système d’informations d’attester qu’il n’était pas une machine… Voilà une bien singulière révolution. C’est dire combien la fameuse IHM – interface homme-machine – est pleine de virtualités potentielles qui échappent encore à beaucoup de gens, juristes compris dont la production de droit est encore (et pour l’essentiel) artisanale tandis qu’elle aspire pourtant ici et là à l’industrialisation.

Algorithmisation.- La question des rapports qu’entretiennent intelligence artificielle, réparation du dommage corporel et assurance se pose plus particulièrement depuis que la nouvelle économie (celle de la  startup nation, du big data,de l’open data, de la data science et des legaltechs) rend possible l’algorithmisation du droit. En résumé, il se pourrait fort bien que les affaires des hommes puissent être gouvernées par une intelligence artificielle et que, pour ce qui nous concerne plus particulièrement, la liquidation des chefs de préjudices corporels puisse être plutôt bien dite à l’aide d’outils de modélisation scientifique et ce par anticipation.

Clef de voûte.- Anticipation. Voilà la clef de voûte, qui ne saurait exclusivement avoir partie liée avec la cinématographie, la météorologie ou bien encore la cartomancie. C’est que le désir de connaître est irrépressible, toutes les parties intéressées recherchant le montant des dommages et intérêts compensatoires en jeu. Quant à l’assureur du risque de responsabilité civile, le calcul de la provision technique ne souffre pas le doute (pas plus que le calcul de la dotation générale de fonctionnement des fonds d’indemnisation et de garantie). Seulement voilà, la variance du risque de responsabilité est telle que son assurabilité est structurellement précaire. Aussi, et à titre très conservatoire à ce stade, peut-on inférer de l’intelligence artificielle une baisse significative de ladite variance pour les uns et une augmentation remarquable de la prévoyance pour les autres.

Ternaire.- À la question posée de savoir quel apport au singulier est-on en droit d’attendre de l’intelligence artificielle à la réparation du dommage corporel, toute une série de mots peut être convoquée, lesquels mots, une fois regroupés, forment un ternaire : prévisibilité, facilité, sécurité et qui participent, plus fondamentalement de l’égalité de tout un chacun devant la connaissance.

C’est ce qui sera montré en premier lieu, à savoir combien, et c’est heureux au fond, l’égalité apportée par l’algorithmisation du droit de la réparation du dommage corporel est profitable I). Chose faite, une fois le projecteur braqué sur les tenants de l’intelligence artificielle, il importera, en second lieu, d’attirer l’attention sur les zones d’ombres et les aboutissants de l’algorithmisation de la matière pour dire combien ladite égalité est trompeuse en ce sens qu’elle n’est que nominale (II).

I.- Heureuse et profitable égalité apportée par l’algorithmisation de la réparation du dommage corporel

La connaissance par toutes les parties intéressées du quantum des dommages et intérêts susceptibles d’être grosso modo alloués dans un cas particulier participe d’une heureuse et profitable égalité. La data science et l’algorithmisation de la réparation du dommage corporel autorisent à croire, d’une part, que l’égalité sous étude est faisable techniquement et donnent à penser, d’autre part, qu’elle est opportune politiquement.

A.- Faisabilité technique

Réservation.- Le recours à l’intelligence artificielle dans le dessein de garantir à tout un chacun un égal accès à la connaissance est faisable techniquement bien que la liquidation des chefs de préjudices corporels soit un exercice relativement complexe, qui est l’affaire de personnes sachantes qui ne sont pas très nombreuses ni pas toujours très faciles à identifier.

Rares sont les justiciables qui savent que la maîtrise du droit du dommage corporel est une spécialité que peuvent renseigner quelques avocats-conseils[1] et un contentieux exclusivement confié aux tribunaux judiciaires à défaut de transaction[2]. Rares sont encore les juristes ou les personnes instruites qui peuvent sans trop de difficultés s’aventurer. Ce n’est pas à dire qu’aucune formation ne soit proposée ni qu’aucune source doctrinale ou jurisprudentielle ne soit accessible en la matière. Bien au contraire. Seulement voilà, la connaissance élémentaire du droit de la réparation du dommage corporel se monnaye (formation, abonnement, honoraires) tandis que, dans le même temps, toutes les règles qui organisent le paiement des dommages et intérêts compensatoires sont désormais en libre accès. Cela a été bien vu par les faiseurs de systèmes algorithmiques qui sont très désireux de proposer à la vente quelques nouveaux services, considérant à raison que la connaissance pure est à présent libre de droits. Nous y reviendrons.

Invention.- Pour l’heure, faute de traitement automatisé des données ni de référentiel indicatif d’indemnisation des préjudices corporels 2.0, toutes les personnes intéressées sont laissées à leur imagination fertile et leurs ressources techniques respectives pour gagner en efficacité. Il faut bien voir que le dommage causé est irréversible et le retour au statu quo ante illusoire. Aussi bien les opérateurs économiques ont-ils toujours recherché un moyen de procéder méthodiquement tantôt pour informer, tantôt pour conseiller, tantôt pour transiger, tantôt pour juger : toujours, et invariablement, pour économiser du temps (à tout le moins)[3]. L’élaboration d’étalonnages s’est donc nécessairement faite de façon manuelle mais confidentielle pour l’essentiel par chacun des acteurs de la réparation : maximisation de l’allocation des ressources oblige.

Disruption.- Les algorithmiciens ont trouvé dans le droit un terrain fructueux d’expérimentation. Les juristes ont d’abord résisté. Ils sont nombreux à continuer du reste en repoussant l’algorithmisation. Et de soutenir que le droit est affaire des seuls femmes et hommes passés grands maîtres dans l’art de liquider les chefs de préjudices corporels et de garantir le principe de la réparation intégrale. Mais aussi vertueuse soit la démarche, qui est animée par le désir de protéger au mieux les victimes, n’est-il pas douteux qu’on puisse continuer de s’opposer à toute invention qui participerait d’un égal accès à la connaissance ? Car, c’est ce dont il semble bien être question en vérité.

D’ingénieux informaticiens accompagnés par d’audacieux juristes ont fait le pari que l’algorithmisation du droit n’était pas une lubie de chercheurs désœuvrés et par trop aventureux mais une remarquable innovation de rupture. Innovation qui se caractérise précisément par la modification d’un marché en l’ouvrant au plus grand nombre.

Il faut bien voir que le droit aspire (naturellement pourrait-on dire) à l’algorithmisation. On l’a montré ailleurs[4]. La structuration de la règle juridique est de type binaire (qualification juridique/régime, conditions/effets, principe/exception…). Quant à sa révélation, elle est mathématique (ou presque) en ce sens qu’elle suppose employées quelques méthodes éprouvées d’exploration et de résolution des problèmes. Ainsi présenté, le droit ressemble assez au langage des microprocesseurs des ordinateurs, au code qui est utilisé dans les technologies de l’information et de la communication. Le juriste et l’informaticien, le législateur et l’ingénieur, ne parleraient-ils pas le même langage en fin de compte ou, à tout le moins, un langage plus commun qu’il n’y paraît de prime abord ?

En résumé, l’algorithmisation sous étude participe très certainement d’un égal accès à la connaissance. Non seulement, il est techniquement faisable de le garantir mais, plus encore, il est politiquement opportun de procéder.

B.- Opportunité politique

Open data.- Les industriels n’ont pas manqué de relever le caractère assez artisanal de nombreux pans ou chaînes de production du droit. Dans le même temps, jamais le volume de données disponibles en France et mises à disposition pour une utilisation gratuite n’a été si grand[5]. Tout Legifrance, tous les arrêts de la Cour de cassation, toutes les décisions du Conseil d’État sont en open data (https://www.data.gouv.fr). Il en sera de même sous peu de tous les arrêts rendus par les cours judiciaires d’appel.

Datajust.- Sur cette pente, le Gouvernement a publié un décret n° 2020-356 du 27 mars 2020 Datajust ayant pour finalité le développement d’un algorithme destiné précisément à permettre l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels. Peu important les critiques qui ont pu être formulées quant au déploiement du dispositif, l’intention était des plus intéressantes[6]. Saisi, le Conseil d’État considérait du reste le 30 décembre dernier qu’il n’y avait aucune raison d’annuler ledit décret[7]. Le 13 janvier dernier, le ministère de la justice faisait pourtant machine arrière et renonçait (pour l’instant) à l’expérimentation.

Justice algorithmique.- Que l’algorithmisation de la réparation du dommage corporel fasse naître quelques craintes, et que la méthode employée soit critiquable, personne n’en disconviendra. Il faut bien voir que pratiquer une intelligence artificielle dans notre cas particulier, c’est une sacrée entreprise, à savoir : renseigner la créance de réparation de la victime et la dette de dommages et intérêts du responsable. En bref, c’est dire du droit assisté par ordinateur et possiblement faire justice. Que l’IA participe du règlement amiable des différends, chacun étant peu ou prou avisé de ses droits et obligations respectifs, que, partant, le référentiel indicatif d’indemnisation des préjudices corporels désengorge les tribunaux, c’est chose. Seulement voilà, toute cette ingénierie n’est acceptable que pour autant que l’algorithmisation de la réparation n’est pas l’affaire des seuls opérateurs économiques, privés s’entend[8].

Service public.- Il serait des plus opportuns que l’État s’applique à développer un algorithme et/ou à réguler les modèles mathématiques existants : service public du droit et de la  justice oblige. La nature est ainsi faite qu’elle exècre le vide. Les systèmes algorithmiques à visée indemnitaire ne sont plus du tout underground pendant qu’ils sont autrement plus fructueux que les publications (sans préjudice de leur qualité naturellement) qui consistent à renseigner les pratiques des juridictions (pour l’essentiel), des barémisations, des nomenclatures, des référentiels.  Seulement, en l’état, lesdits systèmes ne sont pas régulés du tout. Or c’est d’aide à la décision juridique et juridictionnelle dont il est question. Sous couvert de participer à la défense d’un égal accès à la connaissance de tout un chacun, ces legal startups pourraient donner à penser aux victimes et à celles et ceux qui pratiquent leurs algorithmes que le droit serait une suite sans discontinuité ni rupture de données élémentaires que rien ne ferait plus mentir. Chose faite, seul le fort, à savoir celui qui a la connaissance du droit et la puissance rhétorique de se disputer, saurait déjouer la vérité algorithmique. La prudence est donc de mise.

C’est ce qu’il importe à présent d’aborder à savoir qu’à la différence de l’ordre juridique, l’ordre numérique ne promeut qu’une bien trompeuse égalité nominale.

II.- Trompeuse et nominale égalité apportée par l’algorithmisation de la réparation du dommage corporel

L’égalité nominale d’accès à la connaissance est trompeuse pour deux séries de raisons. D’une part, l’accaparement de l’algorithmisation par les juristes et plus généralement par toutes les personnes intéressées est vraisemblablement tronquée (A). D’autre part, le chiffrement des règles de droit réalisé par les algorithmiciens est possiblement biaisé (B).

A.- Accaparement tronqué

Efficience.- L’accaparement par tout un chacun des référentiels indicatifs d’indemnisation des préjudices corporels peut être tronqué en ce sens que si la réparation algorithmique lève l’asymétrie d’information et facilite la liquidation des chefs de préjudices réparables, le trait qui sépare simplification et simplisme n’est pas épais. Prenons garde à ce que sous couvert de facilitation, il ne s’agisse pas bien plutôt de supplantation.

La réparation algorithmique a un mérite : elle simplifie très notablement la recherche de la vérité pendant qu’elle réduit les coûts de production. Mais à la manière d’un code juridique imprimé par un éditeur dont le maniement des notes sous articles est des plus commodes pour le spécialiste mais se révèle être un faux ami pour celui qui s’y aventure à l’occasion, le code informatique pourrait tromper ses utilisateurs les moins avertis, qu’ils soient juristes ou bien profanes.

Performativité.- On écrit, comme pour nous rassurer, que les référentiels d’indemnisation quels qu’ils soient ne sont qu’indicatifs, qu’ils ne seraient tout au plus que des vade-mecum. Seulement, il est bien su que le savoir algorithmique est performatif (normatif)[9]. Qu’on le veuille ou non, et les faits sont têtus, l’utilisation de ces outils finit toujours par être mécanique. L’expérience de l’évaluation barémisée du dommage corporel prouve trop. Les experts médicaux se départissent mal des gradations des atteintes renseignées dans leurs livres de travail. Aussi le juriste expert pourrait-il ne pas faire bien mieux à l’heure de monétiser les chefs de préjudices objectivés à l’aide de l’algorithme. Et la personnalisation nécessaire des dommages et intérêts d’être alors reléguée.

Mais il y a plus fâcheux encore car ce premier risque est connu. C’est que le chiffrement des règles juridiques est possiblement biaisé tandis que les intelligences artificielles destinées à suggérer le droit sont des systèmes à haut risque au sens de la proposition de règlement du 21 avril 2021 de la commission européenne sur l’usage de l’IA. Un pareil effet ciseau est aussi remarquable qu’il prête à discussion.

B.- Chiffrement biaisé

Implémentation.- Tant que les machines ne penseront pas par elles-mêmes (machine learning), l’implémentation des données sera encore la responsabilité de femmes et d’hommes rompus à l’exercice. L’interface homme-machine suppose donc l’association de professionnels avisés des systèmes complexes qu’ils soient juridiques ou numériques. Il importe donc que leur qualité respective soit connue de tous les utilisateurs, que la représentativité (qui des avocats de victimes de dommages corporels, qui des fonds d’indemnisation et de garantie, qui des assureurs) ne souffre pas la discussion. C’est d’explicabilité dont il est question ou, pour le dire autrement, d’éthique de la décision.

Pourquoi cela ? Eh bien parce qu’il faut avoir à l’esprit que les informations renseignées par un système d’information quel qu’il soit (output) sont nécessairement corrélées aux données qui sont entrées (input). C’est très précisément là que réside le biais méthodologique et le risque que représente la réparation algorithmique du dommage corporel, biais et risque qui font dire que l’égalité d’accès à la connaissance n’est que nominale ou apparente, c’est selon.

Indexation.- En bref, il importe de toujours rechercher qui a la responsabilité de sélectionner puis de rentrer la donnée pertinente et aux termes de quel protocole. C’est d’indexation dont il est question techniquement. Les données primitives exploitées par l’algorithme doivent être connues des utilisateurs, une révision des contenus doit être programmée, des évaluations et crash-tests doivent être faits…entre autres conditions. C’est ce qu’il est désormais courant d’appeler « gouvernance des algorithmes »[10]. Il ne faut jamais perdre de vue la puissance normative de la modélisation mathématico-juridique ainsi que les biais algorithmiques.

En bref, la logique mathématique ne saurait jamais être complètement neutre. C’est le sens des théorèmes d’incomplétude formulés par Kurt Gödel (1931).

En guise de conclusion, à la question de savoir quel est l’apport de l’IA en droit de la réparation du dommage corporel, l’égalité d’accès à la connaissance est une première réponse qui confine à une quasi certitude. En revanche, à la question de savoir si l’algorithmisation est de nature à faciliter le travail des sachants ou bien à les supplanter, le doute est de mise.

Certains soutiendront qu’il n’appartient pas à la raison mathématique de gouverner les affaires humaines ; que le droit est un art subtil qui échappe encore à la machine qui consiste à concilier deux impératifs antagonistes : la sécurité (pour permettre une prévisibilité suffisante de la solution) et la souplesse (pour permettre son adaptation à l’évolution sociale) ; que, partant, la mathématisation du droit est illusoire.  

D’autres défendront que l’algorithmisation, aussi imparfaite soit-elle en droit, n’est pas praticable en économie car elle est inflationniste : les parties intéressées considérant la donnée non pas comme un indicateur en-deçà duquel on peut raisonnablement travailler mais une jauge au-delà de laquelle on ne saurait que toujours aller.

Les arguments des uns et des autres renferment une part de vérité. Ceci étant, si l’on considère qu’il n’est pas déraisonnable du tout d’imaginer que le mouvement d’algorithmisation de la réparation des dommages continue de s’amplifier, une nouvelle question ne manquera pas alors de se poser. La voici : veut-on que du droit soit suggéré par des algorithmes (privés) faiseurs de loi ou bien par un législateur faiseur d’algorithmes (publics) ?


[1] Règlement intérieur national de la profession d’avocat, art. 11-2.

[2] Art. L. 211-4-1 c. org. jud.

[3] Voy. not. en ce sens, S. Merabet, La digitalisation pour une meilleure justice. A propos du plan d’action 2022-25 de la Commission européenne pour l’efficacité de la justice, Jcp G. 2022.5.

[4] La réparation algorithmique du dommage corporel : binaire ou ternaire ?, Resp civ. et assur. mai 2021, étude 7 ; Intelligence artificielle et réparation des dommages in La responsabilité civile et l’intelligence artificielle, Bruylant 2022, à paraître.

[5] Arr. du 24 juin 2014 rel. à la gratuité de la réutilisation des bases de données juridiques de la direction de l’information légale et administrative.

[6] Voy. not. J. Bourdoiseau, Datajust ou la réforme du droit de la responsabilité à la découpe, Lexbase 23 avr. 2020, n° 821 ; R. Bigot, Datajust alias Themis IA, Lexbase 07 mai 2020.

[7] CE, 10e et 9e ch. réunies, 30 déc. 2021, n° 440376.

[8] Voy. par ex. J. Horn, Exemple d’utilisation d’une solution IA développée par une legaltech dans des contentieux PI – Utilisation de LitiMark, Dalloz IP/IT 2021.263.

[9] Voy. not. L. Viaut, L’évaluation des préjudices corporels par les algorithmes, Petites affiches 31 mai 2021, p. 10.

[10] Voy. not. L. Huttner et D. Merigoux, Traduire la loi en code grâce au langage de programmation Catala, Dr. fiscal févr. 2021.121. Voy. aussi Autorité de contrôle prudentiel et de résolution, La transformation numérique dans le secteur français de l’assurance, analyses et synthèses n° 132, 2018 ; Institut Montaigne, Algorithmes : contrôle des biais, rapport, mars 2020 (https://www.institutmontaigne.org/publications/algorithmes-controle-des-biais-svp)

Article à paraître Dalloz IP/IT 2022

Intelligence artificielle et réparation des dommages

Groupe de recherche européen sur la responsabilité civile et l’assurance, Journées lyonnaises, 2021, Bruylant 2022, à paraître

Intelligence artificielle, réparation des dommages et arbitrage[1]. A la question de savoir quels rapports entretiennent « intelligence artificielle » et « réparation des dommages », deux positions extrêmes semblent se dessiner. Les rapports nationaux sont en ce sens.

La première position, conservatrice et prudente, consiste à défendre que peu importants soient les apports de la technologie à notre affaire, il n’est pas de bonne méthode de faire dire le droit en général et plus particulièrement le droit civil de la responsabilité par une intelligence artificielle. Le droit, mieux la justice (qui est un projet plus grand), est une affaire de femmes et d’hommes instruits et rompus à l’exercice qui, au nom du peuple français, départagent les parties à la cause et ramènent la paix sociale. En somme, c’est d’intelligence originelle partant humaine dont il doit être question.

La seconde position, novatrice mais aventureuse, consiste à soutenir que les facilités promises sont telles que l’algorithmisation du droit de la responsabilité à visée réparatrice est un must have ; que ce serait à se demander même pour quelle raison le travail de modélisation scientifique n’est pas encore abouti.

Tous les rapports nationaux renseignent le doute ou l’hésitation relativement à la question qui nous occupe. Cela étant, en Allemagne et en France, il se pourrait qu’on cédât franchement à la tentation tandis qu’en Belgique, en Italie (rapp. p. 1) ou encore en Roumanie, le rubicon ne saurait être résolument franchi à ce jour. Que la technologie ne soit pas au point ou bien que les techniciens ne soient pas d’accord, c’est égal.

Chaque thèse a ses partisans. Et c’est bien naturel. Ceci étant, choisir l’une ou bien l’autre sans procès c’est renoncer d’emblée et aller un peu vite en besogne. Or, celui qui ne doute pas ne peut être certain de rien (loi de Kepler).

Intelligence artificielle, réparation des dommages et doute. Formulée autrement, la question des rapports qu’entretiennent « intelligence artificielle » et « réparation des dommages » invite à se demander si le droit de la responsabilité peut frayer ou non avec la science toute naissante de la liquidation algorithmique des chefs de dommages. Peut-être même s’il le faut.

Ce n’est pas de droit positif dont il s’agit. Ce n’est pas un problème de technique juridique – à tout le moins pas en première intention – qui est ici formulé. Il ne s’agit pas de se demander comment articuler les facilités offertes par la Machine avec les règles de droit processuel. Il ne s’agit pas de se demander quoi faire des résultats proposés par un logiciel relativement au principe substantiel (matriciel) de la réparation intégrale. Il ne s’agit même pas de se demander si l’algorithmisation porterait atteinte à un droit ou liberté fondamentale que la constitution garantit. Les faiseurs de systèmes que nous sommes sauraient trouver un modus operandi. C’est une question plus fondamentale qui est posée dans le cas particulier, une question de philosophie du droit. S’interroger sur les rapports que pourraient entretenir « intelligence artificielle » et « réparation des dommages » ne consiste pas à se demander ce qu’est le droit de la responsabilité civile à l’heure de l’open data et de la data science mais bien plutôt ce que doit être le droit. C’est encore se demander collectivement ce qui est attendu de celles et ceux qui pratiquent le droit et façonnent à demande ses règles. C’est de science algorithmique et d’art juridique dont il est question en fin de compte. Voilà la tension dialectique qui a réunit tous les présents aux journées lyonnaises du Groupe de recherche européen sur la responsabilité civile et l’assurance et qui transparaît à la lecture de tous les rapports nationaux.

Pour résumer et se rassurer un peu, rien que de très ordinaire pour nous autres les juristes et le rapporteur de synthèse auquel il est demandé d’écrire une histoire, un récit d’anticipation.

Science algorithmique, art juridique et récit d’anticipation. Nous ne saurions naturellement procéder in extenso. La tâche serait trop grande. Qu’il nous soit permis de ne poser ici que quelques jalons avant que nous débattions pour qu’à la fin (il faut l’espérer) nous puissions y voir plus clair.

Le récit d’anticipation proposé, d’autres s’y sont attelés bien avant nous. En 1956, un romancier américain décrit un monde dans lequel un système prédictif est capable de désigner des criminels en puissance sur le point de commettre une infraction. Stoppés in extremis dans leur projet respectif, ils sont jugés sur le champ et écroués. Spielberg adaptera cette nouvelle en 2002. Minority report était créé. Il y sera question de prédiction mathématique, de justice algorithmisée et d’erreur judiciaire. C’est que, aussi ingénieux soit le système, il renfermait une faille. Nous y reviendrons. Plus récemment, et ce n’est pas de fiction dont il s’agit, une firme – Cambridge analytica – s’est aventurée à renseigner à l’aide d’un algorithme, alimenté de données personnelles extraites à la volée de comptes Facebook de dizaines de millions d’internautes, les soutiens d’un candidat à la magistrature suprême américaine. Ce faisant, l’équipe de campagne était en mesure de commander des contenus ciblés sur les réseaux sociaux pour orienter les votes.

Que nous apprennent ces deux premières illustrations. Eh bien qu’il y a matière à douter sérieusement qu’une intelligence artificielle puisse gouverner les affaires des hommes.

Preuve s’il en était besoin que les nombres n’ont pas forcément le pouvoir ordonnateur qu’on leur prête depuis Pythagore. Or (c’est ce qui doit retenir l’attention) s’il existe au moins deux façons de faire quelque chose et qu’au moins l’une de ces façons peut entraîner une catastrophe, il se trouvera forcément quelqu’un quelque part pour emprunter cette voie (loi de Murphy).

Pouvoir ordonnateur des nombres, loi de Murphy et principe de réalité. Le risque étant connu, peu important que sa réalisation soit incertaine, nous devrions par voie de conséquence nous garder (à tout le moins en première intention) de prier qu’une pareille intelligence réparât les dommages de quelque nature qu’ils soient. Ceci étant, et relativement à la méthode proposée, doutons méthodiquement soit qu’il s’agisse, après mûre réflexion, de renforcer les résolutions des opposants à l’algorithmisation de la responsabilité civile, soit (et à l’inverse) qu’il s’agisse de soutenir les solutions des zélateurs du droit 2.0.

Car autant le dire tout de suite avec les rapporteurs nationaux, si la question des rapports qu’entretiennent « intelligence artificielle » et « réparation des dommages » se pose c’est que les outils de modélisation scientifique ne sont pas une vue de l’esprit. Les instruments d’aide à la décision médicale ou bien encore à la chirurgie (ex. le diagnostic algorithmique et, plus ambitieux encore le Health data hub[2]) sont le quotidien des professionnels de santé tandis que les outils d’aide à la décision judiciaire font florès. Des juges américains, sur le point d’accorder une libération sous caution, sont ainsi aider par un logiciel qui évalue le risque de défaut de comparution de l’intéressé (Compas)[3]. Tandis que de côté-ci de l’Atlantique des firmes proposent des systèmes d’aide à la décision juridique ou judiciaire supplantant (bien que ce ne soit pas la vocation affichée des legaltech) les quelques expériences de barémisation indicative bien connues des spécialistes de la réparation du dommage corporel.

Nous reviendrons bien entendu sur les tentatives de réparation algorithmique des dommages qu’on ne manquera pas d’évaluer (II). Mais pour commencer, il nous a semblé nécessaire de s’arrêter sur la tentation de la réparation algorithmique des dommages (I).

I.- La tentation de la réparation algorithmique des dommages

La réparation algorithmique des dommages est tentante pour de bonnes raisons qui tiennent plus particulièrement, d’une part, à la faisabilité technique qui est proposée (A) et, d’autre part, aux facilités juridiques qui sont inférées (B).

A.- Faisabilité technique

La faisabilité technique à laquelle on peut songer est à double détente. C’est d’abord une histoire de droit (1) avant d’être ensuite une affaire de nombres (2).

1.- Histoire de droit

Règle de droit, structuration binaire et révélation mathématique. Le droit aspire à l’algorithmisation car la structuration de la règle est binaire et sa révélation mathématique (ou presque).

La structuration de la règle juridique ressemble à s’y méprendre au langage des microprocesseurs des ordinateurs, au code qui est utilisé dans les technologies de l’information et de la communication. La règle est écrite de façon binaire : si/alors, qualification juridique/régime, conditions/effets, principe/exception. Le législateur et l’ingénieur parlent donc le même langage… Enfin c’est ce dont ce dernier est convaincu.

Quant à la révélation de la règle applicable aux faits de l’espèce, elle suppose de suivre une démarche logique, pour ne pas dire mathématique. Car le droit ne saurait être bien dit sans une pensée rationnelle, la formulation discursive des vérités, sans rigueur ni exactitude. En bref, l’hypothèse de la réparation algorithmique des dommages est plutôt familière au juriste. Pour preuve : le droit et ses méthodes d’exploration et de résolution des problèmes (qui sont des algorithmes en définitive) sont un puissant vecteur de correction de la réalité. Une personne est victime du comportement dommageable d’un individu (le donné) ? Juridiquement, cette dernière est titulaire d’un droit subjectif au paiement d’un contingent de dommages et intérêts compensatoires (le construit). Appréhendés en droit, les faits de l’espèce (la réalité) sont en quelque sorte réencodés.

En bref, les juristes sont invariablement des faiseurs de systèmes techniques et d’algorithmiques.

On ne s’étonnera donc pas que le droit et ses artisans aient vocation à être (r)attrapés par la science et ses industriels qui se jouent des nombres et font des affaires.

2.- Affaire de nombres

Digitalisation et données. Les rapports français et belge montrent plus particulièrement combien la croissance du volume de données disponibles sous forme numérique est exponentielle.

Par voie de conséquence, il existe désormais beaucoup de matière pour nourrir un algorithme quelconque, lui permettre de simuler un phénomène, une situation à l’aune des données qui auront été implémentées dans un programme informatique (qui est appelé « code »). Il est à noter au passage une différence notable entre les pays interrogés dans nos journées lyonnaises. Si les juristes italiens et roumains pratiquent autrement moins l’algorithmisation des règles de la réparation des dommages que leurs homologues allemands et français, c’est très précisément parce que la digitalisation des décisions de justice est moins avancée à ce jour. Quant à la Belgique, le rapport national renseigne l’existence d’un obstacle juridique à ladite digitalisation, qui vient tout récemment d’être levé. À terme, il devrait y avoir suffisamment de matière pour alimenter un algorithme. La Belgique se rapprocherait donc de très près de la France.

Il est remarquable qu’en France précisément des millions de données juridiques aient été mises à disposition pour une réutilisation gratuite[4] par le service public de la diffusion du droit en ligne – Legifrance pratique l’open data[5]. Ce n’est pas tout. Depuis quelques semaines à présent, toutes les décisions rendues par la Cour de cassation française sont aussi en open data. Il devrait en être de même au printemps 2022 des décisions des cours d’appel (hors matière pénale)[6]. Même chose du côté du Conseil d’État français.

La tentation de l’algorithmisation est donc grande car c’est tout à fait faisable techniquement, tout particulièrement en France qui se singularise très nettement dans le concert des droits nationaux continentaux interrogés. Mais il y a d’autres raisons qui président à l’algorithmisation sous étude : ce sont les facilités juridiques qui sont proposées par l’intelligence artificielle.

B.- Facilités juridiques

Égalité, intelligibilité et acceptabilité. Au titre des facilités qu’on peut inférer juridiquement parlant des algorithmes à visée réparatoire, on doit pouvoir compter une intelligibilité améliorée des règles applicables à la cause partant une égalité nominale des personnes intéressées et une acceptabilité possiblement renforcées du sort réservé en droit à la victime.

Il faut bien voir que les règles qui gouvernent la réparation des dommages, et plus particulièrement les atteintes à l’intégrité physique, ne sont pas d’un maniement aisé. La monétisation de toute une série de chefs de dommages tant patrimoniaux (futurs) qu’extrapatrimoniaux suppose acquise une compétence technique pointue. Un étalonnage mathématisé présenterait entre autres avantages de prévenir une asymétrie éventuelle d’information en plaçant toutes les personnes sur un pied d’égalité (à tout le moins nominale)[7] à savoir les victimes, leurs conseils, leurs contradicteurs légitimes et leurs juges.

Au fond, et ce strict point de vue, la réparation algorithmique des dommages participe d’une politique publique d’aide à l’accès au droit qui ne dit pas son nom. La notice du décret n° 2020- 356 du 27 mars 2020 Datajust élaborant un référentiel indicatif d’indemnisation des dommages corporels est en ce sens[8].

C’est encore dans le cas particulier l’acceptabilité de la décision qui se joue possiblement C’est que le statut de celui ou celle qui a procédé à l’indemnisation est nécessaire pour conférer son autorité à l’énoncé mais pas suffisant. Toutes les fois que le dommage subi est irréversible, que le retour au statu quo ante est proprement illusoire (et c’est très précisément le cas en droit de la réparation d’un certain nombre de chefs de dommages corporels) on peut inférer de l’algorithmisation de la réparation des dommages une prévention contre le sentiment d’arbitraire que la personne en charge de la liquidation des chefs de préjudice a pu faire naître dans l’esprit de la victime.

Voilà une première série de considérations qui participe de la tentation de la réparation algorithmique des dommages. Puisque selon la loi de Casanova, la meilleure façon d’y résister est d’y succomber, je vous propose de braquer à présent le projecteur sur les tentatives de réparation algorithmique des dommages.

II.- Les tentatives de réparation algorithmique des dommages

Opérateurs privés vs administration publique. Les tentatives de réparation algorithmique des dommages sont relativement nombreuses et plutôt récentes, à tout le moins en France car, une fois encore, et à ce jour, le recours à l’intelligence artificielle est plus anecdotique, réduit (en comparaison avec la France) – un état basal ou élémentaire – dans les autres droits internes sous étude.

Ces tentatives sont des plus intéressantes en ce sens qu’elles ont eu notamment pour objet et/ou effet de parachever un travail polymorphe entamé il y a plusieurs années à présent et accompli tous azimuts qui est fait (pour ne prendre que quelques exemples saillants rappelés par les rapporteurs nationaux) d’articles de doctrine renseignant les pratiques indemnitaires des tribunaux et des cours d’appel, de barèmes plus ou moins officiels, de guides ou vade-mecum, de nomenclatures et de référentiels. Les juristes belges et français les pratiquent volontiers pendant qu’avocats et juges ne manquent pas de rappeler que ces outils d’aide à la décision ne sauraient jamais être contraignants : principe de la réparation intégrale obligerait…

Depuis lors, ce sont positionnées sur le segment de marché de la digitalisation de la justice, de l’algorithmisation de la réparation des dommages, de nouveaux opérateurs – plus ou moins capés à en croire les rapporteurs – privés[9] et publics[10].

Une analyse critique de l’offre de services en termes d’intelligence artificielle ainsi formulée par les legaltechs sera faite d’abord (A). Un essai à visée plus prospective sera proposé ensuite (B).

A.- Analyse critique

Biais de raisonnement. L’analyse critique de l’algorithmisation de la réparation des dommages que nous proposons d’esquisser consiste à identifier quelques biais de raisonnement induits par l’intelligence artificielle et dont il importe qu’on se garde à tout prix. Nous nous sommes demandés en préparant ce rapport si ce n’était pas la crainte d’échouer dans cette entreprise d’évaluation critique et de contrôle systématique qui faisait douter qu’il faille pousser plus loin l’expérience.

Le problème de fond nous semble tenir au fait qu’un esprit mal avisé pourrait se convaincre qu’une suggestion algorithmique dite par une machine serait équipollente à la vérité juridique recherchée par une femme ou un homme de l’art.

L’embêtant dans cette affaire tient plus concrètement d’abord à la performativité du code (1) et à l’opacité de l’algorithme ensuite (2).

1.- Performativité du code

Suggestion algorithmique vs vérité juridique. La réparation algorithmique des dommages a un mérite : elle simplifie la recherche de la vérité, plus encore pour celles et ceux qui ne pratiqueraient la matière qu’occasionnellement ou bien qui seraient tout juste entrés en voie de spécialisation. Seulement voilà : la paroi est mince entre facilitation et supplantation. Il n’est pas assez d’écrire qu’un référentiel d’indemnisation est indicatif, qu’il ne saurait jamais être rangé dans les normes de droit dur. Le savoir algorithmique est performatif (voire impératif pour celui qui le pratiquerait sans prudence) et ce pour plein de raisons (recherche du temps perdu entre autres). Volens nolens, son utilisation finit toujours par être mécanique. Alors, le doute méthodique du juriste, qui est la condition sine qua non pour accéder à la vérité, est chassé par la certitude scientifique apparente de la machine. Pour le dire autrement, le savoir prédictif est normatif. Et il n’y a qu’un pas pour que la vérité censée être dite par personnes instruites et sachantes soit en définitive dite par une machine qui ordonne des 0 et des 1. C’est le delta qui existe si vous voulez entre les mathématiques de l’intelligibilité et les mathématiques que j’ai appelées ailleurs de contrôle[11].

Rien de bien grave nous dira peut-être le rapporteur allemand toutes les fois (à tout le moins) qu’il ne s’agit que de réparer des dommages de masse de faible valeur. Il reste que, dans tous les cas de figure, la suggestion algorithmique est le fruit de l’apprentissage de données tirées du passé. Au mieux, le code informatique peut dire ce qui est mais certainement pas (à tout le moins pas encore) ce qui doit être. L’intelligence artificielle que nous pratiquons (qualifiée de « faible ») n’est pas encore capable de le faire. C’est que cette dernière IA n’est qu’un programme qui n’est pas doté de sens et se concentre uniquement sur la tâche pour laquelle il a été programmé. En bref, les machines ne pensent pas encore par elles-mêmes (ce qu’on appelle le machine learning ou IA « forte »).

Alors, et cela pourrait prêter à sourire, aussi moderne soit ce code informatique là, il est porteur d’une obsolescence intrinsèque qu’on fait mine de ne pas voir. Que la binarité soit un trait caractéristique de la structuration de la règle de droit et que, par voie de conséquence, la modélisation mathématique soit séduisante est une chose. Il reste que dire le droit et rendre la justice impliquent la recherche d’un équilibre entre des intérêts concurrents dont le tiers-juge est le garant (en dernière intention). Droit et justice ne sont pas synonyme. Si la règle juridique aspire à la binarité, sa mise en œuvre se recommande d’un ternaire… En bref, on ne saurait jamais se passer d’un tiers neutre même pas dans une startup nation.

Qu’il soit juridique ou algorithmique, un code se discute. Seulement pour que chacun puisse se voir juridiquement et équitablement attribuer ce qui lui est dû, il importe de lever l’opacité de l’algorithme.

2.- Opacité de l’algorithme

Le code 2.0 doit retenir l’attention de tout un chacun. Aussi puissants soient les calculateurs, et peu important que l’algorithme soit programmé pour apprendre, les machines ne sont encore que le produit de la science humaine, la donnée est encore l’affaire de femmes et d’hommes. Ce n’est pas le moindre des biais méthodologiques. Il a ceci de commun avec celui qu’on vient de décrire qu’il est trompeur.

Biais méthodologiques. Les résultats qui sont renseignés par un système d’information (output) sont toujours corrélés aux données qui ont été collectées puis entrées (input). De quoi parle-t-on ? Eh bien de jugement de valeurs dans tous les sens du terme (juridique et technologique). Or un juge, quel qu’il soit, a une obligation : celle de motiver sa décision (art. 455 du Code de procédure civile). Et ce pour de justes et utiles raisons que nous connaissons bien : prévention de l’arbitraire et condition du contrôle de légalité. Quand on sait la puissance performative de la modélisation mathématique, ce serait commettre une erreur de ne pas rechercher à lever l’opacité algorithmique qui est bien connue des faiseurs de systèmes d’informations.

Clef de voûte. La transparence en la matière est la clef de voute. L’édification mathématique ne saurait valablement prospérer sans que la méthode analytique des décisions sélectionnées aux fins d’apprentissage de l’algorithme n’ait été explicitée, sans que la sélection des décisions de justice voire des transactions n’ait été présentée, sans que la qualité et le nombre des personnes qui ont procédé n’aient été renseignés. Seulement voilà, et ce qui suit n’augure rien de très bon : le code informatique est un secret industriel protégé en tant que tel que les legaltechs, qui sont en concurrence, n’ont aucun intérêt à révéler. Les initiatives publiques doivent donc être impérativement soutenues. L’accessibilité doit être garantie. En bref, Datajust, qui est un référentiel public relatif à l’indemnisation des victimes de dommages corporels, est la voie à suivre. Encore qu’il ne satisfasse pas complètement aux conditions de praticabilité et de démocratisation attendus. Et que, partant, sa performativité soit possiblement trop grande. Possiblement car l’essai n’a pas été encore transformé en raison des doutes que le décret a suscité.

Doutes que nous souhaiterions aborder à présent dans un essai prospectif pour lister quelques conditions qui nous semble devoir être satisfaites pour qu’ils soient levés.

B.- Essai prospectif

À titre de remarque liminaire, il faut dire (qu’on la redoute ou non) que l’algorithmisation de la réparation des dommages ne saurait prospérer sans que, au préalable, de la donnée soit mise à la disposition du public et des opérateurs. Or, open data et big data ne sont pas aussi répandus qu’on veut bien l’imaginer. En France, nous y sommes presque bien que, en l’état, le compte n’y soit pas tout à fait encore[12]. Ailleurs, la donnée est la propriété presque exclusive de firmes privées qui monnayent un accès amélioré aux décisions de justice sélectionnées par elles-mêmes (Belgique) ou bien la donnée ne peut tout bonnement pas être partagée (Italie).

Une fois cette condition remplie, l’algorithme est en mesure de travailler. Pour s’assurer que le travail soit bien fait, il importerait qu’on s’entende sur quelques spécifications techniques et politiques. C’est sur ces dernières que je souhaiterais conclure.

Régulation. En l’état, les systèmes d’information ne sont pas régulés du tout. On se souviendra qu’il aura fallu une exploitation abusive et sans précédent des données personnelles par les Gafam[13] pour qu’on se décide à élaborer un règlement général sur la protection desdites données. Seulement, et sans préjudice des dommages causés aux personnes concernées, il n’est pas ou plus question ici de l’accaparement de données par quelques firmes de marchands. L’affaire est d’un tout autre calibre. C’est d’assistance à la décision juridique ou judiciaire dont il est question. Que la justice ne soit plus tout à fait une fonction régalienne de l’État, admettons. Mais les responsabilistes ne sauraient prêter leur concours sans aucune prévention à l’utilisation de l’intelligence artificielle dans la réparation des dommages. Pour le dire autrement, une gouvernance technique et scientifique nous semble devoir être mise en place. Cette exigence est présente dans les rapports tout particulièrement dans le rapport belge.

Règlementation. Le 21 avril 2021 a été diffusé une proposition de règlement européen établissant des règles harmonisées concernant l’intelligence artificielle[14] dans laquelle les IA sont distinguées selon le risque qu’elles font courir. Et des intelligences artificielles, destinées à suggérer le droit pour faire bref, d’être qualifiées de « systèmes à haut risque »…

En résumé, le code doit être connu de ses utilisateurs, les données primitives exploitées par l’algorithme doivent être indexées, une révision des contenus doit être programmée, des évaluations et crash-test doivent être faits. Et nous sommes loin d’épuiser les conditions qu’il s’agirait qu’on respectât pour bien faire. C’est de « gouvernance des algorithmes » dont il est question au fond[15]. C’est qu’il ne faut jamais perdre de vue la puissance normative de la modélisation mathématico-juridique ainsi que les biais algorithmiques. En bref, la logique mathématique ne saurait jamais être complètement neutre. C’est le sens des théorèmes d’incomplétude formulés par Kurt Gödel (1931).

En conclusion et parce que nous sommes convaincus qu’on ne stoppera pas le mouvement d’algorithmisation de la réparation des dommages, permettez-nous de formuler une question qui transparaît des rapports nationaux : veut-on que du droit soit suggéré par des algorithmes (privés) faiseurs de loi ou bien par un législateur faiseur d’algorithmes (publics) ?


[1] La forme orale de ce rapport a été conservée.

[2] https://www.health-data-hub.fr/

[3] V. not. sur ce sujet, A. Jean, Les algorithmes sont-ils la loi ? Editions de l’observatoire,

[4] Arr. du 24 juin 2014 relatif à la gratuité de la réutilisation des bases de données juridiques de la direction de l’information légale et administrative.

[5] Plateforme ouverte des données publiques françaises https://www.data.gouv.fr. Service public de la diffusion du droit en ligne : https://www.legifrance.gouv.fr/

[6][6] https://www.courdecassation.fr/la-cour-de-cassation/demain/lopen-data-des-decisions-judiciaires

[7] J. Bourdoiseau, Intelligence artificielle, réparation du dommage corporel et assurance, Dalloz IP/IT, 2022 (à paraître).

[8] Expérimentation dont la légalité a été vérifiée par le Conseil d’État français (CE, 10e et 9e ch. réunies, 30 déc. 2021, n° 440376) mais que le Gouvernement a décidé d’abandonner (Ministère de la justice, comm., 13 janv. 2022). Ch. Quézel-Ambrunaz, V. Rivollier et M. Viglino, Le retrait de Datajust ou la fausse défaite des barèmes, D. 2022.467.

[9] Allemagne : Actineo. Belgique : Grille corpus, Repair, Jaumain. France : Case law analytics, Predictice, Juridata analytics. Voy. par ex. J. Horn, Exemple d’utilisation d’une solution IA développée par une legaltech dans des contentieux PI – Utilisation de LitiMark, Dalloz IP/IT 2021.263.

[10] France : Datajust. Italie : legal analytics for italian law.

[11] J. Bourdoiseau, La réparation algorithmique du dommage corporel : binaire ou ternaire ?, Resp civ. et assur. mai 2021, étude 7.

[12] Il est à noter, pour ne prendre que cet exemple, que les juges administratifs français ont accès à la totalité des décisions rendues (quel que soit le degré de juridiction) à l’aide d’un outil qui n’est mis à disposition que pour partie aux justiciables (ce qui interroge), à tout le moins à ce jour (https://www.conseil-etat.fr/arianeweb/#/recherche).

[13] Google, Apple, Facebook (Meta), Amazon, Microsoft. Voy. aussi les géants chinois : BATX (Baidu, Alibaba, Tencent, Xiaomi).

[14] https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX:52021PC0206

[15] Voy. not. L. Huttner et D. Merigoux, Traduire la loi en code grâce au langage de programmation Catala, Dr. fiscal févr. 2021.121. Voy. aussi Autorité de contrôle prudentiel et de résolution, La transformation numérique dans le secteur français de l’assurance, analyses et synthèses n° 132, 2018 ; Institut Montaigne, Algorithmes : contrôle des biais, rapport, mars 2020,

(https://www.institutmontaigne.org/publications/algorithmes-controle-des-biais-svp)

Actualité : L’intelligence artificielle, la responsabilité civile et la réparation des dommages (projet de règlement)

Le Groupe de recherche européen sur la responsabilité civile et l’assurance en Europe, qui regroupe de nombreux responsabilistes (universitaires, avocats et magistrats), s’est réuni à la Faculté de droit de l’Université Lyon3 pour son séminaire annuel (oct. 21). Au programme des journées lyonnaises : “La responsabilité civile et l’intelligence artificielle” en général et plus particulièrement “L’intelligence artificielle et la réparation des dommages”. Dans l’attente d’un prolongement éditorial des travaux collectifs, voici quelques considérations analytiques sur les droits français et étrangers interrogés (droits allemand, belge, italien, roumain – espagnol à venir) ainsi que quelques autres développements à visée prospective. J.B.

1.- Intelligence artificielle, réparation des dommages et arbitrage. A la question de savoir quels rapports entretiennent « intelligence artificielle » et « réparation des dommages », deux positions extrêmes semblent se dessiner. Les rapports nationaux sont en ce sens.

La première position, conservatrice et prudente, consiste à défendre que peu importants soient les apports de la technologie à notre affaire, il n’est pas de bonne méthode de faire dire le droit en général et plus particulièrement le droit civil de la responsabilité par une intelligence artificielle. Le droit, mieux la justice (qui est un projet plus grand), est une affaire de femmes et d’hommes instruits, rompus à l’exercice qui, au nom du peuple français, départagent les parties à la cause et ramènent la paix sociale. En somme, c’est d’intelligence originelle partant humaine dont il doit être question.

La seconde position, novatrice mais aventureuse, consiste à soutenir que les facilités promises sont telles que l’algorithmisation du droit de la responsabilité à visée réparatrice est un must have ; que ce serait à se demander même pour quelle raison le travail de modélisation scientifique n’est pas encore abouti.

Tous les rapports nationaux renseignent le doute ou l’hésitation relativement à la question qui nous occupe. Cela étant, en Allemagne et en France, il se pourrait qu’on cédât franchement à la tentation tandis qu’en Belgique, en Italie ou encore en Roumanie, le rubicon ne saurait être résolument franchi à ce jour. Que la technologie ne soit pas au point ou bien que les techniciens ne soient pas d’accord, c’est égal.

Chaque thèse à ses partisans. Et c’est bien naturel. Ceci étant, choisir l’une ou bien l’autre sans procès c’est renoncer d’emblée et aller un peu vite en besogne. Or, celui qui ne doute pas ne peut être certain de rien (loi de Kepler).

2.- Intelligence artificielle, réparation des dommages et doute. Formulée autrement, la question des rapports qu’entretiennent « intelligence artificielle » et « réparation des dommages » invite à se demander si le droit de la responsabilité peut frayer ou non avec la science toute naissante de la liquidation algorithmique des chefs de dommages. Peut-être même s’il le faut.

Ce n’est pas de droit positif dont il s’agit. Ce n’est pas un problème de technique juridique – à tout le moins pas en première intention – qui est ici formulé. Il ne s’agit pas de se demander comment articuler les facilités offertes par la Machine avec les règles de droit processuel. Il ne s’agit pas de se demander quoi faire des résultats proposés par un logiciel relativement au principe substantiel (matriciel) de la réparation intégrale. Il ne s’agit même pas de se demander si l’algorithmisation porterait atteinte à un droit ou liberté fondamentale que la constitution garantit. Les faiseurs de systèmes que nous sommes sauraient trouver un modus operandi. Il me semble que c’est une question plus fondamentale qui est posée dans le cas particulier, une question de philosophie du droit. S’interroger sur les rapports que pourraient entretenir « intelligence artificielle » et « réparation des dommages » ne consiste pas à se demander ce qu’est le droit de la responsabilité civile à l’heure de l’open data mais bien plutôt ce que doit être le droit. C’est encore se demander collectivement ce qui est attendu de celles et ceux qui pratiquent le droit et façonnent à demande ses règles. C’est de science algorithmique et d’art juridique dont il est question en fin de compte. Voilà la tension dialectique qui nous réunit au fond ce matin. Il me semble l’avoir perçue à la lecture de chacun des rapports nationaux.

Pour résumé et se rassurer un peu, rien que de très ordinaire pour nous autres les juristes. Il est demandé d’écrire une histoire, un récit d’anticipation.

3.- Science algorithmique, art juridique et récit d’anticipation. Je ne saurais naturellement procéder in extenso dans ce papier (si tant est que j’en sois capable). Aussi, permettez-moi de me limiter à poser quelques jalons avant que nous ne débattions et qu’à la fin (il faut l’espérer) nous puissions y voir plus clair.

Le récit d’anticipation que je m’apprête à vous faire, d’autres s’y sont attelés bien avant moi. En 1956, un romancier américain décrit un monde dans lequel un système prédictif est capable de désigner des criminels en puissance sur le point de commettre une infraction. Stoppés in extremis dans leur projet respectif, ils sont jugés sur le champ et écroués. Spielberg adaptera cette nouvelle en 2002. Minority report était créé. Il y sera question de prédiction mathématique, de justice algorithmisée et d’erreur judiciaire. C’est que, aussi ingénieux soit le système, il renfermait une faille. Nous y reviendrons. Plus récemment, et ce n’est pas de fiction dont il s’agit, une firme – Cambridge analytica – s’est aventurée à renseigner à l’aide d’un algorithme, alimenté de données personnelles extraites à la volée de comptes Facebook de dizaines de millions d’internautes, les soutiens d’un candidat à la magistrature suprême américaine. Ce faisant, l’équipe de campagne était en mesure de commander des contenus ciblés sur les réseaux sociaux pour orienter les votes.

Que nous apprennent ces deux premières illustrations. Eh bien qu’il y a matière à douter sérieusement qu’une intelligence artificielle puisse gouverner les affaires des hommes. Entendons-nous bien : il ne s’agit pas d’écarter l’hypothèse de travail d’un revers de main mais de s’interroger méthodiquement sur ses vices et vertus.

Preuve s’il en était besoin que les nombres n’ont pas forcément le pouvoir ordonnateur qu’on leur prête depuis Pythagore. Or (c’est ce qui doit retenir l’attention) s’il existe au moins deux façons de faire quelque chose et qu’au moins l’une de ces façons peut entraîner une catastrophe, il se trouvera forcément quelqu’un quelque part pour emprunter cette voie (loi de Murphy).

4.- Pouvoir ordonnateur des nombres, loi de Murphy et principe de réalité. Le risque étant connu, peu important que sa réalisation soit incertaine, nous devrions par voie de conséquence nous garder (à tout le moins en première intention) de prier qu’une pareille intelligence réparât les dommages de quelque nature qu’ils soient. Ceci étant, et relativement à la méthode proposée, doutons méthodiquement (loi de Descartes) soit qu’il s’agisse, après mûre réflexion, de renforcer les résolutions des opposants à l’algorithmisation de la responsabilité civile, soit (et à l’inverse) qu’il s’agisse de soutenir les solutions des zélateurs du droit 2.0.

Car autant le dire tout de suite avec les rapporteurs nationaux, si la question des rapports qu’entretiennent « intelligence artificielle » et « réparation des dommages » se pose c’est que les outils de modélisation scientifique ne sont pas une vue de l’esprit. Les instruments d’aide à la décision médicale ou bien encore à la chirurgie (ex. le diagnostic algorithmique et, plus ambitieux encore le Health data hub[2]) sont le quotidien des professionnels de santé tandis que les outils d’aide à la décision judiciaire font florès. Des juges américains, sur le point d’accorder une libération sous caution, sont ainsi aider par un logiciel qui évalue le risque de défaut de comparution de l’intéressé (Compas). Tandis que de côté-ci de l’Atlantique des firmes proposent des systèmes d’aide à la décision juridique ou judiciaire supplantant (bien que ce ne soit pas la vocation affichée des legaltech) les quelques expériences de barémisation indicative bien connus des spécialistes de la réparation du dommage corporel.

Nous reviendrons bien entendu sur les tentatives de réparation algorithmique des dommages qu’on ne manquera pas d’évaluer (II). Mais pour commencer, il m’a semblé nécessaire que nous nous arrêtions sur la tentation de la réparation algorithmique des dommages (I).

I.- La tentation de la réparation algorithmique des dommages

La réparation algorithmique des dommages est tentante pour de bonnes raisons qui tiennent plus particulièrement, d’une part, à la faisabilité technique qui est proposée (A) et, d’autre part, aux facilités juridiques qui sont inférées (B).

A.- Faisabilité technique

La faisabilité technique à laquelle on peut songer est à double détente. C’est d’abord une histoire de droit (1) avant d’être ensuite une affaire de nombres (2).

1.- Histoire de droit

5.- Règle de droit, structuration binaire et révélation mathématique. Le droit aspire à l’algorithmisation car la structuration de la règle est binaire et sa révélation mathématique (ou presque).

La structuration de la règle juridique ressemble à s’y méprendre au langage des microprocesseurs des ordinateurs, au code qui est utilisé dans les technologies de l’information et de la communication. La règle est écrite de façon binaire : si/alors, qualification juridique/régime, conditions/effets, principe/exception. Le législateur et l’ingénieur parle donc le même langage…enfin c’est ce dont ces derniers sont convaincus.

Quant à la révélation de la règle applicable aux faits de l’espèce, elle suppose de suivre une démarche logique, pour ne pas dire mathématique. Car le droit ne saurait être bien dit sans une pensée rationnelle, la formulation discursive des vérités, sans rigueur ni exactitude. En bref, l’hypothèse de la réparation algorithmique des dommages est plutôt familière au juriste. Pour preuve : le droit et ses méthodes d’exploration et de résolution des problèmes (qui sont des algorithmes en définitive) sont un puissant vecteur de correction de la réalité. Une personne est victime du comportement dommageable d’un individu (le donné) ? Juridiquement, cette dernière est titulaire d’un droit subjectif au paiement d’un contingent de dommages et intérêts compensatoires (le construit). Appréhendés en droit, les faits de l’espèce (la réalité) sont en quelque sorte ré-encodés.

En bref, les juristes sont invariablement des faiseurs de systèmes techniques et d’algorithmiques.

On ne s’étonnera donc pas que le droit et ses artisans aient vocation à être (r)attrapés par la science et ses industriels qui se jouent des nombres et font des affaires.

2.- Affaire de nombres

6.- Digitalisation et données. Les rapports français et belge montrent plus particulièrement combien la croissance du volume de données disponibles sous forme numérique est exponentielle.

Par voie de conséquence, il existe désormais beaucoup de matière pour nourrir un algorithme quelconque, lui permettre de simuler un phénomène, une situation à l’aune des données qui auront été implémentées dans un programme informatique (qui est appelé « code »). Il est à noter au passage une différence notable entre les pays interrogés dans nos journées lyonnaises. Si les juristes italiens et roumains pratiquent autrement moins l’algorithmisation des règles de la réparation des dommages que leurs homologues allemands, et français, c’est très précisément parce que la digitalisation des décisions de justice est moins avancée à ce jour.

Il est remarquable qu’en France des millions de données juridiques aient été mises à disposition pour une réutilisation gratuite[3] par le service public de la diffusion du droit en ligne – Legifrance pratique l’open data. Ce n’est pas tout. Depuis quelques semaines à présent, toutes les décisions rendues par la Cour de cassation française sont aussi en open data. Il devrait en être de même au printemps 2022 des décisions des cours d’appel (hors matière pénale)[4]. Même chose du côté du Conseil d’État français. Quant à la digitalisation des décisions judiciaires rendues par les juridictions belges, le cadre normatif a été inventé par le législateur constitutionnel – l’obstacle juridique est donc levé. Par comparaison, la Roumanie n’est encore qu’au stade de la consultation.

La tentation de l’algorithmisation est donc grande car c’est tout à fait faisable techniquement, tout particulièrement en France qui se singularise très nettement dans le concert des droits nationaux continentaux interrogés. Mais il y a d’autres raisons qui président à l’algorithmisation sous étude : ce sont les facilités juridiques qui sont proposées par l’intelligence artificielle.

B.- Facilités juridiques

7.- Egalite, intelligibilité et acceptabilité. Au titre des facilités qu’on peut inférer juridiquement parlant des algorithmes à visée réparatoire, on doit pouvoir compter une intelligibilité améliorée des règles applicables à la cause partant une égalité nominale des personnes intéressées et une acceptabilité possiblement renforcées du sort réservé en droit à la victime.

Il faut bien voir que les règles qui gouvernent la réparation des dommages, et plus particulièrement les atteintes à l’intégrité physique, ne sont pas d’un maniement aisé. La monétisation de toute une série de chefs de dommages tant patrimoniaux (futurs) qu’extrapatrimoniaux suppose acquise une compétence technique pointue. Un étalonnage mathématisé présenterait entre autres avantages de prévenir une asymétrie éventuelle d’information en plaçant toutes les personnes sur un pied d’égalité (à tout le moins nominale) à savoir les victimes, leurs conseils, leurs contradicteurs légitimes et leurs juges.

Au fond, et ce strict point de vue, la réparation algorithmique des dommages participe d’une politique publique d’aide à l’accès au droit qui ne dit pas son nom. La notice du décret n° 2020- 356 du 27 mars 2020 Datajust élaborant un référentiel indicatif d’indemnisation des dommages corporels est en ce sens.

C’est encore dans le cas particulier l’acceptabilité de la décision qui se joue possiblement C’est que le statut de celui ou celle qui a procédé à l’indemnisation est nécessaire pour conférer son autorité à l’énoncé mais pas suffisant. Toutes les fois que le dommage subi est irréversible, que le retour au statu quo ante est proprement illusoire (et c’est très précisément le cas en droit de la réparation d’un certain nombre de chefs de dommages corporels) on peut inférer de l’algorithmisation de la réparation des dommages une prévention contre le sentiment d’arbitraire que la personne en charge de la liquidation des chefs de préjudice a pu faire naître dans l’esprit de la victime.

Voilà une première série de considérations qui participe de la tentation de la réparation algorithmique des dommages. Puisque selon la loi de Casanova, la meilleure façon d’y résister est d’y succomber, je vous propose de braquer à présent le projecteur sur les tentatives de réparation algorithmique des dommages.

2.- Les tentatives de réparation algorithmique des dommages

8.- Opérateurs privés vs administration publique. Les tentatives de réparation algorithmique des dommages sont relativement nombreuses et plutôt récentes, à tout le moins en France car, une fois encore, et à ce jour, le recours à l’intelligence artificielle est plus anecdotique, réduit (en comparaison avec la France) – un état basal ou élémentaire – dans les autres droits internes sous étude.

Ces tentatives sont des plus intéressantes en ce sens qu’elles ont eu notamment pour objet et/ou effet de parachever un travail polymorphe entamé il y a plusieurs années à présent et accompli tous azimuts qui est fait (pour ne prendre que quelques exemples saillants rappelés par les rapporteurs nationaux) d’articles de doctrine renseignant les pratiques indemnitaires des tribunaux et des cours d’appel, de barèmes plus ou moins officiels, de guides ou vade-mecum, de nomenclatures et de référentiels, etc. Les juristes belges et français les pratiquent volontiers pendant qu’avocats et juges ne manquent pas de rappeler que ces outils d’aide à la décision ne sauraient jamais être contraignants : principe de la réparation intégrale obligerait…

Depuis lors, se sont positionnées sur le segment de marché de la digitalisation de la justice, de l’algorithmisation de la réparation des dommages, de nouveaux opérateurs – plus ou moins capés à en croire les rapporteurs – privés (not. Allemagne : Actineo / Belgique : Grille corpus, Repair, Jaumain / France : Case law analytics, Predictice, Juridata analytics) et public (France : Datajust / Italie : legal analytics for italian law).

Une analyse critique de l’offre de services en termes d’intelligence artificielle ainsi formulées par les legaltech sera faite d’abord (A). Un essai à visée plus prospective sera proposé ensuite (B).

A.- Analyse critique

9.- Biais de raisonnement. L’analyse critique de l’algorithmisation de la réparation des dommages que je vous propose d’esquisser (en portant la voix des rapporteurs nationaux) consiste à identifier quelques biais de raisonnement induits par l’intelligence artificielle et dont il importe qu’on se garde à tout prix. Je me suis demandé en préparant ce rapport de synthèse si ce n’était pas la crainte d’échouer dans cette entreprise d’évaluation critique et de contrôle systématique qui faisait douter qu’il faille pousser plus loin l’expérience.

Le problème de fond me semble tenir au fait qu’un esprit mal avisé pourrait se convaincre qu’une suggestion algorithmique dite par une machine serait équipollente à la vérité juridique recherchée par un homme ou une femme de l’art.

L’embêtant dans cette affaire tient plus concrètement d’abord à la performativité du code (1) et à l’opacité de l’algorithme (2).

1.- Performativité du code

10.- Suggestion algorithmique vs vérité juridique. La réparation algorithmique des dommages a un mérite : elle simplifie la recherche de la vérité, plus encore pour celles et ceux qui ne pratiqueraient la matière qu’occasionnellement ou bien qui seraient tout juste entrés en voie de spécialisation. Seulement voilà : la paroi est mince entre facilitation et supplantation. Il n’est pas assez d’écrire qu’un référentiel d’indemnisation est indicatif, qu’il ne serait jamais être rangé dans les normes de droit dur. Le savoir algorithmique est performatif (voire impératif pour celui qui le pratiquerait sans prudence) et ce pour plein de raisons (recherche du temps perdu not.). Volens nolens, son utilisation finit toujours (de proche en proche) par être mécanique. Alors, le doute méthodique du juriste, qui est la condition sine qua non pour accéder à la vérité, est chassé par la certitude scientifique apparente de la machine. Pour le dire autrement, le savoir prédictif est normatif. Et il n’y a qu’un pas pour que la vérité censée être dite par des femmes et des hommes instruits et sachants soit en définitive dite par une machine qui ordonne des 0 et des 1. C’est le delta qui existe si vous voulez entre les mathématiques de l’intelligibilité et les mathématiques que j’ai appelées ailleurs de contrôle (v. art. JB in Responsabilité et assurance, LexisNexis, 2021.)

11.- Rien de bien grave nous dira peut-être le rapporteur allemand toutes les fois (à tout le moins) qu’il ne s’agit que de réparer des dommages de masse de faible valeur, l’automatisation est pertinente (v. par ex. l’Estonie qui pourrait avoir initié le juge-robot pour les petites affaires de – 5.000 euros). Il reste que, dans tous les cas de figure, la suggestion algorithmique est le fruit de l’apprentissage de données tirées du passé. Au mieux, le code informatique peut dire ce qui est mais certainement pas (à tout le moins pas encore) ce qui doit être. C’est que l’intelligence artificielle que nous pratiquons (qu’il est d’usage de qualifiée de faible) n’est pas encore capable de le faire. Alors, et cela pourrait prêter à sourire, aussi moderne soit ce code informatique là, il est porteur d’une obsolescence intrinsèque qu’on fait mine de ne pas voir. Que la binarité soit un trait caractéristique de la structuration de la règle de droit et que, par voie de conséquence, la modélisation mathématique soit séduisante est une chose. Il reste que dire le droit et rendre la justice impliquent la recherche d’un équilibre entre des intérêts concurrents dont le tiers-juge est le garant (en dernière intention). Droit et justice ne sont pas synonyme. Si la règle juridique aspire à la binarité, sa mise en œuvre se recommande d’un ternaire…En bref, on ne saurait jamais se passer d’un tiers neutre même pas dans une start’up nation.

Qu’il soit juridique ou algorithmique, un code se discute. Seulement pour que chacun puisse se voir juridiquement et équitablement attribuer ce qui lui est dû, il importe de lever l’opacité de l’algorithme.

2.- Opacité de l’algorithme

12.- Le code 2.0 doit retenir l’attention de tout un chacun. Aussi puissants soient les calculateurs, et peu important que l’algorithme soit programmé pour apprendre, les machines ne sont encore que le produit de la science humaine, la donnée est encore l’affaire de femmes et d’hommes. Ce n’est pas le moindre des biais méthodologiques. Il a ceci de commun avec celui qu’on vient de décrire qu’il est trompeur.

13.- Biais méthodologiques. Les résultats qui sont renseignés par un système d’information (output) sont toujours corrélés aux données qui ont été collectées puis entrées (input). De quoi parle-t-on. Eh bien de jugement de valeurs dans tous les sens du terme (juridique et technologique). Or un juge quel qu’il soit a une obligation : celle de motiver sa décision (art. 455 cpc). Et ce pour de justes et utiles raisons que nous connaissons bien : prévention de l’arbitraire et condition du contrôle de légalité. Quand on sait la puissance performative de la modélisation mathématique, ce serait commettre une erreur de ne pas rechercher à lever l’opacité algorithmique qui est bien connue des faiseurs de systèmes d’informations.

14.- Clef de voûte. La transparence en la matière est la clef de voute. L’édification mathématique ne saurait valablement prospérer sans que la méthode analytique des décisions sélectionnées aux fins d’apprentissage de l’algorithme n’ait été explicitée, sans que la sélection des décisions de justice voire des transactions n’ait été présentée, sans que la qualité et le nombre des personnes qui ont procédé n’aient été renseignés. Seulement voilà, et ce que je veux vous dire n’augure rien de très bon : le code informatique est un secret industriel protégé en tant que tel que les legaltech, qui sont en concurrence, n’ont aucun intérêt à révéler. Les initiatives publiques doivent donc être impérativement soutenues. L’accessibilité doit être garantie. En bref, Datajust, qui est un référentiel public relatif à l’indemnisation des victimes de dommages corporels, est la voie à suivre. Encore qu’il ne satisfasse pas complètement aux conditions de praticabilité et de démocratisation attendus. Et que, partant, sa performativité soit possiblement trop grande. Possiblement car l’essai n’a pas été encore transformée en raison des doutes que le décret a suscité.

Doutes que je souhaiterais aborder à présent dans un essai prospectif pour lister quelques conditions qui me semble devoir être satisfaites pour qu’ils soient levés.

B.- Essai prospectif

15.- Algorithmisation et open data. À titre de remarque liminaire, il faut dire (qu’on la redoute ou non) que l’algorithmisation de la réparation des dommages ne sauraient prospérer sans que, au préalable, de la donnée soit mise à la disposition du public et des opérateurs. Or, l’open data n’est pas aussi répandu qu’on veut bien l’imaginer. En France, je l’ai dit tout à l’heure, nous y sommes presque. En l’état, le compte n’y pas tout à fait encore. Ailleurs, la donnée est la propriété presque exclusive de firmes privées qui monnayent un accès amélioré aux décisions de justice sélectionnées par elles-mêmes (Belgique) ou bien la donnée ne peut tout bonnement pas être partagée (Italie).

Une fois cette condition remplie, l’algorithme est en mesure de travailler. Pour s’assurer que le travail soit bien fait, il importerait qu’on s’entende sur quelques spécifications techniques et politiques. C’est sur ces dernières que je souhaiterais conclure.

16.- Régulation. En l’état, les systèmes d’information ne sont pas régulés du tout. On se souviendra qu’il aura fallu une exploitation abusive et sans précédent des données personnelles par les Gafam pour qu’on se décide à élaborer un règlement général sur la protection desdites données. Seulement, et sans préjudice des dommages causés aux personnes concernées, il n’est pas ou plus question ici de l’accaparement de données par quelques firmes de marchands. L’affaire est d’un tout autre calibre. C’est d’assistance à la décision juridique ou judiciaire dont il est question. Que la justice ne soit plus tout à fait une fonction régalienne de l’État, admettons. Mais les responsabilistes ne sauraient prêter leur concours sans aucune prévention à l’utilisation de l’intelligence artificielle dans la réparation des dommages. Pour le dire autrement, une gouvernance technique et scientifique me semble devoir être mise en place. Cette exigence est présente dans les rapports tout particulièrement dans le rapport belge.

17.- Règlementation. Le 21 avril 2021 a été diffusé une proposition de règlement établissant des règles harmonisées concernant l’intelligence artificielle dans laquelle les IA sont distinguées selon le risque qu’elles font courir. Et des intelligences artificielles, destinées à suggérer le droit pour faire bref, d’être qualifiées de systèmes à haut risque. La belle affaire. On est encore loin du compte.

En résumé, le code doit être connu de ses utilisateurs, les données primitives exploitées par l’algorithme doivent être indexées, une révision des contenus doit être programmée, des évaluations et crash-test doivent être faits. Et je suis loin d’épuiser les conditions qu’il s’agirait qu’on respectât pour bien faire.

18.- En conclusion et parce que je suis intimement convaincu qu’on ne stoppera pas le mouvement d’algorithmisation de la réparation des dommages, permettez-moi de formuler cette question un tantinet provocante et qui transparaît des rapports nationaux : veut-on que du droit soit suggéré par des algorithmes (privés) faiseurs de loi ou bien plutôt du droit dit par un législateur faiseur d’algorithmes (publics) ?


[1] Un style parlé a été employé dans cette version provisoire.

[2] https://www.health-data-hub.fr/

[3] Arr. du 24 juin 2014 relatif à la gratuité de la réutilisation des bases de données juridiques de la direction de l’information légale et administrative.

[4][4] https://www.courdecassation.fr/la-cour-de-cassation/demain/lopen-data-des-decisions-judiciaires

RGPD: Le droit à la limitation du traitement

Le droit à la limitation du traitement consiste à conférer à la personne concernée de suspendre le traitement dont elle fait l’objet tout en conservant les données traitées.

Par limitation du traitement, il faut entendre, selon l’article 4, §3 du RGPD, « le marquage de données à caractère personnel conservées, en vue de limiter leur traitement futur ».

Il, s’agit, autrement dit, d’enjoindre le responsable du traitement d’adopter des mesures conservatoires en vue de procéder à certaines vérifications.

==> Champ d’application

En application de l’article 18 du RGPD la personne concernée a le droit d’obtenir du responsable du traitement la limitation du traitement dans les situations suivantes :

  • L’exactitude des données à caractère personnel est contestée par la personne concernée, pendant une durée permettant au responsable du traitement de vérifier l’exactitude des données à caractère personnel ;
  • Le traitement est illicite et la personne concernée s’oppose à leur effacement et exige à la place la limitation de leur utilisation ;
  • Le responsable du traitement n’a plus besoin des données à caractère personnel aux fins du traitement mais celles-ci sont encore nécessaires à la personne concernée pour la constatation, l’exercice ou la défense de droits en justice ;
  • La personne concernée s’est opposée au traitement en vertu de l’article 21, §1, pendant la vérification portant sur le point de savoir si les motifs légitimes poursuivis par le responsable du traitement prévalent sur ceux de la personne concernée.

==> Principe

L’article 18, §2 du RGPD prévoit que lorsque le traitement a été limité, les données à caractère personnel doit être conservées par le responsable du traitement, sans qu’il puisse les traiter.

Le considérant 67 précise que les méthodes visant à limiter le traitement de données à caractère personnel peuvent consister, entre autres, à déplacer temporairement les données sélectionnées vers un autre système de traitement, à rendre les données à caractère personnel sélectionnées inaccessibles aux utilisateurs, ou à retirer temporairement les données publiées d’un site internet.

Dans les fichiers automatisés, la limitation du traitement doit en principe être assurée par des moyens techniques de façon à ce que les données à caractère personnel ne fassent pas l’objet d’opérations de traitements ultérieures et ne puissent pas être modifiées.

Le fait que le traitement des données à caractère personnel est limité doit être indiqué de manière claire dans le fichier.

==> Limites

L’article 18, §2 du RGPD autorise le responsable du traitement à traiter les données qui font l’objet d’une limitation dans quatre cas :

  • La personne concernée a donné son consentement
  • Les données sont traitées pour la constatation, l’exercice ou la défense de droits en justice
  • Les données sont traitées pour la protection des droits d’une autre personne physique ou morale
  • Les données sont traitées pour des motifs importants d’intérêt public de l’Union ou d’un État membre.

RGPD: Le droit à la portabilité des données

==> Ratio legis

L’article 20 du règlement général sur la protection des données (RGPD) introduit un nouveau droit à la portabilité des données.

Ce droit permet aux personnes concernées de :

  • Recevoir les données à caractère personnel qu’elles ont fournies à un responsable du traitement, dans un format structuré, couramment utilisé et lisible par machine
  • Transmettre les données récupérées sans obstacle à un autre responsable du traitement.

Ce droit, qui s’applique sous réserve de certaines conditions, encourage le choix et le contrôle de l’utilisateur, ainsi que sa responsabilisation.

Les personnes exerçant leur droit d’accès au titre de la directive 95/46/CE relative à la protection des données étaient limitées par le format choisi par le responsable du traitement lors de la fourniture des informations demandées.

Le nouveau droit à la portabilité des données vise à responsabiliser les personnes concernées au sujet de leurs données à caractère personnel, car il facilite leur capacité à déplacer, à copier ou à transmettre facilement des données à caractère personnel d’un environnement informatique vers un autre (qu’il s’agisse de leur propre système, du système de tiers de confiance ou de celui de nouveaux responsables du traitement).

==> Les conditions d’exercice du droit à la portabilité

L’exercice du droit à la portabilité des données est subordonné à la satisfaction de trois conditions cumulatives

  • Première condition
    • Le droit à la portabilité ne peut porter que les données concernant la personne qui l’exerce.
    • Seules les données à caractère personnel peuvent faire l’objet d’une demande de portabilité.
    • Par conséquent, toute donnée anonyme ou ne se rapportant pas la personne concernée est exclue du champ d’application de la portabilité.
    • Toutefois, les données pseudonymisées qui peuvent clairement être liées à la personne concernée (par exemple, lorsque la personne concernée fournit l’identifiant correspondant) relèvent du champ d’application de l’article 20 du RGPD
  • Deuxième condition
    • Le droit à la portabilité ne peut porter que sur des données qui ont été fournies par la personne concernée au responsable du traitement
    • Une distinction peut être opérée entre différentes catégories de données, en fonction de leur origine, afin de déterminer si elles sont couvertes par le droit à la portabilité des données.
    • Les catégories suivantes peuvent être qualifiées de données « fournies par la personne concernée» :
      • Les données activement et sciemment fournies par la personne concernée (par exemple, adresse postale, nom d’utilisateur, âge, etc.) ;
      • Les données observées fournies par la personne concernée grâce à l’utilisation du service ou du dispositif. Ces données peuvent inclure, par exemple, l’historique de recherche, les données relatives au trafic et les données de localisation d’une personne. Elles peuvent aussi inclure d’autres données brutes comme le rythme cardiaque enregistré par un dispositif portable.
    • En revanche, les données déduites et les données dérivées qui sont créées par le responsable du traitement sur la base des données « fournies par la personne concernée», tel que le résultat d’une appréciation relative à la santé d’un utilisateur ou un profil créé dans le contexte des règlementations relatives à la gestion des risques et de la réglementation financière ne peuvent pas être considérés en soi comme ayant été « fournies » par la personne concernée.
    • Bien que ces données puissent faire partie d’un profil conservé par un responsable du traitement et soient déduites ou dérivées d’une analyse des données fournies par la personne concernée (par ses actions, par exemple), ces données ne seront généralement pas considérées comme étant « fournies par la personne concernée» et ne relèveront dès lors pas du champ d’application de ce nouveau droit
  • Troisième condition
    • Les opérations de traitement doivent être fondées :
      • Soit sur le consentement de la personne concernée
      • Soit sur un contrat auquel la personne concernée est partie
  • Quatrième condition
    • La transmission des données doit s’opérer au moyen d’un traitement effectué à l’aide de procédés automatisés
  • Cinquième condition
    • Le droit à la portabilité des données ne doit pas porter atteinte aux droits et libertés de tiers
    • Cette condition vise à empêcher l’extraction et la transmission de données contenant les données à caractère personnel d’autres personnes concernées (non consentantes) à un nouveau responsable du traitement dans le cas où ces données sont susceptibles d’être traitées d’une manière qui porterait atteinte aux droits et aux libertés des autres personnes concernées
    • Une telle atteinte interviendrait, par exemple, si la transmission de données d’un responsable du traitement à un autre empêchait des tiers d’exercer leurs droits en tant que personnes concernées en vertu du règlement général sur la protection des données (comme le droit à l’information, le droit d’accès, etc.).

==> Modalités d’exercice du droit à la portabilité

  • Le destinataire de la demande
    • La demande de portabilité doit être adressé au responsable du traitement qui est le débiteur de l’obligation
    • Il est donc inopérant de formuler cette demande auprès de la CNIL
  • La justification de l’identité
    • L’article 12, §6, dispose que lorsque le responsable du traitement a des doutes raisonnables quant à l’identité de la personne concernée, il peut demander que lui soient fournies des informations supplémentaires nécessaires pour confirmer l’identité de la personne concernée.
    • Lorsqu’une personne concernée fournit des informations complémentaires permettant de l’identifier, le responsable du traitement ne peut refuser de donner suite à la demande.
    • Lorsque les informations et données collectées en ligne sont liées à des pseudonymes ou à des identifiants uniques, les responsables du traitement peuvent appliquer des procédures appropriées permettant à une personne de présenter une demande de portabilité des données et de recevoir des données la concernant.
    • En tout état de cause, les responsables du traitement doivent appliquer une procédure d’authentification afin d’établir avec certitude l’identité de la personne concernée demandant ses données à caractère personnel ou, plus généralement, exerçant les droits conférés par le règlement général sur la protection des données.
  • Le coût de la demande
    • L’article 12 du RGPD interdit au responsable du traitement d’exiger un paiement pour fournir les données à caractère personnel, à moins qu’il puisse démontrer que les demandes sont manifestement infondées ou excessives, « notamment en raison de leur caractère répétitif».
    • Ainsi, les coûts totaux liés à la mise en œuvre du système ne devraient pas être imputés aux personnes concernées ni invoqués pour justifier un refus de répondre à des demandes de portabilité.

==> L’exécution de l’obligation

  • L’obligation d’information préalable
    • Afin de respecter le nouveau droit à la portabilité des données, les responsables du traitement doivent informer les personnes concernées de l’existence de ce nouveau droit.
    • Deux situations doivent être distinguées :
      • Lorsque les données à caractère personnel concernées sont collectées directement auprès de la personne concernée, cette information doit avoir lieu « au moment où les données en question sont obtenues».
      • Lorsque les données à caractère personnel n’ont pas été collectées auprès de la personne concernée, l’article 14, §3 du RGPD, exige que les informations soient fournies dans un délai raisonnable après avoir obtenu les données à caractère personnel, mais ne dépassant pas un mois, au moment de la première communication avec la personne concernée ou lorsque les données à caractère personnel sont communiquées à des tiers
    • Lorsqu’ils fournissent les informations requises, les responsables du traitement doivent veiller à opérer une distinction entre le droit à la portabilité des données et les autres droits.
    • Aussi, le Groupe de l’article 29 recommande-t-il que les responsables du traitement expliquent clairement la différence entre les types de données qu’une personne concernée peut recevoir en exerçant son droit d’accès et son droit à la portabilité.
  • Le délai d’exécution
    • L’article 12, paragraphe 3, requiert que le responsable du traitement fournisse à la personne concernée « des informations sur les mesures prises» « dans les meilleurs délais » et en tout état de cause « dans un délai d’un mois à compter de la réception de la demande ».
    • Ce délai d’un mois peut être prolongé à un maximum de trois mois pour les affaires complexes, à condition que la personne concernée ait été informée des motifs de cette prolongation dans un délai d’un mois à compter de la réception de la demande initiale.
    • Le responsable du traitement qui ne donne pas suite à une demande de portabilité informe la personne concernée, conformément à l’article 12, paragraphe 4, « des motifs de son inaction et de la possibilité d’introduire une réclamation auprès d’une autorité de contrôle et de former un recours juridictionnel », dans un délai maximal d’un mois à compter de la réception de la demande.
    • Au bilan, les responsables du traitement doivent respecter l’obligation de répondre à la demande dans les conditions prescrites, même s’il s’agit de signifier un refus.
    • En d’autres termes, le responsable du traitement est tenu de répondre à une demande de portabilité des données.
  • Modalités d’exécution
    • Le RGPD exige du responsable du traitement qu’il fournisse les données à caractère personnel demandées par la personne concernée dans un format qui permet leur réutilisation.
    • Plus spécifiquement, l’article 20, §1 dispose que les données à caractère personnel doivent être fournies « dans un format structuré, couramment utilisé et lisible par machine».
    • Le considérant 68 précise que ce format doit être interopérable, un terme qui est défini comme suit dans l’Union :
      • « La capacité de diverses organisations hétérogènes à interagir en vue d’atteindre des objectifs communs, mutuellement avantageux et convenus, impliquant le partage d’informations et de connaissances entre elles, selon les processus d’entreprise qu’elles prennent en charge, par l’échange de données entre leurs systèmes TIC respectifs. »
    • Les qualificatifs « structuré », « couramment utilisé» et « lisible par machine » constituent une série d’exigences minimales qui devraient faciliter l’interopérabilité du format de données fourni par le responsable du traitement.
    • En ce sens, les termes « structuré, couramment utilisé et lisible par machine» donnent des précisions sur les moyens, tandis que l’interopérabilité est le résultat escompté.
    • Le considérant 21 de la directive 2013/37/UE33 définit le format « lisible par machine» comme suit :
      • « Un format de fichier structuré de telle manière que des applications logicielles puissent facilement identifier, reconnaître et extraire des données spécifiques, notamment chaque énoncé d’un fait et sa structure interne.
      • Les données encodées présentes dans des fichiers qui sont structurés dans un format lisible par machine sont des données lisibles par machine.
      • Les formats lisibles par machine peuvent être ouverts ou propriétaires ; il peut s’agir de normes formelles ou non.
      • Les documents encodés dans un format de fichier qui limite le traitement automatique, en raison du fait que les données ne peuvent pas, ou ne peuvent pas facilement, être extraites de ces documents, ne devraient pas être considérés comme des documents dans des formats lisibles par machine.
      • Les États membres devraient, le cas échéant, encourager l’utilisation de formats ouverts, lisibles par machine. »
    • Compte tenu de la grande variété de types de données potentiels qui pourraient être traités par un responsable du traitement, le règlement général sur la protection des données n’impose pas de recommandations spécifiques quant au format des données à caractère personnel à fournir.
    • Le format le plus approprié différera d’un secteur à l’autre et des formats adéquats peuvent déjà exister, et doivent toujours être choisis de manière à pouvoir être interprétés et offrir à la personne concernée un degré élevé de portabilité.
    • Dès lors, les formats qui sont soumis à des contraintes de licences onéreuses ne sont pas considérés comme relevant d’une approche adéquate.
    • Le considérant 68 précise que « [l]e droit de la personne concernée de transmettre ou de recevoir des données à caractère personnel la concernant ne devrait pas créer, pour les responsables du traitement, d’obligation d’adopter ou de maintenir des systèmes de traitement qui sont techniquement compatibles».
    • Dès lors, la portabilité vise à produire des systèmes interopérables, et non des systèmes compatibles.

RGPD: Le droit à l’effacement ou le “droit à l’oubli”

Le droit à l’effacement, dit encore, droit à l’oubli se rattache à la protection classique de la vie privée, mais son intégration dans le RGPD est particulièrement poussée.

Alors que le droit au déréférencement avait été introduit par la CJUE dans un arrêt notoire du 13 mai 2014 (CJUE, GC, 13 mai 2014, Google Spain SL et Google Inc.), le RGPD met en place une double obligation pour les responsables du traitement et les sous-traitants : ils doivent effacer, dans les meilleurs délais, les données à caractère personnel qu’un citoyen leur demande de supprimer mais aussi, compte tenu de leurs capacités techniques et du coût que cela peut représenter, prendre toute mesure raisonnable pour informer, lorsqu’il a rendu les données publiques, les autres responsables de traitement de la demande d’effacement.

Le considérant 65 du RGPD précise à cet égard, que ce droit à l’effacement est pertinent, en particulier, lorsque la personne concernée a donné son consentement à l’époque où elle était enfant et n’était pas pleinement consciente des risques inhérents au traitement, et qu’elle souhaite par la suite supprimer ces données à caractère personnel, en particulier sur l’internet.

La personne concernée doit donc pouvoir exercer ce droit nonobstant le fait qu’elle n’est plus un enfant.

Afin de renforcer le «droit à l’oubli» numérique, le RGPD pose encore, en son considérant 66, que le droit à l’effacement doit également être étendu de façon à ce que le responsable du traitement qui a rendu les données à caractère personnel publiques soit tenu d’informer les responsables du traitement qui traitent ces données à caractère personnel qu’il convient d’effacer tout lien vers ces données, ou toute copie ou reproduction de celles-ci.

Ce faisant, ce responsable du traitement doit prendre des mesures raisonnables, compte tenu des technologies disponibles et des moyens dont il dispose, y compris des mesures techniques afin d’informer les responsables du traitement qui traitent les données à caractère personnel de la demande formulée par la personne concernée.

§1 : Le principe du droit à l’effacement

L’article 40 de la LIL dispose que « toute personne physique justifiant de son identité peut exiger du responsable d’un traitement que soient […] effacées les données à caractère personnel la concernant, qui sont inexactes, incomplètes, équivoques, périmées, ou dont la collecte, l’utilisation, la communication ou la conservation est interdite. »

Dans le même sens, l’article 17 du RGPD prévoit que « la personne concernée a le droit d’obtenir du responsable du traitement l’effacement, dans les meilleurs délais, de données à caractère personnel la concernant et le responsable du traitement a l’obligation d’effacer ces données à caractère personnel dans les meilleurs délais […] ».

Il ressort de ces deux textes que c’est un véritable droit à l’oubli qui a été consacré par le législateur.

§2 : Les conditions du droit à l’effacement

Le législateur a entendu limiter l’exercice du droit à l’effacement à certains cas. A cet égard, il ne peut être exercé que lorsque l’un des motifs suivants s’applique :

  • Les données à caractère personnel ne sont plus nécessaires au regard des finalités pour lesquelles elles ont été collectées ou traitées d’une autre manière;
  • La personne concernée retire le consentement sur lequel est fondé le traitement et il n’existe pas d’autre fondement juridique au traitement;
  • La personne concernée s’oppose au traitement, et il n’existe pas de motif légitime impérieux pour le traitement
  • Les données à caractère personnel ont fait l’objet d’un traitement illicite;
  • Les données à caractère personnel doivent être effacées pour respecter une obligation légale qui est prévue par le droit de l’Union ou par le droit de l’État membre auquel le responsable du traitement est soumis;
  • Les données à caractère personnel ont été collectées dans le cadre de l’offre de services de la société de l’information, soit lorsque la personne était mineure au moment de la collecte de ses données

§3 : L’exercice du droit à l’effacement

  • Le destinataire de la demande
    • La demande d’effacement doit être adressée au responsable du traitement qui est le débiteur de l’obligation
    • Il est donc inopérant de formuler cette demande auprès de la CNIL
  • La justification de l’identité
    • Pour accéder à la demande de la personne concernée, le responsable du traitement sera fondé à exiger du demander qu’il justifie son identité.
    • Il ne devra pas, néanmoins, lui imposer des pièces justificatives qui seraient disproportionnées eu égard à la demande formulée

§4 : L’exécution du droit à l’effacement

  • Délai
    • A réception de la demande d’effacement, le responsable du traitement devra s’exécuter dans les meilleurs délais et, au plus tard, dans un délai d’un mois.
    • Au besoin, ce délai peut être prolongé de deux mois, compte tenu de la complexité et du nombre de demandes.
    • En cas de prorogation du délai de réponse, le responsable du traitement informe la personne concernée de cette prolongation et des motifs du report dans un délai d’un mois à compter de la réception de la demande.
    • Dans l’hypothèse où le responsable du traitement ne donnerait pas suite à la demande formulée par la personne concernée, il informe celle-ci sans tarder et au plus tard dans un délai d’un mois à compter de la réception de la demande des motifs de son inaction et de la possibilité d’introduire une réclamation auprès d’une autorité de contrôle et de former un recours juridictionnel.
    • En cas de non-exécution de l’effacement des données à caractère personnel dans un délai d’un mois à compter de la demande, la personne concernée peut saisir la Commission nationale de l’informatique et des libertés, qui se prononce sur cette demande dans un délai de trois semaines à compter de la date de réception de la réclamation.
  • Preuve
    • L’article 40, I de la LIL prévoit que lorsque l’intéressé en fait la demande, le responsable du traitement doit justifier, sans frais pour le demandeur, qu’il a procédé aux opérations exigées.
    • En cas de contestation, la charge de la preuve incombe au responsable auprès duquel est exercé le droit d’accès sauf lorsqu’il est établi que les données contestées ont été communiquées par l’intéressé ou avec son accord.
  • Cas particuliers des données rendues publiques
    • L’article 17 du RGPD prévoit que lorsqu’il a rendu publiques les données à caractère personnel et qu’il est tenu de les effacer, le responsable du traitement, compte tenu des technologies disponibles et des coûts de mise en œuvre, prend des mesures raisonnables, y compris d’ordre technique, pour informer les responsables du traitement qui traitent ces données à caractère personnel que la personne concernée a demandé l’effacement par ces responsables du traitement de tout lien vers ces données à caractère personnel, ou de toute copie ou reproduction de celles-ci.
    • L’obligation est ici, non pas de résultat, mais de moyen

§5 : Les limites du droit à l’effacement

Le législateur européen a assorti le droit à l’effacement de plusieurs limites énoncées à l’article 17 du RGPD.

Ainsi, le droit à l’oubli ne s’applique pas :

  • A l’exercice du droit à la liberté d’expression et d’information ;
  • Pour respecter une obligation légale qui requiert le traitement prévue par le droit de l’Union ou par le droit de l’État membre auquel le responsable du traitement est soumis, ou pour exécuter une mission d’intérêt public ou relevant de l’exercice de l’autorité publique dont est investi le responsable du traitement;
  • Pour des motifs d’intérêt public dans le domaine de la santé publique ;
  • A des fins archivistiques dans l’intérêt public, à des fins de recherche scientifique ou historique ou à des fins statistiques conformément à l’article 89, paragraphe 1, dans la mesure où le droit visé au paragraphe 1 est susceptible de rendre impossible ou de compromettre gravement la réalisation des objectifs dudit traitement ;
  • A la constatation, à l’exercice ou à la défense de droits en justice.

De l’esprit de la loi informatique et libertés: l’article 1er

L’article 1er de la loi informatique et libertés prévoit que « l’informatique doit être au service de chaque citoyen. Son développement doit s’opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques.

Toute personne dispose du droit de décider et de contrôler les usages qui sont faits des données à caractère personnel la concernant, dans les conditions fixées par la présente loi».

En raison de la portée générale, sinon symbolique de cette disposition, elle occupe une place à part dans le corpus de la loi informatique et libertés. Et pour cause, elle en exprime l’esprit ; elle est son réceptacle.

À cet égard, l’article 1er révèle, chez le législateur, à la fois l’espoir et l’inquiétude que le développement de l’informatique peut faire naître.

Il prescrit, en face d’un phénomène de société sans précédent, une attitude que les autorités publiques, en particulier la Commission Nationale de l’Informatique et des Libertés (CNIL), ont pour mission de faire respecter.

Aussi, cela leur impose-t-il d’être attentives aux évolutions, aux glissements de pouvoirs, aux centralisations excessives, dans tous les domaines sans exception, où l’informatique est utilisée.

Si l’on se focalise sur les termes de l’article qui introduit la loi informatique et libertés, trois enseignements majeurs peuvent en être tirés :

  • Le traitement des données à caractères personnels ne doit porter atteinte, ni à l’état des personnes, ni à leurs droits et libertés
  • Les individus jouissent d’un droit à l’autodétermination informationnelle
  • L’encadrement des traitements de données à caractère personnel doit s’opérer dans le cadre d’une coopération internationale

§1 : La protection de la personne humaine

L’article 1er de la loi informatique et libertés dispose que l’informatique « ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques. »

La lecture de cette disposition révèle que la volonté du législateur a été de conférer une protection des plus larges aux personnes, en ce sens qu’elle ne vise pas seulement à prévenir les atteintes susceptibles d’être portées à la vie privée.

Pour rappel, le droit à la vie privée a été consacré par la loi n° 70-643 du 17 juillet 1970 tendant à renforcer la garantie des droits individuels des citoyens.

Ce droit est énoncé à l’article 9 du Code civil qui dispose :

« Les juges peuvent, sans préjudice de la réparation du dommage subi, prescrire toutes mesures, telles que séquestre, saisie et autres, propres à empêcher ou faire cesser une atteinte à l’intimité de la vie privée : ces mesures peuvent, s’il y a urgence, être ordonnées en référé. »

Au vrai, si le législateur a entendu inclure dans le champ de la protection conférée par la loi informatique et libertés, l’identité humaine, les droits de l’Homme ainsi que les libertés publiques ou individuelles, c’est qu’il a estimé que le droit à la vie privé, fusse-t-il inséré dans le Code civil, était trop étroit.

Dès 1978, les parlementaires avaient bien conscience que les atteintes aux personnes engendrées par le traitement automatisé des données dépassaient le simple cadre de la vie privée.

De surcroît, le droit à la vie privée n’est reconnu par aucun texte à valeur constitutionnelle.

A) L’étroitesse du droit à la vie privée

Il est particulièrement frappant de constater que les normes constitutionnelles qui protègent les droits et libertés fondamentaux des individus ne mentionnent nulle part le droit de chacun au respect de sa vie privée et à la protection de ses données personnelles.

Ces droits ne sont inscrits, ni dans la Constitution du 4 octobre 1958, ni dans son préambule.

Ces droits sont seulement protégés par des dispositions de nature législative.

  • L’article 9 du Code civil énonce le droit au respect de la vie privée
  • Certaines dispositions pénales répriment les violations de l’intimité de la vie privée, notamment les articles 226-1, 226-2, 226-3, 226-4-1 ou 226-22 du code pénal.

C’est seulement par effet de la jurisprudence développée par le Conseil constitutionnel que ces droits ont été progressivement et partiellement reconnus.

Le Conseil constitutionnel a jugé, dans une décision du 23 juillet 1999 que la liberté proclamée par l’article 2 de la Déclaration des droits de l’homme et du citoyen de 1789 « implique le respect de la vie privée », principe qui figure au nombre des droits et libertés constitutionnellement garantis dont la mise en œuvre incombe à la fois au juge judiciaire et au juge administratif.

Le Conseil constitutionnel n’a, toutefois, tiré que très récemment les conséquences de ce droit en matière de protection des données personnelles, en jugeant à partir de 2012 que « la collecte, l’enregistrement, la conservation, la consultation et la communication de données à caractère personnel doivent être justifiés par un motif d’intérêt général et mis en œuvre de manière adéquate et proportionnée à cet objectif » (Décisions nos 2012-652 DC du 22 mars 2012).

Cette situation, qui démontre la relative obsolescence et l’inadaptation de notre corpus constitutionnel aux réalités de la société numérique, tranche également avec la reconnaissance dont ces droits ont fait l’objet en droit international.

Le principe du respect de la vie privée est explicitement affirmé et protégé par plusieurs instruments internationaux, parmi lesquels :

  • La Déclaration universelle des droits de l’homme du 10 décembre 1948
  • Le Pacte international relatif aux droits civils et politiques du 16 novembre 1966 (3), entré en vigueur le 23 mars 1976 et ratifié par la France le 4 novembre 1966
  • La Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales (CESDH) du 4 novembre 1950 (4), ratifiée par la France le 3 mai 1974.

Quant au droit à la protection des données à caractère personnel, il a notamment été consacré par la Convention du Conseil de l’Europe du 28 janvier 1981 pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel (6), dite « 108 ».

Fait notable, il est, depuis 2007, un droit fondamental dans l’ordre juridique de l’Union européenne, distinct du droit au respect de la vie privée.

L’article 8 de la Charte européenne des droits fondamentaux de l’Union européenne du 7 décembre 2000, à laquelle le traité de Lisbonne du 13 décembre 2007 a conféré valeur juridique contraignante, prévoit ainsi, distinctement de son article 7 relatif au respect de la vie privée, que :

  • Les données à caractère personnel doivent être traitées loyalement, à des fins déterminées et sur la base du consentement de la personne concernée ou en vertu d’un autre fondement légitime prévu par la loi
  • Toute personne a le droit d’accéder aux données collectées la concernant et d’en obtenir la rectification »
  • Le respect de ces règles est soumis au contrôle d’une autorité indépendante

Enfin, si la CESDH ne comporte pas d’article spécifiquement consacré à la protection des données personnelles, la CEDH protège expressément ce droit sur le fondement du droit au respect de la vie privée mentionné par l’article 8 de la Convention en jugeant que « la protection des données à caractère personnel joue un rôle fondamental pour l’exercice du droit au respect de la vie privée et familiale »[1].

Pour l’heure, la constitutionnalisation des droits au respect de la vie privée et à la protection des données à caractère personnel n’est toujours pas intervenue.

Pourtant, il a été proposé par Commission de réflexion et de propositions sur le droit et les libertés à l’âge numérique de consacrer explicitement et séparément dans la Constitution du 4 octobre 1958 les droits, d’une part, au respect de la vie privée, et, d’autre part, à la protection des données à caractère personnel.

Selon cette commission, la définition du droit au respect de la vie privée pourrait s’inspirer de la conception qu’en a développée jusqu’à ce jour le Conseil constitutionnel et la définition qu’en ont donné les normes et les juridictions communautaires et européennes.

Une telle consécration permettrait, pour ce qui concerne son volet numérique, de mieux protéger notamment le droit au secret des correspondances numériques et le droit à l’inviolabilité du domicile numérique face à certaines technologies intrusives.

La définition du droit à la protection des données personnelles pourrait pour sa part reprendre celle qu’en a donnée l’article 8 de la Charte européenne des droits fondamentaux de l’Union européenne, en parfaite cohérence avec les exigences posées par le droit communautaire dans ce domaine.

Sa consécration permettrait d’élever les conditions d’exploitation des données personnelles à l’ère numérique en soumettant leur traitement à l’exigence de loyauté et à l’existence de fins déterminées ainsi que d’un fondement légitime ou du consentement de l’intéressé.

Une telle consécration présenterait plusieurs avantages :

  • Tout d’abord, ainsi consacrés, ces droits se verraient érigés en exigences constitutionnelles de valeur équivalente à d’autres, comme la liberté d’entreprendre ou la liberté d’expression respectivement protégées par les articles 4 et 11 de la Déclaration des droits de l’homme et du citoyen de 1789, rendant plus aisée leur conciliation.
  • Par ailleurs, une telle consécration permettrait, comme suggéré par Isabelle Falque-Pierrotin, « d’afficher une protection du plus haut niveau dans ce domaine, ce qui serait très utile lors des négociations internationales» engagées au niveau de l’Union européenne et avec d’autres pays comme les États-Unis.
  • Enfin, elle rapprocherait la France des treize autres pays européens qui ont également procédé à la constitutionnalisation spécifique du droit à la protection des données à caractère personnel, en particulier l’Allemagne, l’Autriche, l’Espagne, la Grèce, la Hongrie, les Pays-Bas, le Portugal ou la Suède.

B) Une protection qui déborde le droit à la vie privée

En désignant comme objet de la protection assurée par la loi informatique et libertés, l’identité humaine, les droits de l’homme ainsi que les libertés individuelles ou publiques, le législateur a, sans nul doute, souhaité garantir le respect de la personne humaine dans toutes ses composantes.

L’étendue de cette protection se retrouve notamment à l’article 1er de la Convention 108 du Conseil de l’Europe aux termes duquel :

« le but de la présente Convention est de garantir, sur le territoire de chaque Partie, à toute personne physique, quelles que soient sa nationalité ou sa résidence, le respect de ses droits et de ses libertés fondamentales, et notamment de son droit à la vie privée, à l’égard du traitement automatisé des données à caractère personnel la concernant ».

La Directive du 24 octobre 1995 abondait dans le même sens en prévoyant à son article 1er que :

« Les États membres assurent, conformément à la présente directive, la protection des libertés et droits fondamentaux des personnes physiques, notamment de leur vie privée, à l’égard du traitement des données à caractère personnel. »

Quant au Règlement général sur la protection des données, son article 2 dispose, sensiblement dans les mêmes termes, que :

« Le présent règlement protège les libertés et droits fondamentaux des personnes physiques, et en particulier leur droit à la protection des données à caractère personnel. »

Ainsi, la protection de la personne humaine contre le traitement des données à caractère personnel doit être envisagée à l’aune des droits et libertés qui lui sont conférées.

En écho à l’article 1er de la loi informatique et libertés, le considérant 2 du RGPD prévient que « le traitement des données à caractère personnel devrait être conçu pour servir l’humanité », raison pour laquelle « les principes et les règles régissant la protection des personnes physiques à l’égard du traitement des données à caractère personnel les concernant devraient, quelle que soit la nationalité ou la résidence de ces personnes physiques, respecter leurs libertés et droits fondamentaux »

Au nombre des textes qui énoncent, en droit interne, ces droits et libertés figurent la Déclaration des Droits de l’Homme et du Citoyen, complétée par le préambule de la Constitution de 1946, le tout étant visé par le préambule de la Constitution du 4 octobre 1958.

L’article 1er de la loi informatique et libertés doit, en sus, être interprétée à la lumière de la jurisprudence du Conseil constitutionnel et des juridictions de l’ordre judiciaire et administratif.

Au bilan, il apparaît que la protection de la personne humaine contre les atteintes susceptibles d’être engendrées par le traitement des données à caractère personnel est bien plus étendue que celle garantie par le droit à la vie privée.

§2 : Le droit à l’autodétermination informationnelle

L’alinéa 2 de l’article 1er de la loi informatique et liberté dispose que « toute personne dispose du droit de décider et de contrôler les usages qui sont faits des données à caractère personnel la concernant, dans les conditions fixées par la présente loi. »

Cet alinéa, qui ne figurait pas dans le texte initial, est issu de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique.

Pourquoi cette précision ? Son ajout procède d’une réflexion sur le rapport que les sujets de droit entretiennent avec leurs données à caractère personnel.

Comme relevé par la Commission de réflexion et de propositions sur le droit et les libertés à l’âge numérique la monétisation économique croissante dont font aujourd’hui l’objet les données personnelles a pu conduire certains à considérer que la protection de la vie privée à l’ère numérique serait mieux assurée par la reconnaissance d’un droit de propriété de l’individu sur ses données permettant de mieux concilier l’exigence de protection avec le souhait de nombreuses personnes de valoriser leurs informations personnelles, en échange d’une rémunération ou d’un service.

Cette position est, cependant, loin d’être partagée par tous. Comme l’a indiqué Isabelle Falque-Pierrotin une telle logique ferait perdre « des leviers d’action considérables sur lesdites données : étant propriétaire de ses données, l’individu pourrait les vendre, notamment à des acteurs étrangers. Or la grande supériorité intellectuelle du droit à la protection des données personnelles réside dans le fait qu’il reconnaît le droit d’un individu même si les données sont traitées par d’autres ».

Certes la reconnaissance d’un droit de propriété de l’individu sur ses données ne conduirait pas à une privatisation irréversible de ses informations personnelles et à la perte de tout contrôle sur leur devenir. Le droit de la propriété intellectuelle enseigne, dans d’autres domaines, qu’il est possible de ménager des outils d’inaliénabilité limitant la portée du droit de cession, ouvrant des possibilités de licence et, en définitive, modulant cette patrimonialisation.

Mais, ainsi que l’a souligné Maryvonne de Saint-Pulgent, présidente de la section du rapport et des études du Conseil d’État, il est incontestable qu’elle fragiliserait considérablement le cadre juridique qui régit aujourd’hui les conditions d’utilisation des données personnelles.

Elle se heurterait encore aux limites territoriales de la reconnaissance du droit de propriété, à l’heure où les grands responsables de traitements de données sont implantés à l’étranger.

Et « la reconnaissance de ce droit de propriété rendrait plus difficile l’action de l’État pour protéger les individus confrontés à de multiples pièges car toutes ses interventions pourraient alors être regardées comme portant atteinte à un droit de valeur constitutionnelle ».

Par ailleurs, il est défendu, à juste titre, que les principes actuels de la loi informatique et libertés permettent déjà une valorisation économique des données, en autorisant, sous certaines conditions, leur recueil, leur exploitation et leur conservation en échange de la délivrance de services ou de facilités.

Qui plus est, un droit de propriété individuel sur les données ne permettrait pas de rééquilibrer la relation asymétrique qui existe aujourd’hui entre les éditeurs de services numériques et les internautes, marquée par la très faible valeur accordée aux données d’un seul individu.

Il serait donc pour le moins paradoxal d’accorder un droit de propriété à des individus pris isolément alors que c’est la masse des données de plusieurs centaines d’individus qui constitue une valeur économique aux yeux des responsables de traitements.

Enfin, cette reconnaissance romprait avec l’approche généraliste et personnaliste de notre législation, qui considère la donnée personnelle comme le support indirect d’un droit fondamental et inaliénable reconnu à l’individu dont elle émane et non comme un objet économique.

En lieu et place d’une privatisation de ses données personnelles, le législateur a don décidé de procéder à une plus grande autonomisation de l’individu dans l’univers numérique, en lui permettant non plus seulement de bénéficier de droits à la protection mais aussi d’être maître de son épanouissement dans l’univers numérique.

Jusqu’alors, l’approche par l’autonomisation individuelle était relativement absente de la législation française, à la différence d’autres pays européens comme l’Allemagne dont la Cour constitutionnelle fédérale a dégagé, dès 1983, des principes de dignité de l’homme et de droit au libre développement de sa personnalité un droit à l’autodétermination informationnelle de l’individu.

Pour la Cour de Karlsruhe qui s’est exprimée dans un arrêt du 15 décembre 1983, « la Constitution [allemande] garantit en principe la capacité de l’individu à décider de la communication et de l’utilisation de ses données à caractère personnel » car s’il « ne sait pas prévoir avec suffisamment de certitude quelles informations le concernant sont connues du milieu social et à qui celles-ci pourraient être communiquées, sa liberté de faire des projets ou de décider sans être soumis à aucune pression est fortement limitée ». Pour elle, « l’autodétermination est une condition élémentaire fonctionnelle dans une société démocratique libre, basée sur la capacité des citoyens d’agir et de coopérer ».

Séduit par cette approche, le législateur français a manifestement estimé, en complétant l’article 1er de la loi informatique et libertés que l’individu devait pouvoir disposer de moyens plus importants pour assurer sa protection face aux risques soulevés par le numérique.

Pratiquement, cette consécration du droit à l’autodétermination informationnelle présente quatre avantages parfaitement résumés par le Conseil d’État :

  • elle donne sens à tous les autres droits relatifs à la protection des données à caractère personnel qui ne constitue pas un but en soi ;
  • alors que le droit à la protection des données peut être perçu comme un concept défensif, le droit à l’autodétermination lui donne un contenu positif à la fois plus efficace et plus conforme à la logique personnaliste et non patrimoniale qui a toujours prévalu en Europe en matière de protection des données ;
  • elle souligne que la législation relative à la protection des données protège non seulement l’individu mais aussi les intérêts collectivement défendus par la société tout entière ;
  • elle apparaît d’une grande ambition, au regard de la perte générale de maîtrise par les individus de leurs données dans un contexte où la donnée personnelle est de plus en plus traitée comme une marchandise.

§3 : L’exigence de coopération internationale

L’article 1er de la loi informatique et libertés prévoit que le développement de l’informatique « doit s’opérer dans le cadre de la coopération internationale ».

Cette précision fait écho au développement des flux transfrontaliers de données à caractère personnel.

La mondialisation, l’essor de l’Internet et l’effondrement des coûts des télécommunications augmentent, en effet, considérablement le volume des informations de caractère personnel qui franchissent les frontières.

Cet accroissement de la circulation transfrontière de l’information a des retombées positives tant pour les organisations que pour les personnes en abaissant les coûts, en induisant des gains d’efficience et en améliorant le service au client.

Dans le même temps, ces flux d’informations de caractère personnel accentuent les préoccupations pour la vie privée, en soulevant de nouveaux problèmes de protection des informations de caractère personnel des individus.

Lorsque des données de caractère personnel partent à l’étranger, le risque que les personnes perdent leur capacité d’exercer leurs droits à la vie privée, ou de se protéger contre l’utilisation ou la divulgation illicite de cette information, augmente. Dans le même temps, les autorités chargées de faire appliquer les lois sur la vie privée peuvent constater qu’elles sont dans l’incapacité de donner suite aux plaintes ou de procéder à des investigations en relation avec les activités d’organisations implantées à l’étranger.

Les efforts qu’elles déploient pour œuvrer ensemble dans un contexte transfrontière pourraient également être entravés par des pouvoirs insuffisants en matière de mesures préventives ou correctives, par des disparités dans les régimes juridiques et par des obstacles pratiques comme des contraintes de ressources.

Dans ce contexte, un consensus s’est dessiné sur la nécessité de promouvoir une coopération plus étroite entre les autorités chargées de faire appliquer la législation sur la vie privée, afin de les aider à échanger des informations et procéder à des enquêtes avec leurs homologues à l’étranger.

L’importance de la coopération dans l’application des lois relatives à la protection de la vie privée est reconnue non seulement au sein de l’OCDE, mais aussi dans d’autres enceintes, notamment la Conférence internationale des commissaires à la protection des données et à la vie privée, le Conseil de l’Europe, la Coopération économique AsiePacifique (APEC), ainsi que l’Union européenne et son groupe de protection des personnes à l’égard du traitement des données de caractère personnel (Groupe de travail « Article 29 »).

De fait, les instruments régionaux et autres mécanismes moins formels destinés à faciliter la coopération transfrontière se multiplient. Cependant, aucun de ces instruments n’a de portée mondiale.

De fait, la nécessité d’un renforcement de la coopération dans l’application des lois est apparue pour la première fois dans les Lignes directrices de l’OCDE de 1980 régissant la protection de la vie privée et les flux transfrontières de données de caractère personnel (« Lignes directrices sur la vie privée »), rappelé dans la Déclaration ministérielle d’Ottawa de 1998 et souligné plus récemment en 2003 dans le rapport « Protection de la vie privée en ligne : orientations politiques et pratiques de l’OCDE ».

Bien que les Lignes directrices sur la vie privée servent de point de départ à l’initiative actuelle, l’environnement a changé.

Lorsque les Lignes directrices sur la vie privée ont été adoptées, environ un tiers seulement des pays Membres disposaient d’une législation sur la protection de la vie privée.

Aujourd’hui, la quasi-totalité des pays Membres de l’OCDE se sont dotés de lois protégeant la vie privée et ont mis en place des autorités ayant des pouvoirs pour les faire appliquer – signe que la protection de la vie privée et de la sécurité des informations personnelles est essentielle dans les sociétés démocratiques et concourt à la confiance des consommateurs sur les marchés tant intérieurs que mondiaux.

Pour toutes ces raisons, il est absolument nécessaire de satisfaire à cette exigence de coopération internationale, gravée dans le marbre de la loi informatique et libertés.

Pratiquement, afin d’élaborer des mécanismes de coopération internationale destinés à faciliter et à mettre en place une assistance mutuelle internationale pour faire appliquer les législations relatives à la protection des données à caractère personnel, il est un impératif que les autorités nationales puissent échanger des informations et coopérer dans le cadre d’activités liées à l’exercice de leurs compétences avec les autorités compétentes dans les pays tiers, sur une base réciproque.

Cette base réciproque est constituée notamment :

  • Des lignes directrices de l’OCDE
  • Des principes directeurs de l’ONU
  • De la convention STE 108
  • De la Convention européenne des droits de l’homme

[1] CEDH, 4 décembre 2008, S. et Marper c. Royaume-Uni, n° 30562/04 et 305566/04

Les sources du droit de la protection des données à caractère personnel

Section 1 : le droit international

§1 : Principes directeurs de l’ONU

Dans le cadre de sa résolution A/RES/45/95, l’Assemblée générale des Nations Unis a adopté, le 14 décembre 1990, des « principes directeurs pour la réglementation des fichiers personnels informatisés »

Ce texte envisage un certain nombre de garanties minimales qui doivent être prévues par les États membres, étant précisé que, contrairement aux décisions prises par le Conseil de sécurité, les résolutions adoptées par l’Assemblée générale des Nations Unis sont dépourvues de force contraignante.

Les principes directeurs énoncés par la résolution ainsi adoptée sont au nombre de 10 :

A) Champ d’application

Les présents principes s’appliquent :

  • D’une part, à tous les fichiers informatisés publics et privés et, par voie d’extension facultative et sous réserve des adaptations adéquates, aux fichiers traités manuellement.
  • D’autre part, si cela est expressément prévu par les législations nationales, aux fichiers de personnes morales, notamment lorsqu’ils contiennent pour partie des informations concernant des personnes physiques.

B) Principe de licéité et de loyauté

Les données concernant les personnes ne doivent pas être obtenues ou traitées à l’aide de procédés illicites ou déloyaux, ni utilisées à des fins contraires aux buts et aux principes de la Charte des Nations Unies.

C) Principe d’exactitude

Les personnes responsables de l’établissement d’un fichier ou celles responsables de leur mise en œuvre doivent être tenues de vérifier l’exactitude et la pertinence des données enregistrées et de veiller à ce qu’elles demeurent aussi complètes que possible pour éviter les erreurs par omission et qu’elles soient mises à jour, périodiquement ou lors de l’utilisation des informations contenues dans un dossier, tant qu’elles font l’objet d’un traitement.

D) Principe de finalité

La finalité en vue de laquelle est créé un fichier et son utilisation en fonction de cette finalité doivent être spécifiées, justifiées et, lors de sa mise en œuvre, faire l’objet d’une mesure de publicité ou être portées à la connaissance de la personne concernée, afin qu’il soit ultérieurement possible de vérifier :

  • Si toutes les données personnelles collectées et enregistrées restent pertinentes par rapport à la finalité poursuivie ;
  • Si aucune desdites données personnelles n’est utilisée ou divulguée, sauf accord de la personne concernée, à des fins incompatibles avec celles ainsi spécifiées ;
  • Si la durée de conservation des données personnelles n’excède pas celle permettant d’atteindre la finalité pour laquelle elles ont été enregistrées.

E) Principe de l’accès par les personnes concernées

Toute personne justifiant de son identité a le droit de savoir si des données la concernant font l’objet d’un traitement, d’en avoir communication sous une forme intelligible, sans délais ou frais excessifs, d’obtenir les rectifications ou destructions adéquates en cas d’enregistrements illicites, injustifiés ou inexacts, et, lorsqu’elles sont communiquées, d’en connaître les destinataires.

Une voie de recours doit être prévue, le cas échéant, auprès de l’autorité de contrôle prévue.

En cas de rectification, le coût devrait être à la charge du responsable du fichier.

Il est souhaitable que les dispositions de ce principe s’appliquent à toute personne, quelle que soit sa nationalité ou sa résidence.

F) Principe de non-discrimination

Sous réserve des cas de dérogations limitativement prévus sous le principe 6, les données pouvant engendrer une discrimination illégitime ou arbitraire, notamment les informations sur l’origine raciale ou ethnique, la couleur, la vie sexuelle, les opinions politiques, les convictions religieuses, philosophiques ou autres, ainsi que l’appartenance à une association ou un syndicat, ne doivent pas être collectées.

G) Faculté de dérogation

Deux catégories de dérogations doivent être distinguées :

  • Les dérogations relatives aux principes de licéité et de loyauté, d’exactitude, de finalité et de libre accès peuvent faire l’objet de dérogations.
    • Ces dérogations peuvent être envisagées par les États à la double condition
      • D’une part, que ces dérogations soient nécessaires pour protéger la sécurité nationale, l’ordre public, la santé ou la moralité publique ainsi que, notamment, les droits et libertés d’autrui, spécialement de personnes persécutées (clause humanitaire)
      • D’autre part, que ces dérogations soient expressément prévues par la loi ou par une réglementation équivalente prise en conformité avec le système juridique interne qui en fixe expressément les limites et édicte des garanties appropriées.
  • Les dérogations relatives au principe de la prohibition de la discrimination
    • Outre qu’elles doivent être soumises aux mêmes garanties que celles prévues pour les dérogations précédentes, elles ne peuvent être autorisées que dans les limites prévues par la Charte internationale des droits de l’homme et les autres instruments pertinents dans le domaine de la protection des droits de l’homme et de la lutte contre les discriminations.

H) Principe de sécurité

Des mesures appropriées doivent être prises pour protéger les fichiers tant contre les risques naturels, tels que la perte accidentelle ou la destruction par sinistre, que les risques humains, tels que l’accès non autorisé, l’utilisation détournée de données ou la contamination par des virus informatiques.

I) Contrôle et sanctions

Chaque législation doit désigner l’autorité qui, en conformité avec le système juridique interne, est chargée de contrôler le respect des principes précités.

Cette autorité doit présenter des garanties d’impartialité, d’indépendance à l’égard des personnes ou organismes responsables des traitements et de leur mise en œuvre, et de compétence technique.

En cas de violation des dispositions de la loi interne mettant en œuvre les principes précités, des sanctions pénales ou autres doivent être prévues ainsi que des recours individuels appropriés.

J) Flux transfrontières de données

Lorsque la législation de deux ou plusieurs pays, concernés par un flux transfrontière de données, présente des garanties comparables au regard de la protection de la vie privée, les informations doivent pouvoir circuler aussi librement qu’à l’intérieur de chacun des territoires concernés.

En l’absence de garanties comparables, des limitations à cette circulation ne peuvent être imposées indûment et seulement dans la stricte mesure où la protection de la vie privée l’exige.

§2 : Les lignes directrices de l’OCDE

A) Ratio legis

Par décision du 23 septembre 1980, l’Organisation de Coopération et de Développement Économiques (OCDE) a adopté des lignes directrices régissant la protection de la vie privée et les flux transfrontières de données de caractère personnel.

Les États membre de cette organisation internationale sont partis du constat, dès 1980, que le traitement automatique de l’information, qui permet de transmettre de vastes quantités de données en quelques secondes à travers les frontières nationales et même à travers les continents tendait à se généraliser et à prendre un essor qui n’aurait de cesse de s’accroître.

Il a encore été relevé que, en réaction, des législations relatives à la protection de la vie privée ont été adoptées en vue de prévenir des actes considérés comme constituant des violations des droits fondamentaux de l’homme, tels que le stockage illicite de données de caractère personnel qui sont inexactes, l’utilisation abusive ou la divulgation non autorisée de ces données.

L’OCDE y a vu le risque que des disparités se créent dans les législations nationales et qu’elles entravent la libre circulation des données de caractère personnel à travers les frontières.

Des restrictions imposées à ces flux pourraient, en effet, entraîner de graves perturbations dans d’importants secteurs de l’économie, tels que la banque et les assurances.

C’est pourquoi, les pays Membres de l’OCDE ont jugé nécessaire d’élaborer des lignes directrices qui permettraient d’harmoniser les législations nationales relatives à la protection de la vie privée et qui, tout en contribuant au maintien de ces droits de l’homme, empêcheraient que les flux internationaux de données ne subissent des interruptions.

Ces lignes directrices sont l’expression d’un consensus sur des principes fondamentaux qui peuvent être intégrés à la législation nationale en vigueur ou servir de base à une législation dans les pays qui ne sont pas encore dotés.

B) Énoncé des principes

Deux catégories de principes sont envisagées par les Lignes directrices de l’OCDE

?Les principes fondamentaux applicables au plan national

  • Principe de la limitation en matière de collecte
    • Il convient d’assigner des limites à la collecte des données de caractère personnel et toute donnée de ce type devrait être obtenue par des moyens licites et loyaux et, le cas échéant, après en avoir informé la personne concernée ou avec son consentement.
  • Principe de la qualité des données
    • Les données de caractère personnel doivent être pertinentes par rapport aux finalités en vue desquelles elles doivent être utilisées et, dans la mesure où ces finalités l’exigent, elles doivent être exactes, complètes et tenues à jour.
  • Principe de la spécification des finalités
    • Les finalités en vue desquelles les données de caractère personnel sont collectées doivent être déterminées au plus tard au moment de la collecte des données et lesdites données ne doivent être utilisées par la suite que pour atteindre ces finalités ou d’autres qui ne soient pas incompatibles avec les précédentes et qui seraient déterminées dès lors qu’elles seraient modifiées.
  • Principe de la limitation de l’utilisation
    • Les données de caractère personnel ne doivent pas être divulguées, ni fournies, ni utilisées à des fins autres que celles spécifiées conformément au paragraphe 9, si ce n’est :
      • Avec le consentement de la personne concernée
      • Lorsqu’une règle de droit le permet.
  • Principe des garanties de sécurité
    • Il convient de protéger les données de caractère personnel, grâce à des garanties de sécurité raisonnables, contre des risques tels que la perte des données ou leur accès, destruction, utilisation, ou divulgation non autorisés.
  • Principe de la transparence
    • Il convient d’assurer, d’une façon générale, la transparence des progrès, pratiques et politiques, ayant trait aux données de caractère personnel.
    • Il doit être possible de se procurer aisément les moyens de déterminer l’existence et la nature des données de caractère personnel, et les finalités principales de leur utilisation, de même que l’identité du maître du fichier et le siège habituel de ses activités.
  • Principe de la participation individuelle
    • Toute personne physique doit avoir le droit :
      • D’obtenir du maître d’un fichier, ou par d’autres voies, confirmation du fait que le maître du fichier détient ou non des données la concernant ;
      • De se faire communiquer les données la concernant :
        • Dans un délai raisonnable ;
        • Moyennant, éventuellement, une redevance modérée ;
        • Selon des modalités raisonnables ;
        • Sous une forme qui lui soit aisément intelligible ;
      • D’être informée des raisons pour lesquelles une demande quelle aurait présentée est rejetée et de pouvoir contester un tel rejet,
      • De contester les données la concernant et, si la contestation est fondée, de les faire effacer, rectifier, compléter ou corriger.
  • Principe de la responsabilité
    • Tout maître de fichier devrait être responsable du respect des mesures donnant effet aux principes énoncés ci-dessus.

? Les principes fondamentaux applicables au plan international

  • Libre circulation
    • Les pays Membres doivent prendre en considération les conséquences pour d’autres pays Membres d’un traitement effectué sur leur propre territoire et de la réexportation des données de caractère personnel
    • Les pays Membres doivent prendre toutes les mesures raisonnables et appropriées pour assurer que les flux transfrontières de données de caractère personnel, et notamment le transit par un pays Membre, aient lieu sans interruption et en toute sécurité.
    • Un pays Membre doit s’abstenir de limiter les flux transfrontières de données de caractère personnel entre son territoire et celui d’un autre pays Membre, sauf lorsqu’un ce dernier ne se conforme pas encore pour l’essentiel aux Lignes directrices ou lorsque la réexportation desdites données permettrait de contourner sa législation interne sur la protection de la vie privée et des libertés individuelles.
  • Restrictions légitimes
    • Un pays Membre peut imposer des restrictions à l’égard de certaines catégories de données de caractère personnel pour lesquelles sa législation interne sur la protection de la vie privée et les libertés individuelles prévoit des réglementations spécifiques en raison de la nature de ces données et pour lesquelles l’autre pays Membre ne prévoit pas de protection équivalente.
    • Les pays Membres doivent néanmoins éviter d’élaborer des lois, des politiques et des procédures, qui, sous couvert de la protection de la vie privée et des libertés individuelles, créeraient des obstacles à la circulation transfrontière des données de caractère personnel qui iraient au-delà des exigences propres à cette protection.

§3 : La convention STE 108

?Adoption de la convention

Les pays membres du Conseil de l’Europe ont adopté le 28 janvier 1981 la Convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, dite Convention STE 108.

Cette convention fut, indéniablement, le premier instrument international juridique contraignant dans le domaine de la protection des données.

Il a été convenu, entre ses signataires, qu’ils devaient prendre toutes les mesures nécessaires en droit interne pour en appliquer les principes afin d’assurer, sur leur territoire, le respect des droits fondamentaux de la personne humaine au regard de l’application de la protection des données.

Concrètement, le but poursuivi par la Convention STE 108 est de garantir, sur le territoire des États membres, à toute personne physique, quelles que soient sa nationalité ou sa résidence, le respect de ses droits et de ses libertés fondamentales, et notamment de son droit à la vie privée, à l’égard du traitement automatisé des données à caractère personnel la concernant.

?Applicabilité directe

Dans un arrêt du 18 novembre 1992, la Conseil d’État a reconnu l’applicabilité directe de la Convention STE 108 (CE, 18 nov. 1992, n° 115367)

?Évolution de la convention

  • Amendements à la Convention 108 permettant l’adhésion des Communautés Européennes
    • Le Comité des Ministres du Conseil de l’Europe a adopté, le 15 juin 1999, des amendements permettant l’adhésion des Communautés Européennes à la Convention
    • L’adhésion des Communautés correspondait à la volonté de l’Union européenne de renforcer la coopération avec le Conseil de l’Europe et de contribuer au renforcement d’un large forum international en matière de protection des données, notamment à l’égard des pays tiers.
    • Selon le texte initial, seuls les États pouvaient en devenir Parties.
    • C’est la raison pour laquelle il a été nécessaire de procéder par voie d’amendements
  • Protocole additionnel à la Convention 108 sur les autorités de contrôle et les flux transfrontières de données (STE N°181)
    • Le Protocole additionnel, ouvert à la signature le 8 novembre 2001 à Strasbourg, exige des parties la mise en place des autorités de contrôle, exerçant leurs fonctions en parfaite indépendance, et qui sont un élément de la protection effective des individus au regard du traitement des données personnelles.
    • Avec l’accroissement des échanges de données personnelles à travers les frontières nationales, il est nécessaire d’assurer la protection effective des droits de l’homme et des libertés fondamentales, et en particulier du droit à la vie privée par rapport à de tels échanges de données personnelles.
    • Ce texte renforce la protection des données personnelles et de la vie privée, en complétant la Convention de 1981 (STE n° 108) sur deux points.
      • Premier point
        • Il prévoit tout d’abord l’établissement d’autorités de contrôle chargées d’assurer le respect des lois ou règlements introduits par les États en application de la Convention concernant la protection des données personnelles et les flux transfrontières de données.
      • Second point
        • Il prévoit que les flux transfrontières de données vers des pays tiers ne peuvent être transférées que si elles bénéficient dans l’État ou l’organisation internationale destinataire, d’un niveau de protection adéquat.

?Contenu de la convention

Plusieurs principes ont été posés dans la Convention STE n°108:

  • Sur la qualité des données
    • Les données à caractère personnel faisant l’objet d’un traitement automatisé sont :
      • Obtenues et traitées loyalement et licitement ;
      • Enregistrées pour des finalités déterminées et légitimes et ne sont pas utilisées de manière incompatible avec ces finalités ;
      • Adéquates, pertinentes et non excessives par rapport aux finalités pour lesquelles elles sont enregistrées ;
      • Exactes et si nécessaire mises à jour ;
      • Conservées sous une forme permettant l’identification des personnes concernées pendant une durée n’excédant pas celle nécessaire aux finalités pour lesquelles elles sont enregistrées.
  • Sur les catégories particulières de données
    • Les données à caractère personnel révélant l’origine raciale, les opinions politiques, les convictions religieuses ou autres convictions, ainsi que les données à caractère personnel relatives à la santé ou à la vie sexuelle, ne peuvent être traitées automatiquement à moins que le droit interne ne prévoie des garanties appropriées.
    • Il en est de même des données à caractère personnel concernant des condamnations pénales.
  • Sur la sécurité des données
    • Des mesures de sécurité appropriées sont prises pour la protection des données à caractère personnel enregistrées dans des fichiers automatisés contre la destruction accidentelle ou non autorisée, ou la perte accidentelle, ainsi que contre l’accès, la modification ou la diffusion non autorisés.
  • Sur les droits d’accès et de rectification
    • Toute personne doit pouvoir :
      • Connaître l’existence d’un fichier automatisé de données à caractère personnel, ses finalités principales, ainsi que l’identité et la résidence habituelle ou le principal établissement du maître du fichier ;
      • Obtenir à des intervalles raisonnables et sans délais ou frais excessifs la confirmation de l’existence ou non dans le fichier automatisé, de données à caractère personnel la concernant ainsi que la communication de ces données sous une forme intelligible ;
      • Obtenir, le cas échéant, la rectification de ces données ou leur effacement lorsqu’elles ont été traitées en violation des dispositions du droit interne donnant effet aux principes de base énoncés dans les articles 5 et 6 de la présente Convention ;
      • Disposer d’un recours s’il n’est pas donné suite à une demande de confirmation ou, le cas échéant, de communication, de rectification ou d’effacement, visée aux paragraphes b et c du présent article.

§4 : La Convention européenne des droits de l’homme

A) Le silence du texte

La Convention de sauvegarde des droits de l’homme et des libertés fondamentales ne comporte aucune stipulation relative à la protection des données à caractère personnel.

Ce silence du texte n’a, toutefois, pas empêché la Cour européenne des droits de l’homme de veiller à garantir aux ressortissants des États membres une protection à l’égard des traitements automatisés de données à caractère personnel.

Pour ce faire, elle se fonde essentielle sur l’article 8 de la Convention relatif au respect de la vie privée et familiale

Aux termes de cette disposition « toute personne a droit au respect de sa vie privée et familiale, de son domicile et de sa correspondance »

Dans un arrêt du 7 août 1997, la Cour européenne des droits de l’homme a affirmé que « la protection des données à caractère personnel […] revêt une importance fondamentale pour l’exercice du droit au respect de la vie privée et familiale garanti par l’article 8 de la Convention » (CEDH, 27 août 1997, aff. 20837/92,  M. S. c/ Suède)

Encore, dans un arrêt du 4 décembre 2008, elle a précisé que « la protection des données à caractère personnel joue un rôle fondamental pour l’exercice du droit au respect de la vie privée et familiale consacré par l’article 8. La législation interne doit donc ménager des garanties appropriées pour empêcher toute utilisation de données à caractère personnel qui ne serait pas conforme aux garanties prévues dans cet article (…). La nécessité de disposer de telles garanties se fait d’autant plus sentir lorsqu’il s’agit de protéger les données à caractère personnel soumises à un traitement automatique, en particulier lorsque ces données sont utilisées à des fins policières. Le droit interne doit notamment assurer que ces données soient pertinentes et non excessives par rapport aux finalités pour lesquelles elles sont enregistrées, et qu’elles soient conservées sous une forme permettant l’identification des personnes concernées pendant une durée n’excédant pas celle nécessaire aux finalités pour lesquelles elles sont enregistrées (…). [Il] doit aussi contenir des garanties de nature à protéger efficacement les données à caractère personnel enregistrées contre les usages impropres et abusifs (…) » (CEDH, 4 déc. 1997, aff. 30562/04 S. et Marper c/ Royaume-Uni).

B) La jurisprudence

?Aff. Klass et autres c. Allemagne – 6 septembre 1978

  • Les faits
    • Dans cette affaire, les requérants, cinq avocats allemands, dénonçaient en particulier la législation allemande qui permettait aux autorités de surveiller leur correspondance et leurs communications téléphoniques sans qu’elles aient l’obligation de les informer ultérieurement des mesures prises contre eux.
  • Décision
    • La Cour a conclu à la non-violation de l’article 8 de la Convention, jugeant que le législateur allemand était fondé à considérer l’ingérence résultant de la législation litigieuse dans l’exercice du droit consacré par l’article 8 § 1 comme nécessaire, dans une société démocratique, à la sécurité nationale, la défense de l’ordre et la prévention des infractions pénales (article 8 § 2).
    • La Cour a observé en particulier que le pouvoir de surveiller en secret les citoyens, caractéristique de l’État policier, n’était tolérable d’après la Convention que dans la mesure strictement nécessaire à la sauvegarde des institutions démocratiques.
    • Constatant toutefois que les sociétés démocratiques se trouvent menacées de nos jours par des formes très complexes d’espionnage et par le terrorisme, de sorte que l’État doit être capable, pour combattre efficacement ces menaces, de surveiller en secret les éléments subversifs opérant sur son territoire, elle a estimé que l’existence de dispositions législatives accordant des pouvoirs de surveillance secrète de la correspondance, des envois postaux et des télécommunications était, devant une situation exceptionnelle, nécessaire dans une société démocratique à la sécurité nationale et/ou à la défense de l’ordre et à la prévention des infractions pénales.

?Aff. Rotaru c. Roumanie – 4 mai 2000

  • Faits
    • Le requérant se plaignait de l’impossibilité de réfuter les données, selon lui contraires à la réalité, détenues dans un dossier à son sujet par le Service roumain des renseignements (SRI).
    • L’intéressé avait été condamné en 1948 à une peine d’emprisonnement d’un an pour avoir exprimé des opinions critiques à l’égard du régime communiste.
  • Décision
    • La Cour a conclu à la violation de l’article 8 de la Convention, jugeant que la détention et l’utilisation par le SRI d’informations sur la vie privée du requérant n’étaient pas prévues par la loi.
    • La Cour a observé en particulier que des données de nature publique peuvent relever de la vie privée lorsqu’elles sont, d’une manière systématique, recueillies et mémorisées dans des fichiers tenus par les pouvoirs publics.
    • Cela vaut davantage encore lorsque ces données concernent le passé lointain d’une personne.
    • Elle a ensuite relevé qu’aucune disposition de droit interne ne définissait ni le genre d’informations pouvant être consignées, ni les catégories de personnes susceptibles de faire l’objet des mesures de surveillance telles que la collecte et la conservation de données, ni les circonstances dans lesquelles pouvaient être prises ces mesures, ni la procédure à suivre.
    • De même, la loi ne fixait pas de limites quant à l’ancienneté des informations détenues et la durée de leur conservation. Enfin, il n’existait aucune disposition explicite et détaillée de droit interne sur les personnes autorisées à consulter les dossiers, la nature de ces derniers, la procédure à suivre et l’usage qui pouvait être donné aux informations ainsi obtenues.
    • Dès lors, la Cour la Cour a estimé que le droit roumain n’indiquait pas avec assez de clarté l’étendue et les modalités d’exercice du pouvoir d’appréciation des autorités dans le domaine considéré.
    • La Cour a également conclu dans cette affaire à la violation de l’article 13 (droit à un recours effectif) de la Convention, en raison de l’impossibilité pour le requérant de contester sa détention ou de réfuter la véracité des renseignements en question.

?Aff. Gaskin c. Royaume-Uni – 7 juillet 1989

  • Faits
    • Le requérant, pris en charge par les services sociaux pendant son enfance, chercha à connaître son passé à sa majorité pour surmonter ses problèmes personnels.
    • L’accès à son dossier lui fut refusé au motif qu’il contenait des informations confidentielles.
  • Décision
    • La Cour a conclu à la violation de l’article 8 de la Convention, jugeant que les procédures suivies n’avaient pas assuré à la vie privée et familiale du requérant le respect voulu par cet article.
    • Elle a observé en particulier que les personnes se trouvant dans la situation du requérant ont un intérêt primordial, protégé par la Convention, à recevoir les renseignements nécessaires pour connaître et comprendre leur enfance et leurs années de formation.
    • Cependant, le caractère confidentiel des dossiers officiels revêt de l’importance si l’on souhaite recueillir des informations objectives et dignes de foi et peut être nécessaire pour préserver des tiers.
    • Sous ce dernier aspect, un système subordonnant l’accès aux dossiers à l’acceptation des informateurs, comme alors au Royaume-Uni, peut en principe être tenu pour compatible avec l’article 8, eu égard à la marge d’appréciation de l’État.
    • La Cour a toutefois estimé qu’un tel système doit sauvegarder, quand un informateur n’est pas disponible ou refuse abusivement son accord, les intérêts de quiconque cherche à consulter des pièces relatives à sa vie privée et familiale et qu’il ne cadre avec le principe de proportionnalité que s’il charge un organe indépendant, au cas où un informateur ne répond pas ou ne donne pas son consentement, de prendre la décision finale sur l’accès.
    • Or, il n’en allait pas ainsi en l’espèce.

?Aff. Perry c. Royaume-Uni – 17 juillet 2003

  • Faits
    • Le requérant fut arrêté après qu’eut été commise une série de vols à main armée sur la personne de chauffeurs de taxi, puis relâché en attendant que se tienne une séance d’identification.
    • Comme il ne s’était pas présenté à la séance prévue ni à plusieurs autres séances ultérieures, la police sollicita l’autorisation de le filmer en secret avec une caméra vidéo. Le requérant se plaignait que la police l’avait filmé en secret en vue de l’identifier puis avait utilisé le film vidéo dans le cadre des poursuites dirigées contre lui.
  • Décision
    • La Cour a conclu à la violation de l’article 8 de la Convention.
    • Elle a relevé que rien n’indiquait que le requérant s’attendait à ce qu’on le filme au poste de police à des fins d’identification au moyen d’un enregistrement vidéo ni à ce que le film soit éventuellement utilisé comme preuve à charge lors de son procès.
    • Le stratagème adopté par la police avait outrepassé l’utilisation normale de ce type de caméra et constitué une ingérence dans l’exercice par le requérant de son droit au respect de sa vie privée.
    • Cette ingérence n’était par ailleurs pas prévue par la loi, la police n’ayant pas respecté les procédures énoncées par le code applicable : elle n’avait pas obtenu le consentement du requérant, ne l’avait pas averti de l’enregistrement vidéo et, de surcroît, ne l’avait pas informé de ses droits à cet égard.

?Aff. Z. c. Finlande – 25 février 1997

  • Faits
    • Cette affaire concernait la révélation de la séroposivité de la requérante au cours d’une procédure pénale dirigée contre son mari.
  • Décision
    • La Cour a conclu à la violation de l’article 8 de la Convention, jugeant que la divulgation de l’identité et de la séropositivité de la requérante dans le texte de l’arrêt de la cour d’appel communiqué à la presse ne se justifiait pas par quelque motif impérieux que ce soit et que la publication de ces informations avait dès lors porté atteinte au droit au respect de la vie privée et familiale de la requérante.
    • La Cour a observé en particulier que le respect du caractère confidentiel des informations sur la santé constitue un principe essentiel du système juridique de toutes les Parties contractantes à la Convention et est capital non seulement pour protéger la vie privée des malades mais également pour préserver leur confiance dans le corps médical et les services de santé en général.
    • La législation interne doit donc ménager des garanties appropriées pour empêcher toute communication ou divulgation de données à caractère personnel relatives à la santé qui ne serait pas conforme aux garanties prévues à l’article 8 de la Convention.

Section 2 : Le droit de l’Union européenne

§1 : La directive du 24 octobre 1995

A) La genèse de la directive

Par l’adoption de directive 95/46 CE du 24 octobre 1995, l’Union européenne s’est, pour la première fois, dotée d’un cadre commun de protection des personnes physiques à l’égard des traitements de données à caractère personnel.

?Compétence matérielle

Il peut être observé que, lors des travaux législatifs, la question de la compétence de la Communauté européenne pour légiférer dans cette matière s’est posée, la protection des libertés et de la vie privée étant exclue de son champ de compétence.

Néanmoins, la Commission des Communautés européennes a considéré qu’il s’agissait principalement d’établir la libre circulation des données à caractère personnel, considérées comme des marchandises, ce qui explique que la directive 95/46 CE soit une directive « marché intérieur ».

Sa négociation fut longue et difficile, s’agissant d’un problème de liberté opposant des cultures différentes.

?Socle de protection minimum

Le Conseil d’État s’est prononcé en assemblée générale par un avis du 10 juin 1999 invitant le Gouvernement à veiller à ce que la directive « ne contienne pas de dispositions qui conduiraient à priver des principes de valeur constitutionnelle de la protection que leur accorde la loi du 6 janvier 1978 actuellement en vigueur » afin de prévenir « tout risque d’inconstitutionnalité de la future loi assurant la transposition de cette directive » et énumérant certaines dispositions du projet susceptibles de conduire à une régression du niveau de protection.

En outre, le Parlement a adopté des résolutions sur ce projet en application de l’article 88-4 de la Constitution issu de la révision du 25 juin 1992.

L’Assemblée nationale a estimé dans une résolution du 25 juin 1993 que l’intervention de la Communauté européenne ne devait pas nuire au haut degré de protection dont devaient bénéficier les personnes, ni assimiler ces données à de simples marchandises.

Elle craignait également que les options très larges laissées aux États membres pour la transposition ne garantissent pas l’homogénéité de cette protection dans la Communauté européenne.

Elle demandait donc au Gouvernement :

  • D’une part, de subordonner son accord au maintien intégral du niveau de protection assuré par la loi du 6 janvier 1978
  • D’autre part, de prévenir le risque de divergences dangereuses au moment de la transposition de la directive par les États membres
  • Enfin, de garantir aux États membres le pouvoir d’interdire le transfert de données à caractère personnel vers des pays tiers n’assurant pas un niveau de protection adéquat, au besoin par l’instauration d’une procédure d’urgence.

Le Sénat a adopté une résolution le 7 juin 1994, par laquelle il observait que la référence à des articles du Traité de nature économique, appliquée en l’espèce au domaine des libertés publiques conduisait à une interprétation extensive des compétences de la Communauté, mais que cette intervention était justifiée. Il appelait en outre à une harmonisation préalable de leur législation par les États membres.

Ces recommandations ont été suivies dans une large mesure.

B) Le contenu de la directive

?Champ d’application

Tout d’abord, la directive ne s’applique qu’aux traitements relevant du champ de compétences de l’Union européenne, c’est-à-dire qu’elle exclut notamment les « traitements de souveraineté » (défense, sécurité publique, sûreté de l’État, droit pénal).

En revanche, son champ d’application est élargi puisqu’elle s’étend non seulement aux traitements automatisés, mais aussi aux fichiers manuels à l’expiration d’un délai de 12 ans à compter de son adoption, c’est-à-dire en octobre 2007.

Par ailleurs, elle couvre les sons et les images à l’exclusion des traitements de vidéosurveillance mis en œuvre à des fins de sécurité publique.

?Méthodologie

Selon l’article 189 du traité instituant la Communauté européenne, « la directive lie tout État membre quant aux résultats à atteindre, tout en laissant aux instances nationales la compétence quant à la forme et aux moyens ».

De surcroît, les directives de l’Union imposent généralement aux États la mise en œuvre de leurs dispositions dans des délais qu’elles déterminent : en l’espèce, l’article 32 de la directive 95/46 impliquait que « les États membres mettent en vigueur les dispositions législatives, réglementaires et administratives nécessaires pour se conformer à la présente directive au plus tard à l’issue d’une période de trois ans à compter de son adoption », soit le 24 octobre 1998.

Sans doute, la loi du 6 janvier 1978 constitue-t-elle, en quelque sorte, une « transposition anticipée » de la directive, puisque nombre de ses dispositions répondent aux exigences communautaires.

Toutefois, au-delà de principes communs, tels que la loyauté de la collecte des données, la protection des données dites sensibles, le principe de finalité des traitements ou le droit d’information, de rectification ou d’opposition des personnes, ainsi que la nécessité de l’existence d’une autorité de contrôle indépendante, des différences substantielles subsistent entre la loi du 6 janvier 1978 et la directive 95/46 qui requièrent, en conséquence, une modification de notre législation.

On remarquera, notamment, que la directive du 24 octobre 1995 retient une démarche particulière, en quatre étapes :

Elle s’attache à définir :

  • En premier lieu, les conditions générales de licéité des traitements
  • En deuxième lieu, les droits fondamentaux des personnes concernées
  • En troisième lieu, les restrictions qu’il est possible de leur apporter
  • En quatrième lieu, les procédures et les recours destinés à assurer la régularité des traitements de données à caractère personnel.

Cette organisation tient à la primauté accordée par la directive aux principes de fond sur les dispositions de forme, les États membres possédant davantage de marge de manœuvre pour transposer les secondes que les premières.

Or, tel n’est pas le choix fait par le législateur français qui a établi une distinction essentielle fondée sur la nature juridique du destinataire du traitement, dont il déduit la procédure et les règles de forme applicables.

?L’égalité de principe entre secteurs public et privé

Alors que la loi du 6 janvier 1978 retient un critère organique, la directive retient un critère matériel et soumet les traitements similaires de responsables publics et privés à une même procédure.

Ainsi, les traitements de données à caractère personnel, qu’ils soient privés ou publics, ne sont plus désormais soumis qu’à une obligation de déclaration préalable auprès de l’autorité de contrôle.

La distinction entre les régimes de la déclaration et de l’autorisation, qui subsiste, est donc désormais indépendante de la qualité du responsable.

On retrouve un tel précédent dans la loi informatique et libertés en matière de traitement de recherche dans le domaine de la santé et d’évaluation des pratiques de soins.

L’assimilation des deux secteurs ne sera néanmoins pas totale, puisque les traitements de souveraineté ne sont pas concernés par les dispositions de la directive, celle-ci ne s’appliquant qu’aux traitements relevant du champ de compétence de l’Union européenne.

?Le renforcement du contrôle a posteriori

L’article 20 de la directive indique que les États membres doivent préciser les traitements « susceptibles de présenter des risques particuliers au regard des droits et des libertés des personnes concernées et veillent à ce que ces traitements soient examinés avant leur mise en œuvre ».

À l’inverse, ceux qui « ne sont pas susceptibles de porter atteinte aux droits et libertés des personnes concernées » peuvent ne donner lieu qu’à une déclaration simplifiée ou même être exonérés de toute formalité.

Parallèlement à cette limitation des contrôles a priori, la directive invite à un recentrage des missions de la CNIL en direction du contrôle a posteriori.

L’article 28 de la directive relatif aux prérogatives de l’autorité de contrôle précise donc qu’elle doit disposer en particulier de pouvoirs d’investigations ou d’accès aux données ainsi que de pouvoirs « effectifs d’intervention » lui permettant le cas échéant d’ordonner le verrouillage, l’effacement ou la destruction des données.

Si la loi du 6 janvier 1978 comporte déjà des dispositions relatives aux pouvoirs de contrôle a posteriori de la CNIL (article 21), l’insuffisance des moyens de la CNIL et la relative indifférence des parquets et tribunaux face à une matière nouvelle et technique ont, dans les faits, largement relativisé sa portée.

?La reconnaissance de l’importance des flux internationaux de données à caractère personnel

Si la loi du 6 janvier 1978 évoque déjà la question de la circulation des données, elle ne distingue pas entre les transferts vers d’autres États membres de la Communauté européenne et ceux intervenant vers des États tiers.

Or, la mondialisation de la circulation des données a été démultipliée par l’apparition des nouvelles technologies de l’information et de la communication.

Dès son article premier, la directive affirme donc le principe de la libre circulation des données au sein des États membres de l’Union européenne.

En revanche, ne sont possibles les transferts vers des pays tiers que si ceux-ci assurent un niveau de protection adéquat. La directive prévoit des mécanismes communautaires permettant de l’évaluer (articles 25 et 26), ainsi que leur articulation avec les modalités d’intervention en la matière de l’autorité nationale de contrôle.

§2 : Le Règlement Général sur la Protection des Données (RGPD)

La directive 95/46/CE qui constitue l’instrument législatif central de la protection des données à caractère personnel en Europe, a posé un jalon dans l’histoire de la protection des données.

Ses objectifs, qui consistent à assurer le fonctionnement du marché unique et la protection effective des libertés et des droits fondamentaux des personnes physiques, demeurent d’actualité.

Mais elle a été adoptée il y a plus de 20 ans, soit à une époque où internet n’en était qu’à ses premiers balbutiements.

L’environnement numérique actuel et ses exigences font que les règles en vigueur ne présentent ni le degré d’harmonisation requis ni l’efficacité nécessaire pour garantir le droit à la protection des données à caractère personnel.

C’est dans ce contexte que la Commission européenne a proposé, le 25 janvier 2012, un règlement destiné à remplacer la directive 95/46/CE et qui instaure un cadre général de l’UE pour la protection des données.

La proposition de règlement modernise les principes de la directive de 1995 en les adaptant à l’ère numérique et en harmonisant la législation sur la protection des données en Europe.

La protection des données doit faire l’objet de règles strictes pour rétablir la confiance des personnes dans la manière dont leurs données à caractère personnel sont utilisées.

La proposition de règlement vise à renforcer les droits des personnes et le marché intérieur de l’UE, garantir un contrôle accru de l’application de la réglementation, simplifier les transferts internationaux de données à caractère personnel et instaurer des normes mondiales en matière de protection des données.

À l’issue de longues négociations, le Parlement européen et le Conseil ont adopté le « paquet protection des données » le 27 avril 2016, fruit d’un compromis entre les États membres de l’Union européenne.

Ce paquet se compose :

  • D’un règlement relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données (règlement (UE) 2016/679)
    • Applicable notamment à la matière civile et commerciale, il constitue le cadre général de la protection des données.
    • Ce règlement abroge la directive 95/46/CE transposée par la loi n° 2004-801 du 6 août 2004 qui avait modifié la loi n° 78-17 du 6 janvier 1978. Il conforte les droits des personnes physiques sur leurs données à caractère personnel déjà garantis dans la loi n° 78-17 du 6 janvier 1978.
    • Il renforce ainsi notamment le droit d’information des personnes, qui disposeront d’informations plus complètes et claires sur le traitement de leurs données, et en crée de nouveaux : droit à l’effacement ou « droit à l’oubli », droit à la portabilité des données.
    • En outre, le règlement uniformise et simplifie les règles auxquelles les organismes traitant des données sont soumis tout en renforçant les garanties offertes par la loi n° 78-17 du 6 janvier 1978.
    • Il prévoit en particulier la réduction des formalités préalables pour la mise en œuvre des traitements comportant le moins de risques, avec le passage d’un système de contrôle ex ante de la Commission nationale de l’informatique et des libertés par le biais des déclarations et autorisations à un contrôle ex post plus adapté aux évolutions technologiques.
    • Ce règlement est applicable à compter du 25 mai 2018.
  • D’une directive relative aux traitements mis en œuvre à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales (directive (UE) 2016/680)
    • La directive s’applique aux traitements de données à caractère personnel mis en œuvre par une autorité compétente à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution des sanctions pénales, y compris la protection contre les menaces pour la sécurité publique et la prévention de telles menaces.
    • La directive n’est pas applicable dès lors que le traitement de données est mis en œuvre pour d’autres finalités ou par une autorité qui n’est pas compétente. La directive n’est pas non plus applicable aux traitements intéressant la sûreté de l’État et la défense, qui ne relèvent pas du droit de l’Union.
    • La directive vise à faciliter le libre flux des données à caractère personnel entre les autorités compétentes à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, y compris la protection contre les menaces pour la sécurité publique et la prévention de telles menaces au sein de l’Union, et le transfert de telles données vers des pays tiers et à des organisations internationales, tout en assurant un niveau élevé de protection des données à caractère personnel.
    • Certaines dispositions de la directive sont porteuses d’un changement de philosophie du droit de la protection des données ; d’autres représentent de réelles innovations qui, sans témoigner d’un réel changement de philosophie, imposent d’importantes modifications d’ordre technique.
    • Cette directive doit être transposée d’ici le 6 mai 2018.

L’articulation entre la directive et le règlement est précisée par le considérant 12 de la directive.

Celui-ci indique notamment que relèvent de la directive les traitements concernant des « activités menées par la police ou d’autres autorités répressives [qui] sont axées principalement sur la prévention et la détection des infractions pénales et les enquêtes et les poursuites en la matière, y compris les activités de police effectuées sans savoir au préalable si un incident constitue une infraction pénale ou non».

Il précise que « ces activités peuvent également comprendre l’exercice de l’autorité par l’adoption de mesures coercitives, par exemple les activités de police lors de manifestations, de grands événements sportifs et d’émeutes », et que « parmi ces activités figure également le maintien de l’ordre public lorsque cette mission est confiée à la police ou à d’autres autorités répressives lorsque cela est nécessaire à des fins de protection contre les menaces pour la sécurité publique et pour les intérêts fondamentaux de la société protégés par la loi, et de prévention de telles menaces, qui sont susceptibles de déboucher sur une infraction pénale ».

Il indique en revanche, qu’entrent dans le champ d’application du règlement, pour autant qu’ils relèvent du droit de l’Union, les traitements par lesquels « les États membres [confient] aux autorités compétentes d’autres missions qui ne sont pas nécessairement menées à des fins de prévention et de détection des infractions pénales, d’enquêtes ou de poursuites en la matière, y compris la protection contre les menaces pour la sécurité publique et la prévention de telles menaces ».

Les nouvelles exigences posées par le législateur européen ont été transposées en droit français lors de l’adoption de la loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles.

Section 3 : Le droit interne

§1 : La loi du 6 janvier 1978

Les premiers travaux ayant trait au développement de l’informatique dans les administrations virent le jour, en fait, à la fin des années 1960, tant en Europe que sur le continent américain : ils mettent en évidence les risques que font peser ces nouvelles pratiques sur les libertés publiques.

En France, le Conseil d’État adressa au Gouvernement, dès 1971, une série de recommandations visant à encadrer l’usage des données personnelles. Mais la prise de conscience des enjeux liés à cette question intervint en 1974, face à un projet gouvernemental connu sous le nom de « Système automatisé des fichiers administratifs et du répertoire des individus » (SAFARI), qui prévoyait une interconnexion des fichiers publics à partir d’un identifiant unique, le numéro de sécurité sociale.

Ce dispositif suscita alors de fortes réactions, résumées, le 21 mars, par le journal Le Monde, sous le titre suivant : « Safari ou la chasse aux Français ». Ce débat a débouché sur le « rapport Tricot », issu des travaux d’une commission mise en place par le Premier ministre pour proposer des mesures tendant à garantir que le développement de l’informatique se réalise dans le respect de la vie privée et des libertés, puis sur la loi n°78-17 du 6 janvier 1978, relative à l’informatique, aux fichiers et aux libertés.

Ce texte, communément appelé « loi Informatique et libertés », fut l’un des premiers au monde à encadrer l’usage des données à caractère personnel ; il a d’ailleurs inspiré, dans une large mesure, les instruments internationaux intervenus depuis lors, y compris la directive du 24 octobre 1995 que le présent projet de loi tend à transposer en droit français.

Il se présente comme un corpus de normes destinées à assurer la défense des libertés individuelles et publiques des personnes physiques face aux technologies informationnelles.

De fait, c’est bien sur ce terrain que le législateur s’est placé en affirmant, d’emblée, dès l’article 1er, que : « L’informatique doit être au service de chaque citoyen. (…) Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ».

La loi du 6 janvier 1978 réglemente la collecte et l’utilisation des informations dites « nominatives », qui permettent, aux termes de son article 4, d’identifier, directement ou indirectement, des personnes physiques. Elle s’applique à deux types de procédés :

  • Le traitement automatisé desdites informations, quel que soit le support ou la technique utilisée, qui est défini, à l’article 5, comme : « tout ensemble d’opérations réalisées par les moyens automatiques, relatif à la collecte, l’enregistrement, l’élaboration, la modification, la conservation et la destruction d’informations nominatives ainsi que tout ensemble d’opérations de même nature se rapportant à l’exploitation de fichiers ou bases de données et notamment les interconnexions ou rapprochements, consultations ou communications d’informations nominatives».
  • Les fichiers manuels ou mécanographiques, qui n’étaient pourtant pas visés par le texte initial du Gouvernement : la loi ne fait d’ailleurs référence qu’à « l’informatique », tant à l’article 1er (« L’informatique doit être au service de chaque citoyen ») que dans le titre de l’institution de contrôle qu’elle crée par ailleurs (« Commission nationale de l’informatique et des libertés »). Cette extension a été réalisée à l’initiative du Parlement, qui a modifié, en conséquence, l’intitulé de la loi (« relative à l’informatique, aux fichiers et aux libertés »). Toutefois, ces fichiers ne sont soumis qu’à une partie des règles applicables aux traitements automatisés (notamment les dispositions relatives à la collecte, l’enregistrement et la conservation des informations, ainsi que le droit d’accès ou d’opposition), à l’exclusion de certaines obligations telles que les formalités de déclaration préalable auprès de la CNIL.

§2 : La loi du 6 août 2004

La loi n° 2004-801 du 6 août 2004 relative à la protection des personnes physiques à l’égard des traitements de données à caractère personnel, qui modifie la loi du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, a pour objet d’assurer la transposition de la directive européenne du 24 octobre 1995 relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données.

Au-delà de cette transposition, il vise à adapter le droit des fichiers informatiques aux progrès technologiques et aux réalités contemporaines, dans le respect des principes fondamentaux posés par la loi du 6 janvier 1978.

Les principales dispositions du projet de loi peuvent être résumées autour de quatre axes :

  • Le renforcement des droits fondamentaux des personnes dès lors que des données, de quelque nature qu’elles soient (informations nominatives, voix, image, empreintes génétiques …), font l’objet d’un fichier, sous forme d’un traitement automatisé ou non, ainsi que le renforcement des obligations pesant sur les responsables de ces traitements. En particulier, le caractère discrétionnaire du droit d’opposition des personnes intéressées à l’encontre de la mise en œuvre de tels traitements à des fins de prospection, notamment commerciale, est reconnu
  • La consécration de la Commission nationale de l’informatique et des libertés (CNIL), dont la composition est, à une exception près, inchangée, comme l’autorité administrative indépendante chargée du contrôle de la mise en œuvre de la loi. La commission voit ses pouvoirs substantiellement développés ; elle sera, en particulier, dotée de pouvoirs d’investigation, d’injonction et de sanction administrative qui lui permettront d’exercer un contrôle a posteriori sur les traitements de données
  • La rationalisation des formalités préalables exigées pour la création d’un traitement automatisé de données à caractère personnel : le projet de loi ne distingue plus le régime administratif applicable selon la nature publique ou privée du responsable du traitement. Le régime de droit commun sera celui de la déclaration, qui sera simplifiée pour les modèles de traitement les plus courants. Mais toutes les catégories de traitement dont les finalités ou le contenu présentent des risques particuliers au regard des droits des personnes seront soumises à l’autorisation de la CNIL.
  • Les traitements publics, dits de souveraineté, intéressant la sûreté de l’État, la défense et la sécurité publique, ou les traitements publics utilisant le numéro d’inscription des personnes au répertoire national d’identification des personnes physiques, continuent à faire l’objet d’une autorisation par un décret ou par un arrêté pris après avis de la CNIL

§3 : La loi du 20 juin 2018

La loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles vise à transposer le « paquet européen de protection des données » adopté par le Parlement européen et le Conseil le 27 avril 2016.

Pour mémoire, ce mémoire se compose :

  • d’un règlement (UE) 2016/679 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel. Applicable notamment à la matière civile et commerciale, il constitue le cadre général de la protection des données. Les obligations prévues par le règlement seront également applicables aux opérateurs installés hors de l’Union européenne et offrant des biens et services aux Européens. Ce règlement est applicable à compter du 25 mai 2018 ;
  • d’une directive (UE) 2016/680 relative aux traitements mis en œuvre à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales. Cette directive doit être transposée d’ici le 6 mai 2018.

Afin d’assurer la transposition de ces deux textes, le Gouvernement français a fait le choix symbolique de ne pas abroger la loi fondatrice du 6 janvier 1978.

Certes, l’adaptation du droit national au règlement et la transposition de la directive exigent de remanier plusieurs articles de cette loi, mais les principes fondateurs dégagés par le législateur il y a près de quarante ans demeurent toujours valables.

À cet égard, la loi du 20 juin 2018 retranscrit les dispositions du règlement qui conforte les droits des personnes physiques sur leurs données à caractère personnel déjà garantis dans la loi du 6 janvier 1978 (notamment le droit d’information des personnes), et en crée de nouveaux comme le droit à l’effacement ou « droit à l’oubli » et le droit à la portabilité des données.

En outre, le règlement uniformise et simplifie les règles auxquelles les organismes traitant des données sont soumis tout en renforçant les garanties offertes par la loi de 1978.

Il prévoit en particulier la réduction des formalités préalables pour la mise en œuvre des traitements comportant le moins de risques, avec le passage d’un système de contrôle a priori de la CNIL, par le biais des déclarations et autorisations, à un contrôle a posteriori plus adapté aux évolutions technologiques.

En contrepartie, la CNIL voit ses pouvoirs de contrôle et de sanctions renforcés avec la possibilité d’infliger des amendes pouvant aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires mondial de l’organisme concerné.

L’émergence du droit des données à caractère personnel: de la loi informatique et libertés au RGPD

I) La genèse

==> Noli me tangere

 Si, comme l’a écrit Nietzche, « notre époque se nourrit et vit des moralités du passé », depuis le début du XXe siècle les défenseurs du principe de laïcité n’ont eu de cesse de combattre ces moralités, afin qu’il soit procédé, comme l’a suggéré Georges Ripert, à « l’élimination complète de la force religieuse dans la création du droit »[1].

Il est, pourtant, une partie de cette force créatrice qui n’a pas succombé ; il s’agit de ce par quoi est maintenue la personne humaine au sommet de la pyramide des valeurs. Sans que les juristes y prêtent, pour la plupart, grande attention, le caractère sacré de la personne, est directement issu de la Genèse.

L’homme y est décrit comme une créature suprême, façonnée à l’image de Dieu. Ainsi, le vieil adage juridique Noli me tangere (ne me touche pas) est-il directement tiré de l’Evangile selon Saint Jean[2], le Christ exhortant Marie-Madelaine de ne pas le toucher afin que la croyance en sa résurrection relève de l’ordre de sa seule foi.

Cependant, comme le souligne Bernard Beigner, à la différence de l’interprétation faite par les théologiens, les juristes ont interprété ces paroles « d’une manière aussi libre et aussi peu théologique que l’adage tiré de saint Luc : « Les lis ne filent pas » pour justifier le principe de double masculinité dans la succession royale au trône de France »[3].

C’est la raison pour laquelle noli me tangere a perdu toute signification évangélique et, après avoir servi de fondement au droit romain[4], est désormais repris par notre droit pour justifier la primauté de la personne humaine sur toute autre considération[5].

En outre, en plus de cette erreur d’interprétation, les juristes se sont livrés à un amalgame, en assimilant, durant des siècles, la personne au corps humain[6], si bien que seul l’être charnel bénéficiait d’une protection juridique.

Il a fallu attendre la fin du XIXe siècle pour que « l’éminente dignité humaine en réfère aussi bien à l’animus qu’au corpus »[7]. C’est précisément à cette époque que certaines voix ont commencé à faire valoir, notamment sous l’impulsion de la doctrine germano-suisse, qu’il serait opportun de créer un droit de la personnalité soit, d’étendre la protection juridique conférée par l’adage noli me tangere, à l’être spirituel.

==> La naissance des droits de la personnalité

En France, c’est le professeur Perreau qui, le premier[8], s’est ouvertement prononcé en faveur d’une telle extension, lorsque, dans un article intitulé « Des droits de la personnalité »[9], il émet l’idée de la reconnaissance de droits – subjectifs – extrapatrimoniaux[10].

Dans un premier temps, cette position est pour le moins accueillie fraichement par la doctrine française. Roubier, par exemple, raille cette théorie de faire état de « droits fantômes conçus par des imaginations déréglées »[11]. Nombreux sont, cependant, les auteurs qui, dans un second temps, se sont ravisés, adhérant massivement à la proposition formulée par Perreau trente ans auparavant[12].

Finalement, pour reprendre une expression de Ripert, c’est la lutte « des forces sociales » qui a eu raison des querelles de juristes. Cette lutte s’est manifestée dans le courant des années soixante par une pléiade de décisions jurisprudentielles qui ont ému l’opinion publique.

À cette période, est en train de naître la presse, dite à « scandale », dans laquelle les lecteurs peuvent lire les frasques des différentes célébrités qui animent la vie publique de l’époque. Peu enclines à laisser paraitre au grand jour des évènements qu’elles jugent relever de leur intimité, certaines d’entre elles décident de requérir les services de la justice afin que cessent ces atteintes dont elles font de plus en plus fréquemment l’objet[13].

Malheureusement, les juges ne disposent guère plus que de l’inusable article 1382 du Code civil pour répondre à leurs attentes. Le vide juridique qui existe en la matière, est comparable à celui que l’on rencontre dans un trou noir[14].

Aussi, le législateur décide-t-il d’intervenir afin que ce vide qui, jusqu’alors, était comblé par les rustines du droit de la responsabilité, le soit, désormais, par le droit de la personnalité.

C’est ainsi, que, par une loi du 17 juillet 1970, a été reconnu, à l’article 9 du Code civil, le droit au respect la vie privée[15].

La protection conférée par l’adage noli me tangere à l’être charnel est étendue à l’être spirituel. Au même moment, l’informatique fait une entrée fracassante dans une société en pleine mutation et met rapidement en évidence, les limites de cette nouvelle législation.

==> Le projet SAFARI

 Bien que les textes qui consacrent le droit à la vie privée soient nombreux[16], la notion de « vie privée » n’est définie par aucun d’eux. C’est pourquoi il est revenu aux juges la tâche d’en délimiter les contours. Si, au fil de leurs décisions, ces derniers ont pu affirmer que toutes les informations relatives à la vie privée sont des informations personnelles[17], ils ont également eu l’occasion de souligner que les données à caractère personnel ne relevaient pas toutes de la vie privée[18].

Force est de constater, comme le souligne Guy Braibant, que « la notion d’atteinte à la vie privée ne permet […] pas d’épuiser tous les cas de méconnaissance des droits des personnes auxquels la mise en œuvre de traitements de données à caractère personnel est susceptible de donner lieu »[19].

La question s’est alors posée de savoir si la protection conférée par le droit au respect de la vie privée, était suffisante quant à protéger l’être informationnel dans son ensemble. Une fois encore, ce sont les forces sociales qui se sont illustrées, lorsque, dans un retentissant article publié dans le journal Le Monde, le journaliste Philippe Boucher dénonce le projet SAFARI (Système Automatisé pour les fichiers administratifs et le répertoire des individus)[20].

Ce projet avait ambition de réaliser une interconnexion générale des différents fichiers administratifs à l’aide de l’identification unique de chaque français. Comme le souligne le titre de l’article, la réalisation d’un tel dispositif aurait eu pour conséquence de sonner l’ouverture de « la chasse aux français ».

Le danger qui guettait les administrés était, en somme, qu’un ordinateur central recoupe chacune de leurs données personnelles, sans qu’ils puissent invoquer un quelconque droit à la vie privée pour l’en empêcher.

Ce droit ne peut, en effet, être exercé que s’il est porté atteinte au libre choix d’une personne de ne pas divulguer une information la concernant. Or tel n’est pas ce que prévoit le projet SAFARI. Celui-ci vise, non pas à permettre une immixtion de l’administration dans l’intimité de ses administrés, mais seulement une interconnexion des données qui lui ont volontairement été divulguées.

Dans cette perspective, Adolphe Touffait, procureur général près la Cour de cassation déclare, à l’époque, que « la dynamique du système qui tend à la centralisation des fichiers risque de porter gravement atteinte aux libertés, et même à l’équilibre des pouvoirs politiques »[21].

II) L’autonomisation du droit des données à caractère personnel

==> La loi informatique et libertés

 En réaction au vent de panique créé par le projet SAFARI, le premier ministre décide, immédiatement, de saisir le garde des sceaux afin que soit créée, en urgence, une commission chargée de formuler des propositions « tendant à garantir que le développement de l’informatique dans les secteurs publics, semi-publics et privés, se réalisera dans le respect de la vie privée, des libertés individuelles et des libertés publiques ».

Le défi lancé à la Commission informatique et libertés est de taille. Comme le fait remarquer Bernard Tricot « il est toujours difficile de bâtir une muraille de Chine juridique sur laquelle viendront s’écraser les assauts de l’informatique ».

Par chance, les travaux réalisés par la Commission sont d’une excellente facture, ce qui permet la rédaction d’un remarquable projet de loi.

Déposé en août 1976, ce projet accouche de la loi du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés.

Par cette loi, la protection conférée par l’adage noli me tangere est étendue à l’être informationnel dans son entier.

Désormais, c’est la personne humaine réunie dans ses trois composantes qui est protégée par le droit. Comme pour remercier le remarquable travail de la Commission qui avait fort bien œuvré, elle est instituée gardienne de la loi informatique et libertés.

À l’image d’une pierre jetée dans l’eau, l’adoption de cette législation, très innovante, a pour effet immédiat de se propager partout en Europe.

Nombre d’États souhaitent, dans le sillage de la France, protéger leurs ressortissants de l’informatique, qui dorénavant est perçue comme « une dévoreuse d’identité, elle capte l’individu sous toutes ses facettes et porte au grand jour des aspects qu’il souhaiterait conserver secret »[22].

==> La propagation internationale du mouvement de protection de la vie privée

Exception faite des États-Unis qui, pour des considérations essentiellement d’ordre économique, préfèrent fermer les yeux sur les dangers qui menacent l’intimité des citoyens américains, de nombreux pays ont, dès le début des années quatre-vingts, pris des mesures concertées, afin que l’appétit de l’ogre informatique à engloutir des données, s’arrête là où commence le droit des personnes à ne pas abandonner les éléments de leur identité.

La première de ces mesures peut être portée au crédit de l’OCDE (Organisation de Coopération et de Développement Economique), qui adopte le 23 septembre 1980 des lignes directrices destinées à régir la protection de la vie privée et les flux transfrontières de données à caractères personnel.

Quatre mois plus tard, cette organisation internationale est suivie par le Conseil de l’Europe qui adopte, le 28 janvier 1981, la convention pour la protection des personnes à l’égard du traitement des données à caractère personnel[23]. On l’appelle également la convention 108. L’objectif de ce traité est de « garantir sur le territoire de chaque partie, à toute personne physique, quelles que soient sa nationalité ou sa résidence, le respect de ses droits et de ses libertés fondamentales, et notamment de sa vie privée, à l’égard du traitement automatisé de données à caractère personnel la concernant »[24].

Enfin, par une résolution n°45/95 du 14 décembre 1990, l’assemblée générale des Nations Unies[25] apporte une touche d’universalité à ces conventions, dont la portée ne dépasse guère plus les frontières de l’Europe. Pis, seule la convention 108 présente un caractère contraignant[26]. Fort légitimement, on est alors en droit de s’interroger sur l’utilité de proclamer des grands principes, s’il n’existe aucun moyen de les faire appliquer, à plus forte raison lorsqu’il s’agit de garantir des libertés.

Indépendamment de l’impact international provoqué par la loi informatique et libertés, il doit être souligné, comme l’affirme le Conseil constitutionnel dans sa décision n° 92-316 du 20 janvier 1993, que cette loi participe, avant tout, au système de protection de la liberté personnelle et individuelle[27] ce qui, sans lui conférer une valeur constitutionnelle, « l’enracine en quelque sorte dans le bloc de constitutionnalité qui la vivifie »[28].

==> Le toilettage de la loi informatique et libertés

 La loi informatique et libertés se trouve être à la croisée de nombreuses libertés fondamentales, au-delà même du droit au respect à la vie privée[29].

En témoignent les rapports étroits qu’elle entretient avec le droit bancaire, le droit de la santé, le droit de la consommation, le droit de la communication, le droit de la propriété intellectuelle, ou encore le droit social. Sont ici concernés tous les droits qui appréhendent des secteurs dans lesquels sont collectées et traitées des données à caractère personnel. L’étendue du champ d’application de la loi informatique et libertés apparaît illimitée.

C’est de là qu’est issue la très grande portée de cette loi, laquelle montre une aptitude à se saisir des situations nouvelles créées par les machines. Ces situations « s’étendent à tous les aspects de la vie publique et privée, des activités collectives et individuelles »[30].

Bien que très étendu puisse apparaître le champ d’application de la loi informatique et libertés lors de son adoption, il est, toutefois un évènement qui, assez paradoxalement, va, plus tard, le rendre trop étroit. Quel est cet évènement ? Il s’agit de la naissance de l’internet qui s’est accompagnée, nous l’avons vu, de nouvelles techniques de collectes de données à caractère personnel.

Surtout, ce qui est nouveau, c’est que, une fois collectées, les données peuvent, en quelques clics de souris, circuler d’ordinateur en ordinateur, sans compter que la menace vient désormais, moins de l’administration publique que des agents privés. Naturellement, on ne saurait reprocher au législateur de n’avoir pas anticipé ces phénomènes.

Quoi qu’il en soit, un toilettage de la loi informatique et libertés devient, rapidement, nécessaire. Contrairement, à son élaboration qui s’est faite dans un cadre national, la refonte de cette loi est impulsée par les instances communautaires, qui brandissent – de façon assez discutable – leur compétence quant à connaître de tout ce qui relève de la circulation des marchandises. Or, selon elles, les données à caractère personnel peuvent y être assimilées.

Comment, dès lors, parvenir d’une part, à une harmonisation des législations nationales et, d’autre part, à la libre circulation des données à caractère personnel, tout en garantissant un niveau élevé de protection des libertés individuelles.

 Pour le conseil d’Etat, qui se prononce en assemblée générale, dans un avis du 13 juin 1993, le texte qui va être adopté ne saurait contenir de « dispositions qui conduiraient à priver des principes de valeur constitutionnelle de la protection que leur accorde la loi du 6 janvier 1978 actuellement en vigueur »[31].

De la même manière, dans une résolution de l’assemblée nationale du 25 juin 1993, il est estimé que la Communauté européenne ne peut « justifier son intervention dans la réglementation des traitements des données à caractère personnel qu’à la condition que la réalisation de cet objectif ne nuise pas au haut degré de protection dont doivent bénéficier les personnes physiques à l’égard de ces traitements et encore moins à assimiler ces données à de simples marchandises ».

Fort heureusement, en raison de la grande considération que les instances communautaires portent à la loi informatique et libertés, les recommandations formulées par les autorités françaises, notamment par la CNIL, ont été suivies rigoureusement.

Cela s’est traduit par l’adoption d’une directive, le 24 octobre 1995, qui dispose, dans son dixième considérant, que « […] le rapprochement [des] législations ne doit pas conduire à affaiblir la protection qu’elles assurent mais doit, au contraire, avoir pour objectif de garantir un niveau élevé de protection dans la Communauté »[32]. Par ce texte communautaire est assuré « la protection des libertés et droits fondamentaux des personnes physiques, notamment de leur vie privée, à l’égard du traitement des données à caractère personnel »[33].

En France, il faut attendre près de dix ans pour que cette directive soit transposée. Elle le fut, par une loi du 6 août 2004, qui, sans remplacer la précédente du 6 juillet 1978, a simplement été intégrée à elle.

==> Le RGPD

Une proposition de règlement et une proposition de directive ont été formulées par la Commission européenne le 25 janvier 2012[34], en vue de remplacer respectivement la – déjà obsolète – directive du 24 octobre 1995 et la décision cadre 2008/977/JAI sur la protection des données dans le cadre de la coopération policière et judiciaire[35].

A cet égard, le législateur européen s’est donné pour objectif de renforcer les droits des personnes et le marché intérieur de l’UE, garantir un contrôle accru de l’application de la réglementation, simplifier les transferts internationaux de données à caractère personnel et instaurer des normes mondiales en matière de protection des données.

La France a pris une part très active dans les négociations afin de maintenir et promouvoir son modèle de protection des données qui constitue encore aujourd’hui une référence en Europe et dans le monde.

A l’issue de longues négociations, le Parlement européen et le Conseil ont adopté le « paquet protection des données » le 27 avril 2016, fruit d’un compromis entre les Etats membres de l’Union européenne.

Ce paquet se compose :

  • D’un règlement relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données (règlement (UE) 2016/679).
  • D’une directive relative aux traitements mis en œuvre à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales (directive (UE) 2016/680).

Au-delà des exigences propres à la mise en conformité avec le droit européen de la protection des données à caractère personnel, le règlement prévoit plus d’une cinquantaine de marges de manœuvre qui permettent aux Etats membres de préciser certaines dispositions ou d’aller plus loin que ce que prévoit le droit européen.

Certaines de ces marges de manœuvre permettent de maintenir des dispositions déjà existantes dans notre droit national. D’autres, en revanche, peuvent être mises en œuvre afin notamment de prendre en compte l’évolution technologique et sociétale.

Le rapport annuel du Conseil d’Etat de 2014, intitulé « Le numérique et les droits fondamentaux » a souligné la nécessité de repenser la protection des droits fondamentaux afin de mettre le numérique au service des droits individuels et de l’intérêt général.

De même, le rapport d’information déposé par la Commission des lois constitutionnelles, de la législation et de l’administration générale de la République de l’Assemblée nationale a également révélé l’importance des « incidences des nouvelles normes européennes en matière de protection des données personnelles sur la législation française »

Les nouvelles exigences posées par le législateur européen ont été transposées en droit français lors de l’adoption de la loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles.

[1] G. Ripert, Les forces créatrices du droit, LGDJ, coll. « reprint », 1998, p. 146.

[2] V. en ce sens G. Cornu, Linguistique juridique, Montchrestien, coll. « Domat », 2005, p. 356 ; H. Roland et L. Boyer, Adages du droit français, Litec, coll. « traités », 3éd., Paris, 1992, n°251, p. 533 ; B. Beignier, Droit de la personnalité, PUF, coll. « Que sais-je ? », 1992, p. 14-15.

[3] Cité in B. Beignier, op. préc., p. 15.

[4] Ulpien affirmait « dominus membrorum suorum nemo videtur » (nul n’est propriétaire de son corps), Digeste, IX-2-13, cité in B. Beignier, op. préc., p. 76.

[5] Selon R. Andorno, « le système juridique repose sur la base de la distinction radicale personnes-choses, qui est une condition sine qua non, non seulement de l’existence du système, mais du respect dû à la personne humaine » (R. Andorno, « Procréations artificielles, personnes et choses », RRJ, 1992, n°1, pp. 13 s.).

[6] J. Carbonnier, Droit civil. Introduction, Les personnes, La famille, l’enfant, le couple, PUF, coll. « Quadrige manuels », 2004, n°4, p.19.

[7] Bernard Beigner, op. préc., p. 7.

[8] Emile Beaussire par son ouvrage « les principes du droit » publié en 1888 et A. Boistel dans son cours de philosophie du droit en 1889 avaient néanmoins déjà développé la notion de droits innés au nombre desquels figurait le droit au respect de l’individualité.

[9] E.-H. Perreau, « Des droits de la personnalité », RTDCiv, 1909, pp. 501 et s.

[10] Perreaufait, par exemple, référence au dommage moral, à la protection du corps et de l’esprit, à l’honneur ou encore au « droit à la liberté ».

[11] P. Roubier, préface in R. Nerson, Les droits extrapatrimoniaux, LGDJ, 1939.

[12] Sans doute est-ce là le résultat de l’influence de Jean Dabin, qui avance dans son ouvrage relatif aux droits subjectifs, que ces deniers incluent, tant les intérêts juridiquement protégés, que les « droits de liberté ». Dans le droit fil de cette idée Roger Nerson, élève de Roubier, écrit plus tard dans sa thèse qu’« un droit extrapatrimonial est un droit dont la fin est de satisfaire un besoin non économique : besoin souvent moral, parfois d’ordre matériel » (R. Nerson, op. préc., p. 6).

[13] V. en ce sens notamment, Aff. Marlène Dietrich, CA Paris, 16 mars 1955, D. 1955, p. 295 ; Aff. Picasso, CA Paris, 6 juill. 1965, Gaz. Pal. 1966, 1, p. 39 ; Aff. Trintignant, CA Paris, 17 mars 1966, D. 1966, p. 749; Aff. Bardot, TGI Seine, 24 nov. 1965, JCP G 1966, II, 14521, puis CA Paris, 27 févr. 1967 : D. 1967, p. 450, note Foulon-Piganiol.

[14] R. Badinter, « Le droit au respect de la vie privée », JCP G, 1968, I, 2136, n° 12.

[15] Article 9 de la loi n°70-643 du 17 juillet 1970 : « chacun a droit au respect de sa vie privée ».

[16] On peut citer l’article 8 de la Convention européenne de sauvegarde des droits de l’homme, l’article 7 de la Chartes des droits fondamentaux de l’Union Européenne ou encore l’article 1er de la Directive Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques JO 31 juillet 2002, L. 201, pp. 37-47.

[17] Comme le souligne Emmanuel Derieux « à défaut d’une définition légale précise de la vie privée […], c’est dans la jurisprudence, tant antérieure que postérieure à la loi de 1970 que l’on doit chercher la signification ou l’interprétation de cette notion. […] On considère généralement – encore que cela puisse varier selon les circonstances et l’identité des individus concernés – que relèvent de la vie privée d’une personne : sa vie sentimentale ; ses relations amicales ; sa situation de famille ; ses ressources et moyens d’existence ; ses loisirs […] ; sens opinions politiques ; son appartenance syndicale ou religieuse ; son état de santé ; le mode d’éducation choisi pour ses enfants ; son adresse […] » (E. Derieux, Droit des médias. Droit français, européen et international, LGDL, coll. « Manuel », 2008, n°1803-1804, p. 583).

[18] On pense notamment aux données relatives au patrimoine, à la confession ou encore à la profession.

[19] G. Braibant, Rapport Données personnelles et société de l’information. Transposition en droit français de la directive numéro 95/46, La documentation française, coll. « rapports officiels », 1998, p. 7. V. également sur la notion d’atteinte à la vie privée, B. Beignier, « Vie privée et vie publique », Légipresse, sep. 1995, n°124, pp. 67-74 ; O. d’Antin et L. Brossollet, « Le domaine de la vie privée et sa délimitation jurisprudentielle » Légicom, octobre 1999, n° 20, pp. 9-19 ; J. Curto, « La fin justifie-t-elle les moyens ? De la notion de vie privée et de la preuve déloyale » Revue Lamy Droit Civil, avr. 2012, n°92, pp. 55-56.

[20] Ph. Boucher, « Safari ou la chasse aux Français », Le Monde, 21 mars 1974.

[21] A. Touffait, Discours du 9 avril 1973 devant l’Académie des Sciences morales et politiques, cité in Ph. Boucher, art. préc.

[22] D. Pousson, « L’identité informatisée », in L’identité de la personne humaine. Étude de droit français et de droit comparé, Bruylant, Bruxelles, 2002, p. 373.

[23] Cette convention a été complétée par un amendement adopté le 15 juin 1999, lequel prévoit l’ouverture à la signature de l’Union européenne et par un protocole additionnel relatif aux autorités de contrôle des flux transfrontières de données à caractère personnel.

[24] Article 1er de la convention 108, publiée par le décret n°85-1203 du 15 novembre 1985, JO 20 nov., p. 13436

[25] Résolution 45/95 du 14 décembre 1990 adoptée par l’assemblée générale des Nations Unies relative aux principes directeurs pour la règlementation des fichiers personnels informatisés.

[26] La convention 108 prend directement sa source dans la Convention de sauvegarde des droits de l’homme et des libertés fondamentales laquelle est d’application directe. L’arrêt du Conseil d’État du 18 novembre 1992 semble aller en ce sens (CE, 18 nov. 1992, Licra, AJDA 1993, n°3, p. 213, note Letterson).

[27] Décision n° 92-316 DC du 20 janvier 1993, JORF n°18 du 22 janvier 1993 p. 1118.

[28] A. Lucas, J. Devèze, J. Frayssinet, op. cit. note n°100, n°41, p. 28.

[29] Ibid.

[30] P. Laroque, « Informatique et libertés publiques », in Techniques de l’Ingénieur, Fascicules H 8770, éd. Techniques, 1970.

[31] V. en ce sens, Les grands avis du Conseil d’État, Paris, LGDJ, 1997, p. 399, note de B. Stirn.

[32] Directive 95/46/CE du Parlement européen et du Conseil, du 24 octobre 1995, relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, JO 23 nov. 1995, L. 281, pp. 31-50.

[33] Article 1er, 1° de la directive 95/46/CE.

[34] Communication de la Commission « une approche globale de la protection des données à caractère personnel dans l’Union européenne », 4 novembre 2010, COM(2010)609 final.

[35] Décision-cadre 2008/977/JAI du Conseil du 27 novembre 2008 relative à la protection des données à caractère personnel traitées dans le cadre de la coopération policière et judiciaire en matière pénale, J.O.C.E. L 350 du 30 décembre 2008.