Le conseil juridique est-il ébranlé ou non par la nouvelle économie ?* Telle est la question. Ou, pour le dire autrement : To be or not to be shaken that is the question ? Pour quelle raison ces quelques mots anglais ? Pour signifier que le conseil juridique 2.0, qui est en prise avec la nouvelle économie, celle du numérique, parle anglais. Il ne fait pas un rapport de synthèse à son client ou à son patron, il fait un reporting. Il ne passe pas un coup de téléphone, il a un call… Ces quelques emprunts à la langue de Shakespeare disent plus qu’il n’y paraît. C’est que cette langue est l’instrument de communication de larges domaines spécialisés des sciences et des techniques, de l’économie et des finances. Et puisque le colloque s’intéresse précisément aux défis du numérique (1), se demander pour quelle raison le conseil juridique serait ébranlé, c’est prononcer à un moment ou à un autre les mots « legaltech », « legal start-up », « legal process outsourcing », « machine learning », « e.lawyering » (entre autres inventions)… En bref ou last but not least (pour rester dans le ton), « business and disruption » – affaires et perturbations ou ébranlement.

La disruption est un anglicisme qui désigne le bouleversement d’un marché sur lequel les positions sont établies avec une stratégie inédite. C’est ce qu’il est courant de désigner par innovation de rupture. Cette innovation-là modifie un marché non pas avec un meilleur produit – c’est le rôle de l’innovation pure, écrit-on volontiers – mais en l’ouvrant au plus grand nombre. C’est cette histoire qu’ont commencé à écrire quelques ingénieux opérateurs économiques qui se sont positionnés sur le marché du droit (2). Et c’est une histoire qui intéresse au premier chef les conseils juridiques, les avocats en particulier. Pour cause : il a été prédit que « l’effet disruptif de l’intelligence artificielle [engendrerait] la fin du monopole des avocats » (3). C’est somme toute aller un peu vite en besogne. La fin du monde réglementé du conseil juridique par le feu de l’innovation tous azimuts n’a pas encore sonné. Ce n’est toutefois pas à dire qu’il ne sonnera pas. Car des mesures d’allégement réglementaire ont été prises ces dernières années (4).

Le service rendu par les hommes et les femmes de l’art, peu important leur titre ou leur qualité dans le cas particulier, est considéré par trop onéreux. Le montant des honoraires facturés est montré du doigt. On dit qu’il participe d’une augmentation des prix, de l’obtention de revenus élevés, de la réalisation de surprofits. On crie haro sur la réglementation professionnelle. La normalisation de l’activité de conseil juridique créerait des barrières à l’entrée du marché. L’obligation de recourir à un auxiliaire de justice ou bien de requérir le ministère d’un officier public ministériel augmenterait artificiellement la demande (5). En bref, les conseils juridiques ont ressenti un grand trouble dans la Force. Et la guerre des étoiles montantes du numérique de faire rage. C’est que les nouvelles technologies, qui sont des facilitateurs et des accélérateurs, ont ouvert la porte à tous les possibles (6) ! Les juristes, à tout le moins celles et ceux qui en doutaient encore, sont assurément entrés dans l’ère du dumping.

Dumping. Dans la nouvelle économie numérique, celle de la start-up nation (7), le droit n’est plus l’apanage des juristes. L’exercice du conseil juridique est désormais l’affaire d’une multitude de firmes (bandes ?) organisées (8) dont le capital social n’est du reste pas nécessairement détenu par des professionnels du droit. Un pareil changement de paradigme est proprement renversant. On ne saurait donc mieux dire que le conseil juridique est ébranlé par la nouvelle économie.

Mais, une fois encore, il serait aventureux de jouer les Cassandre. Autant le dire tout de suite, l’« ubérisation » du marché du conseil juridique ne sera pas (9). Le droit est un objet du commerce juridique par trop complexe pour être tout entier ramassé en un système binaire « si alors ». Le système juridique n’a pas vocation à être absolument gouverné par les nombres (10). Cela étant, les entreprises innovantes ont apporté la preuve que la production du droit pouvait être notablement améliorée sous certaines conditions.

Amélioration. Les professionnels du droit, qui ont été saisis par la nouvelle économie, n’ont pas manqué d’apporter leur pierre à la transformation numérique. Dans le même temps, l’investissement dans l’économie de la connaissance sur le sujet a été entamé : organisation d’un forum du numérique par l’école des avocats du nord-ouest, financement d’un programme d’incubation dédiée aux legalstarts par le barreau de Paris(11), création du site de mise en relations http://www.avocats.fr, constitution d’une association d’avocats legal startupers (Avotech), habilitation de formations universitaires (par ex., Paris 2 : DU Transformation numérique du droit et legaltech. Caen, Reims : M2 Droit du numérique).

Pour le dire autrement, le conseil juridique a certes été questionné par la nouvelle économie (I). Ce qui était inévitable. Mais l’important au fond c’est que le conseil juridique a été repensé par la nouvelle économie (II). C’était prévisible.

I – Le conseil juridique questionné par la nouvelle économie

Efficience ? En première intention, l’observateur est saisi par ce questionnement soudain du conseil juridique par la nouvelle économie. La lecture des quelques études publiées sur le droit à l’ère du numérique objective la surprise des opérateurs positionnés de longue date sur le marché, par une suite d’héritages sans discontinuité ni perdition. L’aptitude du conseil juridique à fournir le meilleur rendement est pourtant attestée. La capacité des juristes à maximiser l’allocation des ressources n’est pas douteuse. Et voilà que l’Ordre des avocats et le Conseil national des barreaux (CNB) en sont réduits à intenter des actions en concurrence parasitaire contre quelques legal start-up qui ont le vent en poupe (12). En bref, les hommes de l’art n’ont pas été en mesure de prévenir (correctement) le risque… algorithmique et toutes ses incidences(13) ! Non seulement l’homme de droit a été saisi par le marché (A), mais l’art de faire du droit a été troublé par la science (B).

A – L’homme (de droit) saisi par le marché

Réglementation du conseil juridique (14) a fait croire à l’homme et à la femme de droit que leur positionnement sur le marché ne serait pas discuté, à tout le moins pas plus que d’ordinaire. Mauvaise inspiration s’il en est. La puissance du web, dont on a fêté les trente ans en mars 2019, a autorisé les consommateurs et les concurrents à les détromper.

1 – Les consommateurs

Barrières. L’accès aux règles juridiques ne s’impose pas avec évidence. Des barrières empêchent nombre de clients de « consommer » simplement du droit. Les empêchements sont de plusieurs ordres. Un premier obstacle est d’ordre matériel. Il a trait au prix. Ce n’est toutefois pas à dire qu’aucun effort n’ait été fait à l’intention de nos concitoyens les moins bien lotis : aide juridictionnelle, maison de la justice et du droit, cliniques juridiques… L’empêchement est aussi de nature intellectuelle. Il faut bien voir que nos concitoyens sont très souvent dans l’incapacité de formuler leur(s) besoin(s) de droit(s). Ce n’est pas à dire non plus qu’ils n’ont pas l’intuition de l’existence de telle ou telle règle ou le sentiment de la violation de tel ou tel droit subjectif. Il reste que, dans l’ensemble, très peu sont en situation de prendre aussitôt attache avec un avocat-conseil. Or, à mesure que le temps passe, les difficultés rencontrées peuvent aller crescendo. L’homme et la femme de l’art sont alors priés de démêler des situations parfois inextricables. Les honoraires de diligence étant déterminés en conséquence, ils sont un frein à la consultation.

L’empêchement est en outre psychologique. La sophistication d’un cabinet, la langue qu’on y parle, les tenues qu’on y porte, le tout peut, à tort ou à raison, faire écran. Enfin, la nécessité qu’il faille réclamer à son employeur un jour de congé pour se rendre chez un avocat complique un peu plus encore les démarches à entreprendre et les rend vaines lorsque le problème rencontré prête a priori à peu de conséquences. Que reste-t-il au consommateur-justiciable en demande ? Eh bien Internet.

Internet. Quelques mots tapés dans l’un des plus puissants moteurs de recherche jamais inventés et du droit est dit. C’est très commode. Une question demeure pourtant. Est-ce bien dit ? On peut en douter. Soit la généralité de l’information rend vaine l’application de la règle de droit au cas particulier. Soit l’information juridique est absconse et le consommateur 2.0 ne comprend rien du tout. Le constat n’est pas nouveau. Preuve est rapportée, dira-t-on, qu’on ne saurait faire l’économie d’un conseil juridique. Il existe pourtant un facteur qui impose, nous semble-t-il, djusue réécrire pour partie l’histoire du marché du conseil juridique. Il a trait au désir de consommer.

Consommation. Alors que tout est à peu près dans le commerce juridique, qu’on peut presque tout acheter en ligne, le droit ne peut l’être ou bien alors de façon bien moins satisfaisante. Il ne s’agit pas de disserter sur les heurts et malheurs d’une pareille offre mais de prendre la mesure de ce qui est en train de se passer. La demande de droit(s) va crescendo. Pour preuve, quelques commerçants bien inspirés ont commencé à satisfaire ce besoin exprimé par les consommateurs-justiciables. Depuis, les concurrents se sont positionnés.

2 – Les concurrents

Les sites Internet d’information et d’intermédiation dédiés se développent(15). Rien ne devrait empêcher ces opérateurs économiques concurrents de continuer sur leur lancée. C’est que l’esprit comme la nature a horreur du vide.

Vide. C’est très précisément ce qui a été comblé par de jeunes entreprises innovantes, les fameuses legaltech. La concurrence a su tirer le meilleur profit de la transformation numérique. Les nouveaux entrants sur le marché du conseil juridique, ceux qu’on qualifie parfois de disruptifs, se sont d’abord concentrés sur les segments du marché négligés par les firmes d’ores et déjà positionnées. On peut raisonnablement s’attendre à ce que les segments de marché occupés soient visés. Cèderont-ils ? Je n’en sais rien. Tout dépendra du niveau auquel le législateur aura placé le curseur de la (dé)réglementation de l’activité.

Ce qu’on peut dire, en revanche, c’est que les concurrents se sont positionnés à la manière de médias, d’intermédiaires, à tout le moins pour l’instant, et qu’ils sont tout à fait rompus à l’expérience client (c’est-à-dire la problématique des interactions entre une personne et un objet).

La lumière a été donnée au consommateur-justiciable : non seulement le droit a été révélé mais le conseil juridique a été montré pendant que l’accès au juge a été facilité. Le tout à titre gratuit ou presque, en quelques clics au pire et avec une facilité déconcertante. Et la Cour de cassation de donner tout récemment son onction au procédé.

Onction. À la question posée par l’Ordre des avocats et le CNB de savoir si l’activité de la société commerciale demanderjustice.com ne constituait pas une forme d’exercice illicite de la profession d’avocat, la Chambre criminelle a répondu par la négative (16) pendant que le juge de première instance estimait pour sa part qu’il y avait là une aide automatisée offerte aux justiciables pour l’accomplissement des actes de procédure (17).

C’est cela l’innovation de rupture. Jamais une telle impression sur le marché du droit n’avait été constatée par les hommes et les femmes de droit. Indiscutablement, la science a troublé l’art de faire du droit.

B – L’art (de faire du droit) troublé par la science

En quoi la science, particulièrement les nouvelles technologies de l’information et de la communication ont-elles troublé l’art de faire du droit ? Eh bien en donnant la possibilité d’industrialiser le conseil juridique (1) et, par voie de conséquence, en offrant celle de monétiser tout conseil juridique (2).

1 – L’industrialisation

Production. Le conseil juridique est une création de l’esprit empreinte d’une certaine originalité. Sa nature complique voire interdit tout remploi. Le système de production est par voie de conséquence artisanal. La standardisation du conseil et des procédures n’est pas absolument empêchée. Simplement, les hausses de productivité qui peuvent être espérées (en temps comme en argent) sont sans commune mesure avec une production de type industriel. Or, c’est très précisément la promesse qui est faite par les legal start-up : industrialisation des processus, facilitation des conseils, optimisation des coûts, augmentation des marges et, par voie de conséquence, extension de la zone de chalandise.

Facilitation. Les facilités proposées par les algorithmes sont de tous ordres(18). Si l’on devait les catégoriser, on pourrait dire que les premiers renseignent les demandes de conseils en droit, que les deuxièmes discriminent les professionnels du droit(19), que les troisièmes arbitrent les moyens de droit. Et tous de satisfaire le consommateur de conseils juridiques à des degrés divers. À titre d’exemple, la technologie la plus avancée permettrait à tout un chacun de prédire les chances de succès d’un procès. En revanche, il n’est pas encore question de généraliser la « justice algorithmique » (20), c’est-à-dire une justice qui serait rendue par des robots (21). Une fois encore, ce n’est pas dire qu’elle n’existe pas. Le traitement automatisé des infractions de la route l’atteste. Ce dernier cas mis à part, pour l’heure, c’est au mieux de justice, de défense et de conseil assistés par ordinateur (22) dont il est question et non de droit dit par un ordinateur (23). C’est déjà beaucoup car les algorithmes d’aide à la décision (24) ont donné l’occasion à tous les opérateurs de monétiser n’importe quel conseil juridique.

2 – La monétisation

Prospect. Il y a peu de temps encore, le conseil était matériellement empêché de satisfaire n’importe quelle demande de droit à peine de mettre possiblement en péril sa structure d’exercice professionnelle. L’explosion quantitative de la donnée numérique a permis l’apparition de nouvelles offres de service susceptibles de contenter n’importe quelle demande de droit et de monétiser n’importe quel conseil. En bref, les legal start-up sont de nature à apporter aux avocats (entre autres prestataires de conseils juridiques) une clientèle qui leur échappe (25).

Désormais, les professionnels du droit rivalisent de stratégies digitales (comme on dit) pour apprivoiser la machine et les problématiques dont ils ont été saisis. Et c’est parce que le conseil juridique a été questionné par la nouvelle économie, qu’il a été depuis lors repensé.

II – Le conseil juridique repensé par la nouvelle économie

Mutation anthropologique. Annoncer que le conseil juridique a été repensé par la nouvelle économie, c’est signifier que la donne a été notablement changée, qu’il se pourrait même qu’on ait assisté à une mutation anthropologique des opérateurs (26). Non seulement les façons de faire du droit ont été modifiées, mais les hommes et les femmes de droit se sont réinventés. Pour le dire autrement, l’histoire de l’art de faire du droit a été réécrite (A) tandis que l’homme de l’art a été augmenté (B).

A – L’histoire de l’art réécrite

Psychologie de l’exemple. La réorganisation remarquable du marché du conseil juridique et des structures d’exercice professionnel a entraîné une réécriture remarquable de l’histoire (de faire) du droit. En bref, le droit n’a plus vocation à être révélé tout à fait de la même manière. Les pratiques qui ont cours dans quelques firmes pointues seulement devraient vraisemblablement faire tache d’huile et se rencontrer plus volontiers, à savoir la discrimination des questions de droit (1) et l’externalisation des réponses juridiques (2).

1 – La discrimination des questions de droit

Repositionnement. Le juriste d’entreprise du XXIe siècle ou le cabinet 2.0 est très vivement incité à discriminer les questions de droit dont il est saisi : économie de la firme et digitalisation de l’entreprise obligent. D’aucuns objecteront, à raison, que c’est monnaie courante. Il faut bien voir toutefois que les raisons de procéder ont changé. La différenciation ne trouve plus (ou plus seulement) sa cause dans la formation des apprentis juristes et des élèves avocats auxquels il importe de confier des questions dont la difficulté va crescendo à mesure que l’expérience métier augmente. Elle trouve sa raison d’être dans le repositionnement de la firme sur les questions complexes à plus forte valeur ajoutée. Au fond, à tort ou à raison, c’est de modèle de développement dont il s’agit.

Modèle de développement. Si l’on en croit l’Organisation de coopération et de développement économique (OCDE), la recherche d’une segmentation poussée des activités serait l’un des piliers de l’innovation. Quelle est l’idée ? Celle qu’en découpant la production d’une prestation en un maximum d’éléments distincts, on permet de réaliser chaque élément de la manière la moins coûteuse et donc de faire jouer la concurrence par les prix (27). C’est une façon de voir les choses… qui consiste à externaliser par voie de conséquence nombre de réponses juridiques.

2 – L’externalisation des réponses juridiques

Source. L’externalisation des réponses juridiques, qui tend à se développer en France, est un procédé bien connu des pays angloaméricains qui consiste tantôt à sous-traiter la prestation tantôt à sous-traiter le service. Et ce toutes les fois que la prestation juridique est à faible valeur ajoutée (qu’il s’agisse de prestations élémentaires, récurrentes, volumineuses). Un mot désigne le procédé : legal process outsourcing (28).

Legal process outsourcing. Pour résumer, l’outsourcing se décline en deux propositions principales : l’offshoring et le onshoring. L’offshoring consiste à interroger une firme implantée à l’étranger dans un pays où le coût du travail est faible (ex. cabinet Kalexius) (29). Le onshoring consiste à interroger une firme implantée en France dans une ville où les coûts de production sont moindres. C’est un dispositif qui donne à penser (30). Ce n’est pas le seul du reste (31).

Le marché des services juridiques alternatifs. Ce marché propose à toute entreprise intéressée la collaboration à temps plein d’un avocat dans ses propres locaux. Aucun mystère sur le sujet, c’est purement et simplement du détachement…d’avocats. Quant à l’inspiration, elle est toute trouvée. On la doit aux cabinets d’audit et de conseils aux entreprises. Business model que s’est contenté de dupliquer avec beaucoup d’ingéniosité un ancien cadre de chez CapGemini (32), leader dans l’outsourcing numérique.

Que penser définitivement de cette réécriture de l’histoire de l’art juridique que je viens de dépeindre à grands traits ? Je ne doute pas que l’auditoire saura m’aider à y voir plus clair. Ce qui paraît plus certain en revanche, c’est qu’en répondant aux défis du numérique, l’homme de l’art est ressorti augmenté.

B – L’homme de l’art augmenté

Exosquelette. La profusion des legal start-up et l’amplification de l’outsourcing ont très certainement contribué à augmenter l’homme et la femme de l’art. Cela étant, l’expertise d’un conseil juridique n’est absolument pas substituable. À titre personnel, je pense que le professionnel du droit formé dans une faculté de droit plusieurs années durant ne sera pas remplacé. Car le droit n’est pas une collection de règles éparses qu’il suffirait de transformer en 0 et en 1 pour, chose faite, se contenter d’ordonner à une machine de révéler, conseiller, voire juger. Il y a un travail de façon de la matière juridique et une part de mystère dans la réalisation du droit que seul l’homme de l’art rompu à l’exercice peut approcher justement et utilement. Cela étant, les blocs de règles juridiques sont désormais si nombreux et intriqués pendant que la masse de demandes de droit est devenue tellement importante et pressante que l’homme et la femme de l’art gagneront sans aucun doute à maîtriser les nouvelles machines et à pratiquer leurs puissants algorithmes. C’est en d’autres termes accepter de se doter d’un exosquelette.

Il a été rappelé qu’il existe deux formes d’innovation : « celle de continuité ou incrémentale, qui vise à améliorer un produit existant ou satisfaire sa clientèle, et celle de rupture dont l’objet est d’inventer un nouveau produit. C’est au fond la différence entre l’évolution et la révolution ; certaines entreprises (les traditionnelles) cherchent à faire mieux tandis que d’autres (les numériques) ambitionnent de faire différemment » (33). C’est au fond de destruction créatrice dont il est question (Shumpeter)… Une question demeure : To be or not to be a start-up nation : that is the question (34) ?

Notes :

* Article paru à la revue Dalloz IP/IT 2019.655 (JB)

(1) Voy, aussi, J.-B. Auby, Le droit administratif face aux défis du numérique, AJDA 2018. 835.

(2) Sur la marchéisation de la justice, L. Cadiet, L’accès à la justice, D. 2017. 522, n° 15 ; Ordre concurrentiel et justice, in L’ordre concurrentiel, Mélanges Antoine Pirovano, éd. Frison-Roche, 2004, p. 109.

(3) J. McGinnis & R. Pearce, The Great Disruption, The disruptive effect of machine intelligence will trigger the end of lawyer’s monopoly, Fordham Law Review, vol. 82, 2014, p. 3065, cités par F. G’Sell, Professions juridiques et judiciaires – impact des innovations de rupture sur le marché des services juridiques : l’OCDE s’interroge, JCP 2016. 445.

(4) B. Deffains, Loi Macron : faut-il opposer modèle professionnel et modèle concurrentiel ?, JCP N 2015. 150.

(5) J. Deffains, op. cit., n° 11.

(6) F. Douet, Fiscalité 2.0. – Fiscalité du numérique, 2e éd., LexisNexis, 2018, p. 1.

(7) N. Collin, Qu’est-ce qu’une « start-up nation » ?, L’Obs, chron., 2018.

(8) M. Blanchard, La révolution du marché du droit. Les nouveaux acteurs du droit, Cah. dr. entr. 5/2018, dossier 15.

(9) S. Smatt et L. Blanc, Les avocats doivent-ils craindre l’« ubérisation » du droit ?, JCP 2015. 1017. R. Amaro, L’ubérisation desprofessions du droit face à l’essor des legaltech, in Dossier L’ubérisation : l’appréhension par le droit d’un phénomène numérique, Dalloz IP/IT 2017. 161.

(10) A. Supiot, La Gouvernance par les nombres, Fayard, 2015.

(11) https://bit.ly/379kk9V.

(12) http://www.saisirprud’hommes.com et http://www.demanderjustice.com. Sur la notion, L. Vogel, Traité de droit économique, Droit de la concurrence, Droit français, t. 1, 2e éd., Bruylant, 2018, nos 538 s.

(13) L. Godefroy, Le code algorithmique au service du droit, D. 2018. 734.

(14) Loi n° 71-1130 du 31 déc. 1971 portant réforme de certaines professions judiciaires et juridiques, art. 54.

(15) Voy., par ex., http://www.litiges.fr ou http://www.demanderjustice.com.

(16) Cass. crim., 21 mars 2017, n° 16-82.437, inédit, D. 2018. 87, obs. T. Wickers ; D. avocats 2017. 148, obs. M. Bénichou ; Légipresse 2017. 175 et les obs. (confirmation Paris, ch. 5-12, 21 mars 2016).

(17) TGI Paris, 13 mars 2014, n° 13248000496, D. 2015. 35, obs. T. Wickers ; JCP 2014. 578, note C. Bléry et J.-P. Teboul.

(18) Dossier, Le droit saisi par les algorithmes, Dalloz IP/IT 2017. 494.

(19) Une discrimination passive consisterait à orienter le consommateur-justiciable vers un conseil juridique au vu du problème de droit formulé. C’est l’objet de quelques sites Internet, notamment de http://www.avocats.fr. Une discrimination active consisterait à proposer au consommateur-justiciable un comparateur de conseils juridiques au vu des expériences clients renseignées. V. sur cette dernière tentative, F. G’Sell, Les comparateurs d’avocats sont-ils illicites. De l’application de la déontologie de la profession d’avocat au-delà de la profession, JCP 2016. 4. Cmp. Les comparateurs d’avocats en ligne licites à condition de respecter le droit des consommateurs, JCP 2018. 1399, veille.

(20) B. Barraud, Avocats et magistrats à l’ère des algorithmes : modernisation ou gadgétisation de la justice ?, Revue pratique de laprospective et de l’innovation, oct. 2017, dossier 11, n° 4.

(21) F. Rouvière, Le raisonnement par algorithmes : le fantasme du juge-robot, RTD civ. 2018. 530.

(22) F. Barraud, préc.

(23) S. Chassagnard-Pinet, Les usages des algorithmes en droit : prédire ou dire le droit ?, Dalloz IP/IT 2017. 495. Y. Gaudemet, La justice à l’heure des algorithmes, RD publ. 2018. 651. A. Garapon, La legaltech : une chance ou une menace pour les professions du droit ?, LPA 18 sept. 2017, p. 4 (entretien).

(24) S.-M. Ferrié, Les algorithmes à l’épreuve du droit au procès équitable, Procédures 2018. Étude 4.

(25) L. Neuer, Avocatus numericus, modes d’emploi. Enquête. JCP 2017. 1079.

(26) N. Fricero, Plaidoyer pour un procès civil disruptif et pour une mutation anthropologique des acteurs judiciaires. À propos du rapportde l’Institut Montaigne « Justice : faites entrer le numérique », JCP 2017. 1305.

(27) OCDE, Protecting and promoting competition in response to disruptive innovations in legal services, DAF/COMP/WP2(2016)1, 9 mars 2016, § 13. Rapp. cité par M. Blanchard in La révolution du marché du droit. Les nouveaux acteurs du droit, préc. note 8.

(28) Sur la défense de la localisation de l’activité juridique dans le Grand Paris, H. Bouthinon-Dumas et B. Deffains, La place juridique deParis, D. 2019. 29.

(29) Le nearshoring est une variante qui consiste à délocaliser le traitement de la question dans un pays certes étranger mais qui est facilement accessible et qui entretient une proximité culturelle avec le donneur d’ordres.

(30) L. Carnerie, Legaltechs : les professions réglementées mettent en avant leurs avantages concurrentiels, Gaz. Pal. 10 juill. 2017, p. 5.

(31) A. Coignac, Externalisation des prestations juridiques et services juridiques alternatifs. Une réorganisation du marché. Enquête, JCP2017. 335.

(32) A. Coignac, préc. V., plus particulièrement, le témoignage de S. Lefer, fondateur d’Oxygen+.

(33) F. Luzzu, Le notaire 2.0 ou comment éviter l’ubérisation du notariat, JCP N 2015. 1195, spéc. n° 35).

(34) E. Macron, Salon VivaTech 2017, discours, https://bit.ly/356oQnP) !

(0)

La protection des logiciels. Le débat qui s’est tenu sous l’égide du législateur français reflète relativement bien les discussions qui ont eu lieu au sein des États membres de l’OMPI. Afin de comprendre la décision qui en ait résulté, celle-ci ayant été partagée par la plupart des législateurs nationaux, prenons ce débat comme fil directeur de nos propos. En France donc, nombreux sont ceux à s’être spontanément prononcés en faveur de la protection des programmes d’ordinateur par le droit des brevets[1]. L’argument le plus souvent avancé est de dire que le logiciel revêt une dimension fonctionnelle, ce à quoi s’ajoute le fait que le droit d’auteur n’aurait pour seule fonction que de protéger les créations intellectuelles qui relèvent du domaine du beau. Si cette thèse est, à maints égards, fort attrayante, elle révèle, toutefois, chez ceux qui ont pu la soutenir, une certaine méconnaissance du droit de la propriété littéraire et artistique. En vertu de l’article L. 112-1 du Code de la propriété intellectuelle, ont vocation à être protégées « toutes les œuvres de l’esprit, quels qu’en soient le genre, la forme d’expression, le mérite ou la destination». Il est, dans ces conditions, inenvisageable de dénier la protection du droit d’auteur au logiciel au seul motif que celui-ci ne procèderait pas d’une démarche esthétique. De la même manière, alors que la loi du 13 juillet 1978 relative à l’activité inventive tend à n’accorder sa protection qu’aux seules inventions qui présentent un caractère technique[2], aucune raison ne justifie que les programmes d’ordinateur soient exclus de cette protection. Leur fonction première est de « tirer parti des ressources de la machine en vue d’un résultat déterminé »[3]. Or, quel autre nom donner à ce processus, sinon celui de l’effet technique, condition préalable à la qualification d’invention ? Partant, de par sa nature, le logiciel apparaît comme susceptible de revêtir toutes les formes de protections qu’offre le droit aux créateurs. Cela a pour conséquence directe, selon Christophe Caron, de faire « éclater les frontières traditionnelles de la propriété intellectuelle »[4]. Il a pourtant bien fallu choisir entre l’une ou l’autre des protections, l’hypothèse d’un cumul ou d’une option laissée aux programmeurs étant juridiquement inenvisageable[5].

L’exclusion du droit des brevets. Dès lors, afin de ne pas se laisser enfermer dans un choix qu’il aurait pu regretter, le législateur a jugé opportun de légiférer en procédant par exclusion plutôt que par choix. Parce que choisir immédiatement une protection aurait été précipité à une époque où les programmes d’ordinateur n’étaient encore que des sujets de laboratoire, les résidents du Palais Bourbon se sont contentés d’exclure la protection qui leur semblaient la moins appropriée. Cette exclusion s’est faite dans un contexte très animé, où était débattu le texte remplaçant la vieille loi du 5 juillet 1844 relative aux brevets d’invention. Personne n’avait, toutefois, imaginé que les logiciels soient écartés purement et simplement de son champ d’application. Malgré l’affaire Prater & Wei, pendante devant les tribunaux aux États-Unis[6], où la Court of Customs and Patent Appeals (CCPA), juridiction spécialisée dans le domaine des brevets, avait amorcé la protection des logiciels par le droit des brevets, la loi du 2 janvier 1968 les en a pourtant exclus, au motif qu’ils seraient dénués de tout caractère industriel[7]. Preuve que cette exclusion des programmes d’ordinateur de la protection des brevets est partagée, à l’époque, par de nombreux États, les parties à la Convention de Munich du 5 octobre 1973 relative à la délivrance de brevets européens ont inscrit à l’article 52 alinéa 2 c) de ce texte que « ne sont pas considérées comme des inventions […] les programmes d’ordinateur». Cette fois-ci, le défaut de caractère industriel n’est pas même évoqué dans les travaux préparatoires du traité. Il est acquis aux yeux de tous, que les logiciels ne constituent pas des inventions. Même s’il a marqué une étape déterminante dans la protection par le droit des programmes d’ordinateur, ce consensus n’a pas, pour autant, suffi à faire patienter les éditeurs de logiciels, dont l’activité économique prenait des proportions à la mesure de ce qu’allait très vite devenir l’industrie de l’informatique. C’est la raison pour laquelle, après le temps de l’exclusion des logiciels du droit des brevets, est venu le temps pour le législateur de choisir une protection juridique pour ces derniers. Afin de mettre un terme aux spéculations de la doctrine d’une part, qui n’en finissait pas de confectionner des listes à la Prévert dans l’espoir de déterminer quelle protection serait in fine adoptée[8] et, d’autre part pour garantir au plus vite la sécurité juridique qui s’effritait à mesure que les contentieux se multipliaient[9], le législateur s’est résolu à faire un choix.

Le choix, par défaut, du droit d’auteur. En réalité, ce choix s’imposait de lui-même dans la mesure où les États-Unis étaient farouchement opposés à l’idée que les logiciels soient revêtus d’une protection spécifique[10]. Par ailleurs, le droit de la propriété intellectuelle ne pouvait offrir aux programmes d’ordinateur que deux sortes de protection, le recours à l’une d’elles qu’est le droit des brevets étant d’ores et déjà exclu par la convention de Munich à laquelle était partie la France. Restait plus qu’aux députés français, le choix du droit de la propriété littéraire et artistique, lequel a solennellement été entériné par la loi du 3 juillet 1985[11]. Comme le souligne Jean-Louis. Goutal, par cette loi, la protection du logiciel par le droit d’auteur est, semble-t-il, « gravée pour toujours dans le silicium des mémoires d’ordinateurs où se trouvent maintenant nos lois»[12]. Elle est d’autant plus ancrée dans notre droit, qu’elle a été introduite dans l’ordre juridique communautaire, par le biais de la directive 91/250 du 14 mai 1991. Ce texte dispose en son article 1er que « les états membres protègent les programmes d’ordinateur par le droit d’auteur en tant qu’œuvres littéraires au sens de la convention de Berne pour la protection des œuvres littéraires et artistiques » [13]. Transposée par la loi du 10 mai 1994[14], la directive communautaire a, comme s’accordent à le dire de nombreux auteurs, le mérite de faire sortir les programmes d’ordinateurs de la « cabane au fond du jardin » dans laquelle ils avaient été rangés par la précédente loi[15]. Plus surprenant encore, et c’est là le point d’orgue de ce mouvement, après que de nombreux pays ont opté, à leur tour, pour cette solution[16], la protection des logiciels par le droit d’auteur est inscrite à l’article 10.1 de l’accord ADPIC. Tous les États membres de l’Organisation Mondiale de la Propriété Intellectuelle (OMPI) se voient, de la sorte, imposer de protéger « les programmes d’ordinateur […] en tant qu’œuvres littéraires en vertu de la convention de Berne »[17]. Dorénavant, hormis quelques différences susceptibles d’être relevées quant à leur régime juridique[18], les logiciels peuvent être considérés, dans de nombreux pays, dont la France, comme des œuvres de l’esprit à part entière, et ce même aux États-Unis où c’est le copyright, parent du droit d’auteur qui, dans presque tous les cas, s’appliquera.

[1] V. notamment J.-M. Mousseron, Traité des brevets, Paris, Litec, 1991, n°180 et s. ; J. Azéma et J.-C. Galloux, Droit de la propriété industrielle, Dalloz, coll. « précis », 2010, p. 116.

[2] Une invention sera considérée comme possédant un caractère technique si elle est susceptible de faire l’objet d’une application industrielle. Ainsi, selon l’article 7 de la loi de 1968 « est considérée comme industrielle toute invention concourant dans son objet, son application et son résultat, tant par la main de l’homme que par la machine à la production de biens ou de résultats techniques ».

[3] A. Lucas, J. Devèze et J. Frayssinet, Droit de l’informatique et de l’internet, PUF, coll. « Thémis », 2001, n°511, p. 303.

[4] Ch. Caron, « La coexistence du droit d’auteur et du droit des brevets sur un même logiciel »,  in Brevetabilité des logiciels : Droit des technologies avancées, 1-2/2002, vol. 9, p. 183.

[5] Contrairement aux autres biens intellectuels qui peuvent, à certaines conditions, faire l’objet d’un cumul de protection, les logiciels ne semblent pas pouvoir bénéficier de plusieurs régimes différents. L. 611-10, c) dispose en ce sens que « ne sont pas considérées comme des inventions au sens du premier alinéa du présent article notamment […] les programmes d’ordinateurs ». Cela n’empêche pas certains auteurs de plaider en faveur de l’abolition du principe de non-cumul. V. en ce sens A, Bertrand, Marques et brevets, dessins et modèles, Delmas, 1996, p. 6 ; Ch. Caron, art. préc., p. 203.

[6] Prater & Wei, 159 USPQ (United States Patent Quaterly) 583 (1968).

[7] L’article 7 de la loi du 2 janvier 1968 excluait, de la brevetabilité, « tous autres systèmes de caractère abstrait, et notamment les programmes ou séries d’instructions pour le déroulement des opérations d’une machine calculatrice ».

[8] Comme le remarque Jean-Louis Goutal à l’époque à propos de la protection juridique des logiciel « on n’a […] que l’embarras du choix : protection contractuelle […] ; action en responsabilité civile […] ; protection par le brevet du logiciel […] ; protection par le droit d’auteur […] ; et même protection par l’action d’enrichissement sans cause […] ; ou enfin, protection par le droit pénal […] » (J.-L. Goutal, « La protection juridique du logiciel », Dalloz, 1984, n°33, chron., pp. 197-206).

[9] Pour exemple, tandis que dans un arrêt Mobil Oil du 28 mai 1975, la chambre commerciale de la Cour de cassation refuse de valider un brevet au motif qu’il portait sur un programme destiné à de simples calculs informatiques, hors de tout appareillage ou procédé technique externe (Cass. Com., 28 mai 1975, PIBD 1975.155.III.349, suite à CA Paris, 22 mai 1973, Ann. propr. ind. 1973, p. 275, note Mathély ; PIBD 1973.107.III.197), dans un arrêt Schlumberger du 15 juin 1981, la Cour d’appel de Paris consacre la brevetabilité d’une invention dès lors que celle-ci porte sur un procédé technique dont certaines étapes sont mises en oeuvre par logiciel (CA Paris 15 juin 1981, PIBD.1981.285.III.175, Dossiers Brevets 1981.III.1, Ann. Prop. ind. 1982, p. 24).

[10] La Cour suprême est allée dans ce sens, en décidant de la non-brevetabilité des algorithmes dans une affaire Gottschalk v. Benson, (409 U.S, 1972). La Court of Customs and Pattent Appeals emprunta le même chemin en se prononçant, à de multiples reprises, contre la brevetabilité des logiciels. V. notamment, les Parker v. Flook, 198 USPQ 193 (1978) et Diamond v. Diehr, 209 USPQ 1 (1981).

[11] Loi n° 85-660 du 3 juillet 1985 relative aux droits d’auteur et aux droits des artistes-interprètes, des producteurs de phonogrammes et de vidéogrammes et des entreprises de communication audiovisuelle.

[12] J.-L. Goutal, « Logiciel : l’éternel retour », in Droit et Technique. Études à la mémoire du Pr. Linant de Bellefonds, Litec, 2007, p. 217.

[13] Directive 91/250/CEE du Conseil, du 14 mai 1991, concernant la protection juridique des programmes d’ordinateur, JOCE 17 mai 1991, L. 122.

[14] Loi no 94-361 du 10 mai 1994 portant mise en œuvre de la directive (C.E.E.) no 91-250 du Conseil des communautés européennes en date du 14 mai 1991, concernant la protection juridique des programmes d’ordinateur et modifiant le code de la propriété intellectuelle, JORF n°109 du 11 mai 1994, p. 6863.

[15] V. en ce sens J.-L. Goutal, art. préc., p. 218.

[16] On pense notamment aux États-Unis, à l’Allemagne, à la Grande Bretagne ou encore au Japon.

[17] Après d’âpres négociations c’est l’accord de Marrakech du 15 décembre 1993 qui prévoit que les programmes d’ordinateur seront protégés en tant qu’œuvres littéraires en vertu de la Convention de Berne.

[18] La singularité du régime juridique du logiciel réside dans le fait que les développeurs bénéficient de droits moraux amoindris sur leur création.

(0)

La modification des règles de fonctionnent du système d’adressage alphanumérique. Depuis l’adoption, en juin 1999, d’un compromis entre les membres de la communauté internationale relatif à l’administration du DNS, l’ICANN concentre sur elle tous les pouvoirs. Quelle est le rôle qui lui échoit ? Sa mission, autoproclamée, est de « servir la communauté internet afin de maintenir la stabilité et la sécurité des systèmes d’identifiants uniques de l’internet»[1]. La première conséquence, s’agissant de la gouvernance de l’espace de nommage, est l’exclusion des internautes d’une partie qu’ils avaient pourtant initiée. Surtout, et c’est là le point le plus marquant, l’application des règles de l’ordre numérique ne préside pas à cette gouvernance. Aussi, cela a-t-il pour effet de singulariser le système de nommage par rapport aux autres composantes du réseau. Les normes auxquelles doivent se soumettre les créateurs de noms de domaine ne sont, effectivement, plus celles générées dans le cadre du pacte numérique. Désormais, ils doivent se conformer à la seule volonté de l’ICANN, laquelle volonté se distingue de leurs propres volontés ; car l’ICANN est une institution censée « servir la communauté internet » et non la représenter. La translation de pouvoir technique sur le système d’adressage alphanumérique dont a bénéficié l’ICANN s’est également accompagnée, à son profit, d’un transfert du pouvoir normatif sur les internautes. Et si, l’ICANN aurait très bien pu réguler l’activité de création des noms de domaine, conformément aux règles de l’ordre numérique, tel n’est pas ce qu’elle a décidé de faire. Elle a, tout au contraire, choisi d’affirmer sa souveraineté sur l’espace de nommage en cherchant à modifier ses règles. Comment s’y est-elle prise ? De la plus simple des manières. Les normes de l’ordre numérique ne sont que des significations tirées de l’interprétation de l’architecture du réseau[2]. L’ICANN s’est, dès lors, contentée d’agir sur cette architecture, tel un législateur qui rectifie un texte de loi. Cela s’est traduit par la modification, par l’ICANN, des principes qui gouvernent le fonctionnement du système d’adressage. Il suffit, pour s’en convaincre, de constater que ce système a, depuis que l’ICANN s’est emparée de son administration, perdu une grande partie de son ouverture, de sa neutralité ; il tend, en outre, aujourd’hui, à voir son unité se disloquer.

Le verrouillage du système. Focalisons-nous, d’abord, sur l’ouverture du système d’adressage logique qui, si elle était totale à l’époque du fichier hosts.txt, est, dorénavant, pour le moins restreinte. Lorsque l’ICANN a été instituée comme administrateur de l’espace de nommage, cela supposait que soit démantelé, en parallèle, le monopole détenu par NSI sur le marché des noms de domaine. L’objectif était, on le rappelle, d’ouvrir l’espace de nommage, auquel on ne pouvait accéder qu’à la condition de satisfaire les exigences fixées par NSI et, notamment, l’acquittement d’un certain prix en contrepartie de l’acquisition du droit de créer un identifiant numérique. Semblablement à qui s’était passé quelques années auparavant, s’agissant de la libéralisation du marché des télécommunications, il était, autrement dit, question de libéraliser le marché des noms de domaine. Pour ce faire, l’ICANN et le DoC, se sont entendus quant à l’élaboration d’un système de partage de l’espace de nommage. Cet accord a donné lieu à l’instauration du Shared Registry System (SRS), qui répartit l’administration du DNS sur quatre niveaux distincts. Cette répartition correspond trait pour trait à l’architecture du DNS. Fort logiquement, culmine au sommet, l’ICANN, à qui il est confié la maîtrise de la racine. Puis viennent les registries, chargés de la gestion des fichiers zone et des serveurs de noms y étant associés. Encore en-dessous, les registrars ont pour mission de concéder au détail les noms de domaine dont ils ont la gestion. Enfin, au bout de la chaîne, on trouve les créateurs de noms de domaines. Cette chaîne d’intermédiaires n’est pas figée. Elle peut être composée d’autant de maillons qu’il est de niveaux créés par les différents opérateurs. Ainsi est-on en présence d’une véritable organisation hiérarchique, où chaque administrateur, à qui il a été délégué une partie de la gestion du DNS, est tout à la fois, soumis à l’autorité des opérateurs qui appartiennent aux niveaux supérieurs de l’espace de nommage et responsable de ceux situés sur les niveaux inférieurs[3]. L’ICANN peut, de cette manière, exercer son autorité de haut en bas, impulsant sa politique par le biais du Registrar Accreditation Agreement. Cela explique, en partie, pourquoi, comme le souligne Cédric Manara, désormais, les règles relatives à la gouvernance de l’espace de nommage « sont de nature contractuelle»[4], ce qui, non seulement confère à l’ICANN un pouvoir contraignant, mais encore « un pourvoir normatif qui échappe au droit international public »[5].

Les pleins pouvoirs. Élaboré en 1999, ce contrat d’accréditation, dit aussi de délégation, est une convention par laquelle l’ICANN conditionne l’administration d’un secteur de l’espace de nommage au respect d’un cahier des charges dans lequel est inséré un certain nombre de droits et obligations[6]. Par le biais de ce mécanisme, l’ICANN espère normaliser les conditions d’accès à l’espace de nommage, chaque opérateur en charge du DNS devant insérer dans ses contrats conclus avec les gestionnaires de niveau inférieur, les règlements imposés par l’autorité supérieure[7]. Plus encore, l’idée de l’ICANN est d’imprégner l’ensemble de la chaîne contractuelle, de sa politique de « libéralisation » afin de réduire les inégalités qui existent entre les internautes devant les conditions d’accès aux noms de domaine. Les choses ne sont, malheureusement pour elle, pas aussi simples que prévu. Contrairement à AT&T, NSI fait de la résistance lorsque vient le jour de son démantèlement. Peu enclin à se soumettre à l’autorité de L’ICANN, NSI refuse, dans un premier temps, de signer le contrat d’accréditation, si bien que les domaines « .com » « .net » et « .org » échappent toujours au contrôle de l’ICANN. Cela représente plus de la moitié de l’espace de nommage. Si pareille situation avait perduré, cela serait revenu à accepter que le pouvoir de l’ICANN sur le DNS soit substantiellement limité. Cela était, toutefois, inconcevable, dans la mesure où NSI était contractuellement lié avec le seul DoC, situation qui déjà était à l’origine de la création d’une autorité « neutre » de gouvernance du système d’adressage alphanumérique. C’est pourquoi, afin que l’ICANN soit dotée d’un maximum de crédibilité vis-à-vis de la communauté internationale, NSI est invité par le gouvernement des États-Unis à se plier au système d’accréditation mis en place, en échange de quoi son monopole sur le « .com » et le « .net » serait consolidé pour les années à venir. Pour Milton Mueller cette série d’accords conclus entre NSI, l’ICANN et le DoC est une « transaction fondamentale en ce qu’elle marque véritablement le commencement de la mise en œuvre du régime de l’ICANN»[8]. Est-ce à dire que cet arrangement, intégrant NSI dans l’organisation institutionnelle de l’espace de nommage a permis l’ouverture du système d’adressage ? Il est quelques raisons d’en douter.

Le retour de la rareté. En premier lieu, s’il apparaît que l’ICANN a procédé à plus d’une centaine d’accréditations de registries et à plus d’un milier de registrars, répartis entre les sept régions du monde définies par l’Organisation Mondiale du Commerce (OMC)[9], il n’en demeure pas moins, selon Olivier Iteanu, que ces délégataires se partagent « les miettes de l’empire»[10] de NSI, qui est resté à la tête du monopole sur les TLD « .com » et « .net ». D’ailleurs, après avoir été racheté par la société VeriSign en 2000, NSI a gardé le contrôle du serveur maître, qui se situe dans la hiérarchie du DNS entre la racine et les serveurs racines, ce qui lui confère un rang supérieur aux autres registries. En second lieu, si la mise en place d’un régulateur sur l’espace de nommage a été motivée par l’ouverture du marché des noms de domaine à la concurrence, son instauration n’a fait que remplacer le monopole d’exploitation détenu par NSI, par une chaîne de monopoles. Or comme l’a souligné, fort justement, l’économiste français Augustin Cournot, « la seule chose pire qu’un monopole, c’est une chaîne de monopoles ». Enfin, il est une dernière raison, la principale, susceptible de faire douter de la réelle ouverture du système d’adressage alphanumérique ; cette raison tient à la rareté des noms de domaine qui, plus elle augmente sur l’espace de nommage, plus elle tend, mécaniquement, à restreindre l’accès à celui-ci. Cette rareté est certes presque inhérente à la structure du DNS. Pour autant, elle dépend également, pour partie, de la politique menée par l’ICANN quant à la création de TLD. Bien que l’augmentation de leur nombre ne saurait à elle-seule résoudre le problème de la rareté sur un domaine en particulier, elle pourrait à tout le moins en limiter l’ampleur sur l’espace de nommage, pris dans sa globalité. Cela suppose, néanmoins, que l’ICANN accepte de créer des TLD ; elle est, on le rappelle, le maître du fichier racine. Si l’on regarde ses actes accomplis dans le passé, tel ne semble pas être sa volonté. L’ICANN n’a créé que quatorze TLD[11], alors que Jon Postel en préconisait deux-cent cinquante. Depuis peu, il semble qu’elle ait décidé de réviser sa politique. En juin 2008, l’ICANN a exprimé son intention de permettre aux internautes, à compter du 12 janvier 2012, de créer leurs propres TLD, mais à la condition de s’acquitter du prix de 185 000 dollars pour candidater, ajouter à cela le paiement de 25 000 dollars par an, une fois leur candidature retenue.

La règle du premier arrivé, premier servi. Compte tenu de la somme d’argent à débourser pour s’offrir un domaine de premier niveau, la volonté affichée par l’ICANN d’élargir l’accès des internautes à l’espace de nommage est à nuancer fortement. Pour l’heure, le système d’adressage alphanumérique est donc loin d’être aussi ouvert qu’il l’était à l’époque du fichier hosts.txt. À ce titre, il apparaît que, dans son activité de gouvernance des noms de domaine, l’ICANN a œuvré dans le sens contraire de celui que lui indiquait la norme véhiculée par le principe d’ouverture du réseau. Là n’est pas la seule norme de l’ordre numérique qui, sous l’égide de cette organisation à but non-lucratif, n’a pas été observée. Il en va de même s’agissant de la règle dont est porteur le principe de neutralité de l’internet. Eu égard à ce principe, le système d’adressage devrait, en toute logique, comme cela était le cas dans son ancienne version, être neutre quant aux choix des noms de domaine créés par les internautes, pourvu qu’ils respectent le nombre et le type de caractères alphanumériques gérés par le système. En terme normatif, cela implique que la création des noms de domaine ne devrait être régie que par la seule règle du « premier arrivé, premier servi ». Lorsqu’elle est arrivée aux commandes du DNS, l’ICANN l’avait bien compris. C’est la raison pour laquelle, s’agissant de ce que l’on appelle les Generic Top-Level Domain (gTLD), par opposition aux Country Code Top-Level Domain (ccTLD), le nouveau régulateur de l’espace de nommage a imposé aux registries et registrars, que l’enregistrement des adresses alphanumériques se fasse selon cette règle du « premier arrivé, premier servi ». La Commission européenne s’est engagée dans cette voie pour ce qui est du ccTLD « .eu ». En témoigne l’article 2 alinéa 2 du règlement du 28 avril 2004 adopté par elle, lequel dispose qu’« un nom de domaine particulier est attribué pour usage à la partie éligible qui est la première à avoir fait parvenir sa demande au registre selon les modalités techniques correctes et conformément au présent règlement. Aux fins du présent règlement, ce critère de priorité en fonction de la date et de l’heure de réception est désigné par l’expression principe du premier arrivé, premier servi »[12]. Dans le droit fil de cette disposition, l’article 15.1 de la charte édictée par l’Association Française pour le Nommage Internet en Coopération (AFNIC) chargée d’administrer le ccTLD « .fr », indique que « le traitement des actes d’administration adressés à l’AFNIC par les bureaux d’enregistrement repose sur le principe du premier arrivé -premier servi, c’est à dire qu’il est assuré par ordre chronologique de réception des dites demandes».

Le phénomène du cybersquatting. Si l’on tient compte de ces seuls textes et consignes données par l’ICANN aux registries et registrars, tout porte à croire que la création des noms de domaine est, exclusivement, régie par la règle du « premier arrivé premier servi ». Pourtant, l’application de cette règle est loin d’être aussi absolue, du moins depuis qu’est apparue une pratique qui consiste, pour certains agents du réseau, à exploiter la rareté des ressources dont est frappé l’espace de nommage. Cette pratique porte le nom le « cybersquatting». Historiquement, un squatter était « un pionnier qui s’installait sans titre de propriété et sans payer de redevance sur les terres encore inexploitées de l’ouest »[13]. Cette définition illustre parfaitement la pratique du cybersquatting qui s’assimile en la réservation d’un nom de domaine en violation de droits antérieurs qui protègent un signe distinctif, tel une marque, un nom commercial, une enseigne ou encore une dénomination sociale. Profitant de la règle du premier arrivé premier servi, nombreux sont les internautes qui ont pu enregistrer un nom de domaine, tout en occupant illégalement l’espace de nommage. Cependant, deux catégories de cybersquatting doivent être distinguées. Alors que l’atteinte portée à certains signes distinctifs est le fruit d’une démarche frauduleuse, l’atteinte portée à d’autres est involontaire. L’une et l’autre démarche sont donc d’inégale gravité. Pour autant, comme le souligne un auteur, « la pratique démontre que c’est souvent l’existence de droits antérieurs qui pousse précisément certains individus sans scrupules à enregistrer un tel nom sur lequel il n’ont aucun droit »[14]. Dans la grande majorité des cas, le cybersquatter n’entend pas utiliser le nom de domaine qu’il a enregistré. Son intention est toute autre. Il a seulement pour ambition de faire obstacle à la réalisation des droits relatifs à un signe distinctif par leur titulaire, afin de revendre le nom de domaine correspondant, moyennant un prix supérieur à celui des frais d’enregistrement. Le prix de revente peut parfois atteindre des sommets. En témoigne la transaction ayant porté sur le nom de domaine wallstreet.com, enregistré en 1994, pour 70 dollars, et revendu cinq ans plus tard pour un million de dollars.

La réaction des États. Certaines personnes ont trouvé dans cette pratique une activité extrêmement lucrative, au point de procéder à des dépôts massifs de noms de domaine. Certains sites web se sont même spécialisés dans ce créneau, proposant aux internautes des noms tels que « LaRedoute.com », « Lorealparis.com » ou encore « Lorealshampoo.com ». Cela n’est pas tout, peu à peu s’est développée sur l’espace de nommage une variante au cybersquatting appelée « typosquatting». Cette variante consiste en l’enregistrement d’un nom de domaine proche typographiquement d’un autre nom de domaine. Le typosquatter espère, dans cette perspective, détourner le trafic du site officiel, afin de générer d’importantes recettes publicitaires sur son propre site. Le célèbre site « yahoo.com », par exemple, a été l’une des premières victimes de cette nouvelle pratique. Un individu, dont la malveillance ne fait aucun doute, a enregistré trente-sept noms de domaine se rapprochant du sien, tels que « ayahoo.com », « cayahoo.com » ou encore « kyahoo.com ». Prenant conscience de l’ampleur du phénomène engendré par le cybersquatting et ses variantes, le gouvernement américain s’est décidé, en août 1999, à endiguer ces pratiques en adoptant le Anti-Cybersquatting Consumer Protection Act. Ce texte offre la possibilité à tout ayant droit, victime d’un cybersquatage, d’exiger jusqu’à 100 000 dollars de dommages et intérêt en réparation d’un enregistrement abusif. En France, à défaut de disposer d’une telle législation[15], les juges n’ont pas hésité à qualifier le cybersquatting de « racket »[16] et de chercher à l’appréhender soit par l’entremise du droit des marques[17], soit en recourant au concept de concurrence déloyale[18]. Mais peu importe, pour ce qui nous concerne, la réponse apportée par les instances des différents États à ce phénomène qu’est le cybersquatting. Le fait est que chaque fois qu’une juridiction nationale constate l’atteinte portée à un signe distinctif qui bénéficie de quelque protection juridique que ce soit, l’application de la règle du « premier arrivé, premier servi » s’en trouve systématiquement écartée. Doit-on s’en réjouir ? Doit-on le déplorer ? Là n’est pas le sujet.

L’adoption par l’ICANN de la procédure UDRP. Ce sur quoi il faut, en revanche, focaliser toute notre attention c’est sur le fait que lorsque pareille décision est prononcée, elle ne saurait, techniquement, être mise en œuvre sans que l’ICANN y consente. Si, elle s’y opposait, il lui suffirait d’enjoindre le registrar concerné de ne pas procéder au transfert du nom de domaine, objet de la décision. Sauf que, tel ne sera jamais le cas ; et pour cause. Comment l’ICANN pourrait-elle oublier qu’elle doit son statut, ses pouvoirs, son existence à un compromis auquel sont parvenus les membres de la communauté internationale ? Jamais l’ICANN ne s’avisera, par conséquent, de faire obstacle à l’application du droit des États. D’ailleurs, plus que consentir à ce que le droit prévale sur la règle du « premier arrivé, premier servi » et donc sur l’ordre numérique, l’ICANN va, d’une certaine manière, lui donner la portée qu’il ne peut avoir à lui-seul sur l’espace de nommage en s’en faisant le relais. Comment l’ICANN s’y prend-t-elle ? En offrant la possibilité à quiconque conteste l’enregistrement d’un nom de domaine par un tiers, d’actionner un mécanisme de résolution des conflits, connu sous le nom d’Uniform Domain Name Dispute Resolution Policy (UDRP). Ce mécanisme a l’avantage de permettre à celui qui y recourt, de surmonter les difficultés, tant juridiques, que pratiques, liées à l’élément d’extranéité que comporte très certainement le litige qui l’oppose au titulaire du nom de domaine dont il revendique l’usage. Dès lors que la décision dont bénéficierait le requérant doit être exécutée dans un autre État que celui de la juridiction saisie, il ne pourra faire valoir ses droits que par le biais d’un exaquatur. Or cette entreprise se révèle peu aisée. D’où l’intérêt de s’engager dans la voie de la procédure UDRP laquelle – et c’est là son principal intérêt – se traduira, si elle aboutit, par le prononcé d’une décision immédiatement exécutoire[19] et aussitôt appliquée par le registrar qui a enregistré le nom de domaine litigieux. La procédure UDRP apparaît, de la sorte, comme ayant vocation à satisfaire des demandes auxquelles les États sont susceptibles d’éprouver les pires difficultés pour y répondre. Cette procédure apparaît alors, si l’on peut dire, comme une véritable bénédiction pour les titulaires de signes distinctifs, sans compter que son élaboration s’est faite moins à la lumière de la règle du « premier arrivé, premier servi », que du droit des marques.

La reconstitution d’un droit des marques. D’une part, la procédure UDRP est en grande partie le fruit du travail de l’Organisation Mondiale de la Propriété Intellectuelle (OMPI). Or la mission de celle-ci est de promouvoir la protection de la propriété intellectuelle dans le monde et d’assurer l’administration des différents instruments internationaux tels que l’arrangement de Madrid signé en 1881 relatif à l’enregistrement international des marques, l’arrangement du Nice du 15 juin 1957 instituant la classification internationale des marques ou encore le traité sur le droit des marques conclu à Genève le 27 octobre 1994. D’autre part, si l’on s’intéresse aux principes directeurs qui gouvernent cette procédure, leur proximité avec le droit des marques est pour le moins troublante. L’article 4 a) du document approuvé par l’ICANN le 24 octobre 1999 et appliqué à compter du 1er décembre de la même année, énonce, qu’il ne pourra être fait droit à la demande des requérants que s’il est prouvé cumulativement que, tout d’abord, « le nom de domaine est identique ou semblable au point de prêter à confusion avec une marque de produits ou de services sur laquelle le requérant a des droits », ensuite que, « le déposant n’a aucun droit ni aucun intérêt légitime à l’égard du nom de domaine», enfin que « le nom de domaine a été enregistré ou utilisé de mauvaise foi ». Les termes utilisés ici sont, de toute évidence, très proches de ceux employés dans les conventions internationales protégées par l’OMPI : « identique », « semblable », « confusion », « déposant ». Autant de notions qui ne sont pas sans rappeler le droit des marques. Comme le souligne, à ce propos, Fabien Gélinas « nous retrouvons […] un système qui, par le biais d’un mécanisme prétorien sommaire, tend à harmoniser – par l’aplanissement et l’approximation – les notions aussi éparses que complexes entourant le droit des marques dans les droits nationaux »[20]. D’autres auteurs n’hésitent pas à affirmer, que certes « il ne s’agit pas de droit des marques mais la relation est permanente avec ce droit »[21]. Bien que les principes directeurs de la procédure UDRP aient leur logique propre, l’ICANN n’en a pas moins tenté de reconstituer, à travers eux, une protection qui bénéficie aux titulaires de signes distinctifs, ce, dans le dessein de palier la protection que ne peuvent pas leur assurer les États sur l’espace de nommage.

Une extension du droit des marques. Si ces derniers ont toutes les raisons de se réjouir de cette déférence que porte l’ICANN à leur égard, les internautes ont, quant à eux, autant de raisons de s’en indigner. En prenant l’initiative de transposer le droit des marques dans l’univers numérique, l’administrateur du DNS s’est, en effet, délibérément autorisé à rompre avec le principe de neutralité du système d’adressage alphanumérique, dans la mesure où il a octroyé aux titulaires de signes distinctifs une sorte de droit de préemption sur les noms de domaine. En apparence, ce droit de préemption semble être totalement justifié, compte tenu de l’intention malveillante dont peuvent être animés certains agents. Toutefois, si l’on se place du point de vue du plus grand nombre, « ce droit » est loin d’être aussi légitime qu’il y paraît. Tout d’abord, il pourrait être objecté à son encontre que son exercice est de nature à faire fi de la négligence dont se rend, d’une certaine façon, coupable le titulaire de marque qui n’a pas procédé, promptement, et avec diligence, aux formalités d’enregistrement du nom de domaine litigieux. Ensuite, pourquoi ne pas exiger de celui qui revendique un nom de domaine, qu’il remplisse exactement les mêmes conditions que la personne physique ou morale qui se verra reconnaître des droits sur une marque, à savoir qu’il satisfasse à l’exigence d’enregistrement[22]? En ne faisant pas de cet enregistrement du nom de domaine une condition de son attribution, l’ICANN étend, en conséquence, la protection du droit des marques au-delà de ce qu’elle est dans le monde physique puisque, abstraction faite des marques notoires[23], une marque non enregistrée est un signe distinctif sur lequel on ne saurait, a priori, exercer aucun droit. Tel n’est, cependant, pas le cas pour les noms de domaine dont les titulaires de marques peuvent demander l’attribution sans, pour autant, les avoir enregistrés les premiers. Enfin, et c’est sur ce point en particulier que le droit de préemption qui bénéficie à quelques-uns se révèle être le plus contestable et contesté – même en dehors de l’hypothèse du cybersquatting – l’application des principes directeurs de la procédure UDRP conduit à traiter les titulaires de signes distinctifs de façon privilégiée par rapport aux autres internautes.

La fin de la règle du premier arrivé, premier servi. Prenons, à tire d’illustration, l’exemple cité par Milton Mueller du nom « Ford »[24]. Dans le monde physique, ce nom peut, de droit, être porté, tant par un constructeur de voitures, que par un particulier, un acteur célèbre ou encore un garage automobile. Dans l’univers numérique, s’il est vrai que le système DNS compte, à l’heure actuelle, près de trois cents TLD, il en est en réalité à peine une demi-douzaine à être pris d’assaut par les internautes. Il s’ensuit que tous ceux qui, pour des raisons tout aussi valables les unes que les autres, voudront utiliser le nom Ford comme identifiant sur l’espace de nommage ne le pourront pas. Uniquement l’un d’entre eux se verra reconnaître le droit d’occuper le si convoité « .com ». De la même manière, les domaines nationaux de premier niveau – les fameux ccTLD – ne peuvent offrir qu’à un seul agent la possibilité d’exploiter le nom qu’ils sont pourtant une multitude à porter. Dans ces conditions, comment les départager ? Il n’est, semble-t-il, aucun de ceux qui portent le nom Ford qui soit plus légitime que les autres à occuper le nom de domaine « ford.com », « ford.net » ou bien encore « ford.fr ». C’est la raison pour laquelle, la seule règle qui préside à l’attribution du nom de domaine convoité par plusieurs agents devrait être la règle du « premier arrivé, premier servi », soit celle dont est porteur le principe de neutralité, principe par lequel était jadis gouverné le système d’adressage. alphanumérique Avec l’instauration de la procédure UDRP, il n’en n’est rien. La règle qui a vocation à s’appliquer n’est autre que celle tirée du droit des marques. Au terme de la procédure instituée par l’ICANN, c’est donc le titulaire de la marque Ford qui sera désigné comme le seul bénéficiaire du nom de domaine afférent à ce nom. En témoigne l’étude réalisée par Milton Mueller qui relève que, très majoritairement, ce sont les titulaires de signes distinctifs qui gagnent contre les détenteurs de noms de domaine dans le cadre de la procédure UDRP[25]. Cela n’est, en aucune manière, surprenant dans la mesure où cette procédure consiste à faire une application quasi-mécanique du droit des marques sur l’espace de nommage.

Le risque de fragmentation de l’espace de nommage. Ainsi, l’ICANN a-t-elle décidé, de son propre chef, que la règle du « premier arrivé, premier servi », devait être écartée toutes les fois que le titulaire d’une marque revendiquerait un nom de domaine litigieux. Voici une mesure qui est de nature à mettre fortement à mal la neutralité du système de nommage ; d’où l’existence d’une certaine inégalité entre les internautes. La procédure UDRP conduit inéluctablement à conférer plus de droits aux titulaires de marques qu’à ceux qui n’ont procédé à l’enregistrement d’aucun signe distinctif. Il faut ajouter, en outre, que sur certains domaines de premier niveau, l’ICANN a institué un dispositif accordant la priorité à l’enregistrement pour les titulaires de signes distinctifs, ce qui n’est pas sans créer une rupture d’égalité entre les agents[26]. En menant pareille politique de gouvernance sur l’espace de nommage, l’ICANN s’est, indubitablement, éloignée de la ligne sur laquelle se trouvaient les membres de la communauté numérique à l’époque du fichier hosts.txt. Et s’il en est certains pour se féliciter de cette nouvelle orientation que prend la gouvernance des noms de domaine, il ne saurait être occulté par eux qu’il est un risque que cette orientation porte directement atteinte à un autre principe qui gouverne le système d’adressage alphanumérique : le principe d’unité. En réaction à l’accaparement auquel s’adonnent les titulaires de marques sur l’espace de nommage en violation de la règle du « premier arrivé, premier servi », soit ce que l’on appelle plus couramment le Reverse Domain Name Hijacking[27], des internautes pourraient, en effet, être tentés de recréer leur propre système d’adressage logique[28]. On verrait alors la racine du DNS être dupliquée. Sans qu’il soit besoin d’entrer dans les détails techniques, concrètement, si un tel projet était mené à bien, cela conduirait à empêcher les internautes qui appartiennent à deux espaces de nommage différents de communiquer entre eux. L’espace de nommage actuel s’en trouverait fragmenté, ce qui reviendrait à faire passer l’internet de l’état de réseau de réseaux à celui de réseau parmi les réseaux. Ce serait là un retour à l’époque où gravitaient, autour du réseau NSFNet, une multitude de réseaux sans qu’ils y soient, pour autant, raccordés. Évidemment, la réalisation de pareil scénario relève de la pure spéculation. Il n’en demeure pas moins qu’il est, aujourd’hui, un pays, la Chine, où réside pas moins d’un quart du nombre total d’internautes. Or cette nation s’est dotée de son propre système DNS avec toutes les conséquences que cela implique. La fragmentation de l’espace de nommage est de la sorte déjà entamée.

La convoitise par les États des ccTLD. Au total, il apparaît que depuis l’intronisation de l’ICANN, en 1998, comme administrateur du système DNS, les principes qui, naguère, gouvernaient son fonctionnement ont, pour la plupart, été remaniés, de sorte que les règles de l’ordre numérique ne semblent plus pouvoir s’appliquer aux créateurs de noms de domaine. Comme le fait remarquer, en ce sens, Cédric Manara, il est un certain nombre de normes techniques que ne respectent pas l’ICANN, ce qui témoigne du pouvoir discrétionnaire qu’elle exerce sur le système d’adressage[29]. Désormais, c’est l’ICANN qui, seule, dicte ses propres règles, imprégnées de plus en plus du droit des États. Cette immixtion des ordres juridiques dans la gouvernance de l’espace de nommage a d’abord démarré avec la création de l’ICANN. Surtout, elle s’est grandement amplifiée ensuite à partir du moment où les ccTLD ont été revendiqués. Mais, à ne pas se tromper, lorsque, au départ, ils ont été mis au point il ne s’agissait aucunement de créer une zone sur l’espace de nommage sur laquelle les États pourraient exercer leur souveraineté. Lorsque Jon Postel a décidé de se référer à la norme ISO 3166-1 établie par l’Organisation Internationale de Normalisation (ISO), qui édicte des codes-pays à deux chiffres tels que le « .fr » pour la France, le « .jp » pour le Japon, le « .ca » pour le Canada ou encore le « .uk » pour le Royaume-Uni, c’était uniquement par souci de commodité technique. Les ccTLD ont été conçus en vue de n’être que de simples identifiants de localisation. C’est pourquoi, dans un premier temps, comme le souligne Milton Mueller, la gestion de ces derniers a été confiée à des personnalités du monde universitaire des différents pays sur la base du contact personnel et du volontariat. Pour autant, cela n’a pas empêché les États de se les approprier, prétextant, comme l’a affirmé Elisabeth Porteneuve, membre du registry en charge du « .fr » que les ccTLD « sont attachés à la réputation du pays ». Tel est le mouvement qui s’est dessiné au fil des années. On peut se risquer à qualifier ce mouvement de nationalisation de l’espace de nommage[30]. À la suite d’un choix malencontreux de nomenclature, de vives tensions politiques sont nées entre d’une part, les pères fondateurs du DNS pour qui les ccTLD n’ont pas vocation à représenter les Etats et, d’autre part, les gouvernements nationaux pour qui ces domaines de premier niveau doivent être reconnus comme une sorte de prolongement de leur territoire ; d’où, il s’ensuit qu’ils seraient fondés à exercer sur eux leur souveraineté.

La nationalisation des ccTLD. Force est de constater que la détermination des États s’est révélée être à la mesure de l’importance des intérêts qu’ils entendaient défendre. La preuve en est, la création par eux du GAC (Governmental Advisory Committee), comité consultatif de l’ICANN composé des différents gouvernements nationaux. Sitôt constituée, cette structure internationale a fait part de son ambition de participer à la gouvernance de l’espace de nommage. Plus qu’un comité consultatif, le GAC est une émanation de la souveraineté des Etats qui, par son biais, ont voulu asseoir leur autorité sur les ccTLD[31] et de plus en plus sur les gTLD[32]. Il est ressorti de l’une des réunions organisées dans le cadre du GAC que chaque fichier-zone attaché à un pays devait être regardé comme « une ressource publique» dont la gestion relève du seul ressort des gouvernements. Cela justifierait, selon eux, leur intégration dans le processus décisionnel de l’ICANN les concernant. Pour Hans Klein « même si les domaines des gouvernements nationaux représentent un niveau inférieur à l’ICANN dans la hiérarchie du DNS, l’ICANN n’est pas en situation de revendiquer sur eux une quelconque autorité », d’où le mouvement de nationalisation qui s’est enclenché sur l’espace de nommage. Ce mouvement est d’autant plus fort qu’un peu à la manière des opérateurs historiques qui ont monopolisé l’exploitation des infrastructures physiques des réseaux de télécommunications, l’administration des ccTLD a, dans la plupart des Etats, été confiée à des organismes à but non lucratif, organismes dont l’indépendance vis-à-vis d’eux est loin d’être assurée. En France, la gestion du domaine « .fr » a été remise, après maints rebondissements[33], entre les mains de l’Association française pour le nommage internet en coopération (AFNIC)[34]. Cette structure a pris la succession de l’Institut National de Recherche en Informatique et en Automatique (INRIA) depuis le 1er janvier 1998[35]. Il n’est un secret pour personne que l’AFNIC entretient des rapports pour le moins étroits avec l’État français. Il suffit pour s’en convaincre d’examiner la composition de son conseil d’administration, dont les membres sont pour moitié directement ou indirectement liés au pouvoir exécutif[36]. Tous ces éléments conduisent à renforcer l’idée que les États exercent de plus en plus de poids sur la gouvernance du DNS, ce qui, corrélativement, a pour effet d’affaiblir l’ordre numérique. Ce mouvement ne s’observe pas seulement sur l’espace de nommage, il tend également à se répandre en bordure du réseau.

[1] Plan stratégique de l’ICANN. Disponible sur : www.icann.org/strategic…/draft_stratplan_
2007_2010_clean
_v3_fr.pdf‎.

[2] V. supra, n°163.

[3] Ce système de délégation en chaîne, mis en place par l’ICANN de concert avec le DoC, est très largement inspiré de la RFC 1591 intitulée « Domain Name System Structure and Delegation ».

[4] C. Manara, op. cit. note 65, p. 16.

[5] Ibid., p. 36.

[6] Les registries doivent notamment intégrer dans leur contrat avec les registrars, les règles relatives à la procédure UDRP, procédure de règlement extrajudiciaire des litiges portant sur un nom de domaine. Nous y reviendrons.

[7] Il s’agit là, comme le fait remarquer Cédric Manara, d’un contrat extrêmement « précaire », dans la mesure où il peut être mis fin à celui-ci discrétionnairement par l’ICANN (C. Manara, op. cit. note 65, p. 68).

[8] M. Mueller, op. cit. note 56, p. 195.

[9] Les sept régions du monde définies par l’OMC sont l’Amérique du nord, l’Amérique latine, l’Europe occidentale, l’Europe orientale et centrale, l’Afrique dont l’Afrique du nord, le Moyen-Orient et l’Asie dont l’Asie de l’Ouest. Disponible sur http://www.wto.org/french/
res_f/statis_f/technotes_f.htm
.

[10] M. Mueller, op. cit. note 56, p. 153.

[11] En 2000 on assiste au premier mouvement de création de nouveaux domaines de premier niveau. Cette mesure a été prise le 16 juillet 2000, dans le cadre d’une résolution adoptée par l’ICANN.

[12] Règlement (CE) No 874/2004 de la Commission du 28 avril 2004 établissant les règles de politique d’intérêt général relatives à la mise en œuvre et aux fonctions du domaine de premier niveau .eu et les principes applicables en matière d’enregistrement, JO 30 avril 2004, L. 162, pp. 40-50.

[13] Dictionnaire du Centre Nationale de Ressources Textuelles et Lexicales. Disponible sur : http://www.cnrtl.fr/lexicographie/squatter.

[14] L. Rapp, « Des pratiques ouvertement frauduleuses : le cybersquattage » in Droit de l’informatique et des réseaux, Lamy, 2013, n°2055.

[15] Exception faite, désormais, du domaine de premier niveau « .fr ». L’article L. 45-2 du Code des postes et communications électroniques dispose que l’enregistrement d’un nom de domaine sur cette zone de l’espace de nommage peut être refusé lorsqu’« il est susceptible de porter atteinte à des droits de propriété intellectuelle ou de la personnalité sauf si le demandeur justifie d’un intérêt légitime et agit de bonne foi ».

[16] TGI Paris, 25 avril 1997, aff. « Framatome », JCP éd. E 1999, I, p. 954, obs. Vivant et Le Stanc.

[17] Ord. 22 juillet 1996 aff. Sapeso-Atlantel contre Icare, gaz. pal. 13-15 avril 1997.

[18] Cass. com., 7 juil. 2004; Bull. civ. 2004, IV, n° 149; CCE, 2004, comm. 111, obs. C. Caron ; Dalloz. 2004, p. 2151, obs. C. Manara.

[19] La décision prise, à l’issue de la procédure UDRP, peut-elle être qualifiée, d’arbitrale ? La question a pu se poser, dans la mesure où il s’agit d’un mode de règlement extrajudiciaire des litiges. Cela lui confère-t-il pour autant automatiquement pareille qualité ? Naturellement non. La Cour d’appel de Paris a, d’ailleurs, eu l’occasion de se prononcer sur cette question dans un arrêt du 17 juin 2004 (CA Paris, 1re ch., 17 juin 2004 : CCE, mars 2005, p. 31, obs. C. Caron ; Rev. Lamy dr. aff. déc. 2004, n° 77 ; JCP G, 2004, II, 10156, note Chabot). Cette décision ne laisse, manifestement pas de place à l’ambiguïté. Les juges parisiens estiment que la procédure de règlement des litiges proposée par l’ICANN ne saurait s’apparenter à un arbitrage.

[20] F. Gélinas, « UDRP: Utopie de la Décision Rapide et Pondérée ou Univers du Droit Réduit au

Pragmatisme? », in V. Gautrais (dir.), Droit du commerce électronique, Montréal, Thémis, 2002, p. 602.

[21] L. Rapp, art. préc., n°2109.

[22] Article L. 712-1 du Code de la propriété intellectuelle.

[23] V. en ce sens l’article L. 711-4, a) du Code de la propriété intellectuelle qui confère aux marques notoires une protection juridique au-delà du principe de spécialité.

[24] M. Mueller, op. cit. note 56, p. 234.

[25] M. Mueller, « Rough Justice, An Analysis of ICANN’s Uniform Dispute Resolution Policy », The informing society, forthcoming 2001. Disponible sur: dcc.syr.edu/PDF/roughjustice.pdf‎.

[26] Pour une critique de ce statut privilégié accordé aux titulaires de signes distinctifs v. C. Manara, op. cit. note 65, pp. 99 et s.

[27] V. en ce sens, pour une analyse de ce phénomène qui se développe et de ses conséquences juridiques, N. Dreyfus, « Appréciation de la notion de reverse domain name hijacking », Propriété industrielle, oct. 2011, n°10, p. 3 ; R. Milchior, « Marques et noms de domaine: de quelques problèmes actuels », Revue Lamy droit de l’immatériel, août 2001, n°139, pp. 2-13.

[28] De nombreuses tentatives ont été effectuées en ce sens. À ce jour, elles ont cependant toutes échoué. Peut être évoquée la création des racines alternatives que sont Name.Space, OpenNIC ou encore Unifiedroot.

[29] C. Manara, op. cit. note 65, p. 46.

[30] En France cela s’est traduit par l’adoption d’un article L. 45-2 dans le Code des postes et communications électroniques, lequel dispose que « dans le respect des principes rappelés à l’article L. 45-1, l’enregistrement ou le renouvellement des noms de domaine peut être refusé ou le nom de domaine supprimé lorsque le nom de domaine est : […] 3° Identique ou apparenté à celui de la République française, d’une collectivité territoriale ou d’un groupement de collectivités territoriales ou d’une institution ou service public national ou local, sauf si le demandeur justifie d’un intérêt légitime et agit de bonne foi ».

[31] Comme le souligne Cédric Manara, on ne saurait cependant se méprendre sur les pouvoirs dont est investi le GAC. Selon cet auteur « le fait qu’un tel organisme ait un rôle purement consultatif est de nature à démontrer que le pouvoir en matière de nommage est propre à la seule ICANN » (C. Manara, op. cit. note 65, p. 34).

[32] On peut évoquer la contestation des États lorsqu’a été envisagée la création d’un « .amazon » en raison de la région du monde que constitue l’amazonie ou encore d’un « .islam » et d’un « .church » pour les tensions que ces extensions sont susceptibles de susciter. Force est de constater que la mobilisation des États a été courronnée de succès, ce qui témoigne de leur influence croissante sur la gouvernance de l’espace de nommage en général.

[33] L’AFNIC s’est d’abord vue désignée comme organisme chargé d’administrer le « .fr » par le décret du 8 février 2007 pris conformément à loi du 9 juillet 2004 qui a introduit dans le Code des postes et communications électroniques l’article L. 45-I, lequel disposait que « le ministre chargé des communications électroniques désigne, après consultation publique, les organismes chargés d’attribuer et de gérer les noms de domaine, au sein des domaines de premier niveau du système d’adressage par domaines de l’internet, correspondant au territoire national […] ». Il faut, en effet, parler de cette disposition légale au passé, depuis que le Conseil constitutionnel a été saisi, par le Conseil d’État, dans le cadre d’une question prioritaire de constitutionnalité. Aussi, les juges de la rue Montpensier donnent-ils raison à l’auteur de la requête formulée auprès du Conseil d’État, estimant que les termes de l’article L. 45 seraient trop imprécis et ne donneraient pas suffisamment de garanties aux titulaires de noms de domaine. Cette disposition est alors censurée par le Conseil, ce qui a pour conséquence immédiate de priver la désignation de l’AFNIC de tout fondement juridique. Le législateur est, en conséquence, sommé par le Conseil constitutionnel d’adopter une nouvelle loi, ce qu’il fera le 22 mars 2011. Au titre de cette loi, un arrêté sera édicté, le 28 juin 2012, arrêté qui, une fois encore, désigne l’AFNIC comme gestionnaire du « .fr ».

[34] Arrêté du 25 juin 2012 désignant l’office d’enregistrement chargé d’attribuer et de gérer les noms de domaine au sein des domaines de premier niveau du système d’adressage par domaines de l’internet correspondant au « .fr », JORF n°0149 du 28 juin 2012 p. 10578.

[35] La désignation de l’INRIA reposait sur le décret n°85-831 du 2 août 1985 portant organisation et fonctionnement de l’institut national de recherche en informatique et en automatique.

[36] Le conseil d’administration de l’AFNIC est composé de : cinq représentants désignés par les membres fondateurs, deux pour l’INRIA (Institut National de Recherche en Informatique et en Automatique), et un pour les ministères en charge respectivement des télécommunications, de l’industrie et de la recherche, cinq représentants élus par et parmi les membres suivants : deux pour le comité de concertation « prestataires » /bureaux d’enregistrement, deux pour le comité de concertation « utilisateurs », un pour le Collège international (membres correspondants).

(0)

Système d’adressage et sémantique. Il est une idée très répandue selon laquelle l’internet pourrait se résumer en un système de communication, régi par le protocole TCP/IP. Tel n’est, cependant, pas la réalité. En vérité, l’internet consiste en la réunion de deux systèmes, l’un certes de communication et l’autre, bien moins connu, qu’est le système d’adressage. Pour que deux ordinateurs puissent communiquer, encore faut-il que leur soit affectée une adresse afin que, mutuellement, ils soient en mesure de se reconnaître. Aussi, est-ce là, la fonction du système d’adressage, que de permettre aux ordinateurs, une fois connectés à l’internet, de se trouver sur le réseau de sorte que, par la suite, puisse s’instaurer entre eux la communication. Comment fonctionne le système d’adressage ? Au préalable, il n’est pas inutile de préciser que ses architectes l’ont construit de telle façon que son maniement ne suppose pas la maîtrise du langage informatique. Si, tel avait été le cas, l’utilisation des adresses IP requérant des compétences spécifiques, non connues du commun des mortels, seules les personnes sensibilisées aux technologies de l’information auraient été capables de naviguer et de communiquer dans l’univers numérique. Ajoutée à cela, l’ampleur prise par le réseau ARPANET, qui a vu ses ramifications se multiplier de jour en jour, la question de la classification des adresses IP se serait inévitablement posée. C’est la raison pour laquelle, les bâtisseurs du système d’adressage ont choisi de travailler à l’élaboration d’un système qui réponde à une logique sémantique. Selon Milton Mueller, deux raisons ont présidé à l’adoption de ce choix : l’une est mnémonique, l’autre pratique. S’agissant de la première, elle se justifie aisément par le fait que « tant qu’il y aura une interface directe entre les êtres humains et les machines connectées au réseau, on donnera aux machines un nom que les humains peuvent reconnaître»[1]. Quant à la seconde raison, elle découle de la première, puisqu’il s’agit « de fournir un seul identifiant plus stable»[2] aux ordinateurs.

Le fichier hosts.txt. En pratique, l’attribution d’une adresse IP à une machine, quelle qu’elle soit, n’est pas définitive. Elle varie au gré des connections à l’internet de l’ordinateur auquel elle est associée. Un système de nommage qui donc reposerait sur la seule adresse IP mettrait en péril la connectivité du réseau, car elle dépendrait de la capacité des utilisateurs, des serveurs et des tables de routage à se mettre à jour. Or compte tenu de l’instabilité des adresses IP, la viabilité d’un tel système serait quasi nulle. En intégrant, en revanche, au système d’adressage de l’internet un système de nommage qui repose sur une logique sémantique, peu importe que l’adresse IP de la machine connectée au réseau fluctue ; le nom de l’ordinateur alphanumérique reste, quant à lui, inchangé. Ainsi, le système d’adressage du réseau a-t-il été construit autour du principe selon lequel à chaque adresse IP d’un ordinateur, correspond un nom pourvu d’une dimension sémantique. Pour autant, les paquets IP ne répondant qu’à la seule forme IP des adresses numériques, restait à élaborer un système capable de résoudre les conflits entre adresses IP et noms alphanumériques. Pour ce faire, dès les années 1970, avant même que Vint Cerf et Bob Kahn publient leur article relatif au protocole TCP/IP, les fondateurs du réseau créent un fichier appelé « txt»[3]. Celui-ci contient toutes les informations dont a besoin un ordinateur du réseau ARPANET pour identifier les autres ordinateurs (hosts) qui y sont connectés. Il s’agit, en un mot, d’une simple liste de correspondance entre les adresses IP des ordinateurs connectés au réseau et le nom alphanumérique qui leur est attribué. Ce fichier hosts.txt peut, en quelque sorte, être assimilé à un annuaire téléphonique. Plus encore, il constitue la pierre de rosette du système d’adressage, en ce qu’il est la clé dont a besoin tout ordinateur pour traduire le langage sémantique en langage numérique. L’utilisateur qui désire accéder à une ressource partagée par un autre utilisateur, doit nécessairement enjoindre son ordinateur de consulter la liste de correspondance contenue dans le fichier, afin que l’adresse tapée dans le navigateur soit convertie en adresse IP, compréhensible par les routeurs.

Un système d’adressage alphanumérique intelligible, neutre, et ouvert. Aussi anecdotique que puisse apparaître l’existence de cette liste, elle constitue, aux côtés du protocole TCP/IP, le second pilier de l’édifice numérique puisque déterminant ce que l’on appelle « l’espace de nommage». Certains auteurs n’hésitent pas à affirmer, en ce sens, que « l’espace de nommage est internet »[4]. Les ordinateurs connectés au réseau doivent y être rattachés, sans quoi ils ne sauraient être trouvés par les autres machines. Cela équivaudrait à ne pas exister dans le cyberespace. Manifestement, il s’avère que les bâtisseurs du système initial d’adressage se sont pleinement conformés aux normes dont sont porteurs les principes d’ouverture, de neutralité ou encore d’intelligibilité qui gouvernent le fonctionnement général du réseau. Cela s’est, tout d’abord, traduit par la publication de nombreuses RFC sur le système d’adressage alphanumérique[5], faisant de lui un système intelligible[6]. Celui-ci peut, ensuite, être considéré comme neutre, dans la mesure où il a été conçu de façon à ce qu’aucune différence de traitement ne soit opérée dans son fonctionnement entre les noms d’adresses numériques choisis par les internautes, la seule exigence étant que les caractères alphanumériques qui composent les noms en question, fassent partie de ceux gérés par le système[7]. Le système d’adressage logique se révèle, enfin, comme ayant été façonné de telle manière qu’il soit ouvert. Non seulement le fichier hosts.txt est rendu accessible à tous, mais encore, il suffit à ceux qui désirent créer une adresse alphanumérique de demander au Network Information Center (NIC) du Stanford Research Institute (SRI) d’ajouter une ligne à ce fichier, sans qu’il soit besoin de remplir de conditions particulières. Parce qu’il est techniquement impossible au système d’adressage d’attribuer à deux machines différentes un nom alphanumérique identique, la seule règle à respecter pour procéder à la création d’une adresse alphanumérique n’est autre que celle du « premier arrivé, premier servi ». En d’autres termes, seul le premier à inscrire le nom de l’adresse de sa machine sur le fichier hosts.txt gagne le droit de l’utiliser. Bien que le NIC se soit vu confier la charge d’administrer le fichier hosts.txt, la gouvernance de l’espace de nommage demeure l’affaire de tous. Elle repose entièrement sur l’observation, par les arpanautes, de la règle du premier arrivé premier servi. En somme, il s’est établi une sorte d’autogestion améliorée du système, le NIC n’étant que le simple dépositaire du fichier hosts.txt. Cette situation n’est, cependant, que de courte durée. La gouvernance de l’espace de nommage, qui n’était que technique, se retrouve, en très peu de temps, au centre d’enjeux d’ordre politique et économique.

Endiguer la rareté. Pour comprendre comment un si petit fichier a pu devenir l’objet de toutes les convoitises, revenons un instant sur les débuts de l’internet. À cette époque, le travail de maintenance de l’espace de nommage est confié au NIC. Toute modification de la liste lui est soumise pour qu’il les compile en un nouveau fichier txt une à deux fois par semaine. Par suite, ce mécanisme de résolution de noms est implanté dans tous les systèmes d’exploitation des ordinateurs, quel que soit leur fabriquant. Rapidement, il apparaît que le travail de maintenance de cette liste et la charge du serveur du SRI prennent des proportions telles, qu’il devient difficile pour leur administrateur de remplir correctement son office. Les mises à jour sont si fréquentes que les nouvelles modifications sont introduites, avant même que les précédentes ne soient déployées sur le réseau ARPANET. En outre, plus le réseau grandit, plus la probabilité que deux utilisateurs attribuent le même nom à leur ordinateur est grande. Nonobstant l’incroyable richesse de mots que recèle le langage pour exprimer une idée, cette richesse n’en demeure pas moins limitée. Les limites de la langue humaine sont, d’ailleurs, bien plus importantes que celles du langage informatique. Les combinaisons d’adresses alphanumériques disponibles sont, si l’on raisonne sur une logique sémantique, très inférieures à celles offertes par le système d’adressage IP. Il en résulte que, contrairement aux adresses IP[8], les adresses alphanumériques sont une ressource rare. La rareté de ces adresses a pour conséquence de mettre en exergue les limites du système qui sous-tend l’espace de nommage qui, jusqu’à la fin des années quatre-vingts, repose sur un système centralisé. Et les bâtisseurs de l’internet l’ont bien compris. Dès lors, pour endiguer cette rareté qui menace, il a été jugé bon de transformer l’architecture centralisée du système d’adressage alphanumérique en une architecture décentralisée. Cette transformation ne s’est pas faite sans difficulté. Les bâtisseurs doivent se conformer, en plus des normes véhiculées par les principes d’ouverture, de neutralité et d’intelligibilité, à celle dont est porteur le principe d’interopérabilité. Appliqué au système d’adressage alphanumérique, ce principe implique que les adresses logiques doivent communiquer entre elles. Il doit, autrement dit, exister un lien qui permette d’aller d’une adresse à une autre.

La nécessaire unité de l’espace de nommage. Cela suppose que l’espace de nommage soit unique. Dit plus simplement, il n’est qu’une seule base de données recensant l’ensemble des ordinateurs du réseau qui peut exister. Dans le cas contraire, l’espace de nommage de l’internet serait fragmenté, si bien que les adresses de machines qui se trouveraient sur deux listes différentes ne pourraient pas, dans le cadre du système d’adressage alphanumérique, communiquer entre elles. Cela signifie qu’elles ne seraient pas interopérables. D’où, l’importance qu’il n’existe qu’ seul espace de nommage. Or c’est précisément cette exigence d’unité qui est à l’origine de la rareté des adresses ; chaque combinaison de caractères alphanumériques ne peut être utilisée que pour le nommage d’une seule et même machine. Dans ces conditions, il faut aux bâtisseurs du système d’adressage logique trouver une solution pour étendre substantiellement l’espace de nommage, tout en cherchant un moyen de conserver son unité. Dix années de recherche sont nécessaires pour y parvenir. C’est à l’orée de l’année 1977, date à partir de laquelle le ministère de la défense des États-Unis décide de déployer le protocole TCP sur l’ARPANET, que les choses vont véritablement bouger. Ce protocole TCP ne répondant pas de manière satisfaisante aux contraintes liées à l’adressage IP, les trois informaticiens que sont Vins Cerf, Jon Postel et Danny Cohen ont l’idée de scinder sa fonction en deux. Le protocole TCP/IP est né. C’est sur lui que reposera, plus tard, le nouvel espace de nommage. Sitôt l’élaboration du protocole TCP/IP achevée, Jon Postel, chercheur à l’institut des sciences informatiques de l’Université de Californie du Sud (ISI), est investi, entre 1977 et 1981, de la responsabilité du système d’adressage alphanumérique au sein de la petite communauté DARPA. Preuve que l’espace de nommage est, à cette période, encore l’affaire de tous, les internautes sont invités par Jon Postel à lui envoyer leurs suggestions pour moderniser le système vieillissant sur lequel il repose. C’est ainsi qu’à partir de 1981 commencent à germer des modèles d’architecture du système d’adressage. Tandis que certains développeurs plaident pour un espace de nommage hiérarchisée, d’autres proposent un espace de nommage plutôt distribué[9]. Finalement, ce sont les travaux de Zaw-Sing Su et de Jon Postel, publiés dans la RFC 819, suivi par les travaux de Paul Mockapetris, publiés dans les RFC 882 et 883, qui ont le dernier mot. La réunion de leurs travaux respectifs donne naissance à un nouveau système d’adressage alphanumérique de l’internet, appelé DNS (Domain Name System).

Une architecture hiérarchique. Grosso modo, sous l’égide du fichier hosts.txt, l’espace de nommage consistait en une seule et même base de données centralisée. Seulement, en raison de la surcharge du serveur sur lequel repose la liste de résolution des adresses numériques, et de la pénurie des adresses alphanumériques qui s’annonce, il faut trouver un moyen pour désengorger l’espace de nommage et étendre ce dernier. Le système DNS consiste en la division de l’espace de nommage en « sous-espaces », appelés zones, de sorte que la base de données contenue dans le seul fichier host.txt, se voit divisée en autant de fichiers qu’il y a de zones. Pour ce faire, les fondateurs du DNS ont imaginé une architecture dans laquelle chaque zone est associée à un ordinateur hôte, faisant office de serveur, un logiciel de résolution de noms et un fichier-zone à l’intérieur duquel on retrouve la paire adresse IP-nom alphanumérique. Semblablement à une adresse postale composée d’un nom de pays, d’un code postal, d’un nom de ville, d’un nom de rue et enfin d’un numéro, à chaque zone est affectée une partie des adresses numériques. Chacune des différentes zones entretient un rapport hiérarchique avec la zone qui lui est inférieure ou supérieure, l’ensemble des zones réunies formant une arborescence. Jon Postel use de la métaphore d’arbre inversé pour décrire son système. Au sommet de la hiérarchie se trouve une zone unique appelée racine, qui est reliée à des zones inférieures appelées haut niveau qui, à leur tour, sont reliées à des sous-zones, appelées deuxième niveau etc. Le principe d’unité de l’espace de nommage est totalement respecté ; chaque zone de l’arborescence est nécessairement reliée à la zone unique : la racine.

La perspective d’une ressource illimitée. L’avantage de ce système réside, indiscutablement, dans la possibilité de créer une infinité de domaines. Les limites de l’espace de nommage dépendent, en effet, du nombre de zones au sein de l’arborescence. Un domaine étant constitué d’une zone et de toutes les zones qui lui sont inférieures, l’espace de nommage peut être étendu à l’infini. Plus un domaine est proche de la racine, plus l’espace de nommage qui lui est attaché est grand. Le domaine de la racine constitue donc l’intégralité de l’espace de nommage alors qu’un domaine de deuxième niveau n’en constitue qu’une petite fraction. Seuls les domaines peuvent, en conséquence, être affublés d’un nom, dans la mesure où ils sont le résultat d’une combinaison de zones en partant du sommet de l’arborescence vers le bas. D’où le qualificatif de « nom de domaine »[10]. Une adresse alphanumérique est, de la sorte, constituée de plusieurs composantes strictement séparées. D’abord, en partant de la droite vers la gauche, apparaît la racine représentée par un point ; elle marque l’appartenance de l’adresse souhaitée à l’espace de nommage unique du DNS. Ensuite, viennent les noms de domaine de haut niveau (Top-Level Domains)[11], qui sont estimés à 300, répartis sur treize serveurs racines. Les plus connus sont le « .com », « .fr », « .net », ou encore le « .org ». Enfin, ferment la marche les noms de domaine de deuxième niveau, répartis sur l’ensemble des serveurs de la toile, lesquels sont passés de quelques milliers dans les années quatre-vingts à des centaines de millions en 2000. Et l’on pourrait continuer comme cela indéfiniment. Une adresse alphanumérique est constituée d’autant de niveaux qu’il y existe de zones. La pratique tend, toutefois, à démontrer que la limite se situe autour du troisième niveau. Au total, alors que les pères fondateurs du DNS ont trouvé là, dans son architecture décentralisée, un formidable moyen d’endiguer la rareté des noms de domaines, assez paradoxalement, ils viennent corrélativement de déposséder les internautes du pouvoir de gouvernance qu’ils exerçaient, jusque-là, en commun, sur l’espace de nommage. Dorénavant, celui-ci est entièrement géré par ceux qui disposent de la maîtrise de la racine. Voyons comment cette translation de pouvoir s’est opérée.

L’internationalisation du système de nommage. Très tôt, prenant conscience de l’ampleur prise par le Projet Internet, les chercheurs de DARPA s’essayent à institutionnaliser l’administration du DNS. De cette façon il leur sera possible de prendre la mesure de la gouvernance de l’espace de nommage qu’ils ne seront bientôt plus en capacité d’assurer. Dans ce contexte, est créée, en 1979, sous l’impulsion de Vint Cerf et Bob Kahn, une commission consultative composée de professionnels de la mise en réseau, l’ICCB (Internet Configuration Control Board). Cette commission est destinée à superviser la normalisation des protocoles de l’internet. Au début des années quatre-vingts le réseau numérique commence, cependant, à traverser les frontières, si bien que, vers la fin de l’année 1983, l’ICCB est remplacée par l’Internet Achitecture Board (IAB), afin que soit prise en compte la nouvelle dimension internationale du système. Ce groupe de coordination réunit l’élite des scientifiques qui ont participé à la création de l’ARPANET. Surtout, il est ouvert aux spécialistes du monde entier, pourvu qu’ils aient des compétences sérieuses en matière de réseau. À ce moment précis, l’équilibre des forces entre la communauté des internautes, que tente de représenter, de son mieux, Jon Postel, et les administrateurs du DNS, est à son paroxysme. Seulement, les choses commencent à changer lorsque, en 1987, la National Science Foundation voit se connecter à son backbone, les plus grands réseaux de la planète, ce qui, pour la première fois, fera de l’internet un réseau mondial. À partir de cette date, la gouvernance de l’espace de nommage n’est plus une simple question nationale qui concerne le seul réseau ARPANET. Elle intéresse l’ensemble de la communauté internationale. En raison de cette internationalisation du cyberespace, les problèmes techniques qui entourent le DNS se complexifient, à tel point que, tant Jon Postel, que l’IAB, s’en trouvent dépassés. C’est pourquoi, en réponse à cette vague déferlante provoquée par la croissance toujours plus grande du réseau, l’IAB est scindé en deux. L’idée est que, pour être surmontées, les nouvelles difficultés rencontrées par la communauté numérique doivent être appréhendées séparément. D’un côté, l’Internet Engineering Task Force (IETF) est chargé de l’élaboration et de l’évolution des protocoles, de leur standardisation et de leur intégration avec d’autres protocoles. D’un autre côté, l’Internet Research Task Force (IRTF) se voit confier la tâche d’explorer les techniques avancées en matière de communication et de protocoles.

La racine : objet de toutes les convoitises. Selon Milton Mueller, on vient de passer d’une « ARAPA community» à une « Internet community »[12] où le consensus préside encore à la prise de décision. Sans tarder, l’action de l’IAB et l’IETF reçoit le soutien du gouvernement des États-Unis, l’IETF concluant, en outre, un accord avec la National Science Foundation et la Corporation for National Research Initiatives (CNRI)[13]. Déjà à cette période on peut entrapercevoir les vives convoitises que fait naître l’administration du DNS. Mais le meilleur reste à venir. Sans doute inspiré par le mouvement d’institutionnalisation dont la racine fait l’objet, Jon Postel publie, en décembre 1988, la RFC 1083 dans laquelle y est décrit, pour la première fois, un modèle d’autorité à qui pourrait être confiée la gouvernance de l’espace de nommage. Ce projet se concrétise, quelque temps plus tard, par la création de L’Internet Assigned Numbers Authority (IANA). Immédiatement, la DARPA décide de déléguer à cette organisation l’attribution des adresses IP, ce qui, de fait, lui confère un pouvoir sans commune mesure sur l’administration technique du DNS. En parallèle, Jon Postel, en tant que fondateur de l’IANA et directeur de l’ISI (Information Science Institute) à l’Université de Californie du sud, prend la décision de signer avec le département du commerce américain (DoC) un contrat de partenariat selon lequel l’IANA garde le contrôle du DNS. Les critiques ne se font pas attendre. Nombreux sont ceux à soulever la question de la nature de l’IANA. Est-elle civile ou militaire ? De quel département du gouvernement américain dépend-t-elle ? Quelle est sa réelle fonction ? En tout état de cause, pareillement au mouvement de désengagement financier des instances publiques américaines auquel avaient dû faire face les entités chargées du développement des infrastructures physiques du réseau, les responsables en charge du DNS sont confrontés à la même politique, celle destinée à laisser place à l’initiative privée.

Le basculement. Dans cette perspective, afin d’encourager et de promouvoir le développement de l’édifice numérique au-delà du cadre initial de la recherche, est créée l’Internet Society (ISOC), organisation à but non lucratif, dont certains disent qu’elle est inspirée de la National Geographic Society. Quel est son rôle ? Elle a pour fonction d’assurer la coordination du développement des réseaux informatiques dans le monde en favorisant l’échange d’expériences et l’extension du réseau au-delà de la zone des pays les plus riches: Europe de l’Est, Asie, Amérique du Sud et Afrique. La régulation de l’espace de nommage est alors en passe d’être soumise aux lois du marché. Cela suppose de poursuivre le mouvement de privatisation de l’administration du DNS qui était enclenché. En 1990 la Defense Information Systems Agency (DISA), responsable de la communication au sein du ministère de la défense américain, appelle l’ensemble des agences civiles à la suppléer dans le fonctionnement de son activité non-militaire d’enregistrement des noms de domaine. Aussitôt, sur les recommandations de la DISA, le Federal Networking Council (FNC)[14], représentant des agences civiles telles que le département de l’énergie, la National Aeronautics and Space Administration (NASA) ou encore la National Science Foundation, décide de lancer un appel d’offre en direction du secteur privé, afin que soit définitivement transférée à une entreprise privée, la fonction de gouvernance de l’espace de nommage. La grande gagnante de cet appel d’offre est une compagnie appelée Government Systems Inc (GSI) qui sous-traite sa nouvelle mission à une petite entreprise privée qui réside en Virgine, connue sous le nom de Network Solutions Inc (NSI).

L’évincement des géniteurs du système de nommage de sa gestion. Le 1er octobre 1991, cette société devient le concessionnaire de la plupart des services exercés jusqu’alors par le Defense Data Network-Network Information Center (DDN-NIC)[15], organisme contrôlé par SRI. Néanmoins, NSI ne dispose pas des pleins pouvoirs sur l’activité d’enregistrement des noms de domaine. Elle demeure soumise à l’autorité, tant de l’IANA, qui s’estime être le dernier vrai défenseur de la racine, que de la NSF qui entend, quant à elle, préserver les intérêts gouvernementaux. À l’image d’une palette de peinture sur laquelle les couleurs se mêlent et s’entremêlent, l’espace de nommage apparaît ici comme le terrain d’une opposition frontale entre trois forces de nature différente. Contrairement, toutefois, aux couleurs du peintre, qui se mélangent les unes aux autres pour ne former qu’une seule couleur à la fin, les forces politiques économiques et scientifiques, présentes sur l’espace de nommage, se combattent les unes contre les autres avec la velléité de s’emparer seules du contrôle du DNS. De cette confrontation, seules les forces économiques et politiques en sont sorties vainqueurs, en conséquence de quoi la gouvernance de l’espace de nommage échappe encore un peu plus à l’IANNA. Désormais, le champ est libre pour NSI qui peut commencer à exploiter tranquillement les domaines « .com », « .net » et « .org ». Avec l’avènement du World Wide Web, combiné à l’émergence des premiers navigateurs, tels que Mosaïc, Netscape et Internet Explorer, l’internet connaît la plus grande croissance de toute son histoire. Incidemment, cela provoque un nombre, sans précédent, d’enregistrements de noms de domaine. Sans surprise, seuls les domaines en « .com » font l’objet de ce ras de marée qui a pris d’assaut l’espace de nommage. Il s’ensuit, mécaniquement, une pénurie des noms de domaine sur le « .com ». Il s’agit là du même type de pénurie qui, naguère, a déjà frappé l’espace de nommage, à l’époque du fichier hosts.txt. Sous prétexte de remédier à la pénurie des noms de domaine, NSI, autorisé par la NSF, prend la décision, en 1995, de facturer l’enregistrement des noms de domaines, ce qui fait d’elle le premier monopole, au sens économique du terme, qui exploite les ressources de l’espace de nommage. Il était, pourtant, une autre solution possible pour répondre à la pénurie qui s’est installée sur le domaine « .com ».

La contestation grandissante de la monopolisation de la racine. Alors que NSI a répondu à ce phénomène par une solution économique, Jon Postel propose une solution technique. L’alternative consiste en la création de 130 nouveaux domaines. À cette fin, est créé, par l’IANA et l’ISOC, l’Internet Ad Hoc Committee (l’IAHC), structure dont la mission est d’assurer l’élargissement de l’espace de nommage. Dès sa création, cette organisation reçoit le soutien de plusieurs organisations internationales dont l’UIT (Union Internationale des Télécommunications), l’INTA (International Trademark Association), ou encore l’OMPI (Organisation Mondiale de la Propriété Intellectuelle). Il en est résulté un rapport publié en 1997 qui préconise d’une part, la création de sept nouveaux noms de domaines et, d’autre part, la création d’une organisation non gouvernementale pouvant réguler l’enregistrement des noms de domaines sous ces nouvelles extensions. Ainsi, est né le Council of Registars (CORE), lequel propose l’instauration de sept nouveaux domaines[16]. Cela était sans compter sur Ira Magaziner, conseiller spécial aux affaires sociales de Bill Clinton. Cet homme politique s’oppose vigoureusement au projet du CORE, sans doute sous les pressions de NSI, peu enclin – et pour cause – à voir son monopole lui échapper. La concurrence a, cependant, commencé à se faire entendre. Des acteurs économiques et scientifiques contestent de plus en plus le bien-fondé de ce monopole. Ajouté à cela, les revendications des gouvernements nationaux, de la Commission Européenne et de l’Organisation des Nations Unies, qui se sont mis à remettre en cause l’autorité des États-Unis sur l’espace de nommage, il est apparu nécessaire de réformer la structure institutionnelle entourant le DNS. En janvier 1998, le DoC propose un green paper afin de calmer les esprits, la seule condition étant que le siège de la future organisation se trouve sur le sol américain. L’heure est aux négociations. Elles débouchent, en juin 1999, sur l’adoption d’un white paper, accepté par l’ensemble de la communauté internationale[17]. De ce compromis, il en est ressorti la création d’une société à but non lucratif de droit californien : l’Internet Corporation for Assigned Names and Numbers (ICANN)[18]. Deux mois avant, Jon Postel, sur qui reposait, depuis la fin des années soixante-dix, l’administration technique de l’espace de nommage, décède.

Une translation de pouvoir au bénéfice de l’ICANN. Plus qu’un symbole, sa mort marque, tant la fin de l’ère « préhistorique » du système d’adressage logique qui avait vu naître le DNS, que le commencement d’une nouvelle ère, une ère sous laquelle l’administration de la racine va être au centre de toutes les attentions. Bien que se distinguant assez nettement du fichier hosts de par son contenu, le fichier racine s’en rapproche, néanmoins, à maints égards, ne serait-ce que parce que tous deux se sont vus attribuer la fonction de détermination de l’espace de nommage. Mais là n’est pas notre préoccupation. Ce sur quoi doit se focaliser notre regard c’est, surtout, sur le fait que le passage de l’ancien système d’adressage alphanumérique au système DNS, s’est accompagné d’une translation de pouvoir. En un peu moins d’une vingtaine d’années on a pu assister en la captation progressive du pouvoir que se partageaient les pères fondateurs de l’internet sur le fichier hosts.txt, au profit d’une autorité, l’ICANN, qui désormais a seule la maîtrise du fichier racine. Contrairement au NIC dont les prérogatives sur l’espace de nommage se limitaient à sa maintenance, le pouvoir qu’exerce l’ICANN sur lui, est bien plus important puisqu’il s’étend à sa gouvernance. Cela ne poserait guère de difficultés si cette gouvernance était, comme à l’époque du NIC, effectuée conformément aux règles de l’ordre numérique. Sauf que, tel est loin d’être le cas. L’action menée par l’ICANN est commandée, moins par le souci d’aller dans le même sens que celui dans lequel œuvrent les architectes du réseau, que par des considérations d’ordre, tant politique, qu’économique. Politique d’abord, l’ICANN peut difficilement ne pas voir qualifier de la sorte la gouvernance qu’elle mène sur l’espace de nommage, dans la mesure où il existe un lien opaque entre cette organisation et le gouvernement américain[19]. Par ailleurs, comme le fait observer Cédric Manara « l’ICANN tire de ses statuts la prérogative de faire adopter des règles techniques, dont l’application concrète reflète aussi le pouvoir de contrainte qui est le sien»[20]. Pour ce qui est, ensuite, de la dimension économique que revêt cette gouvernance, elle relève de l’évidence. Cette dimension naît à l’instant même où est attribuée par NSI une valeur pécuniaire aux noms de domaine. Car ils sont une ressource rare. Et si d’aucuns s’avancent à dire que cette rareté est organisée par l’ICANN, elle est avant tout due, comme il a été vu, à l’exigence d’unicité de l’espace de nommage. Toujours est-il que, quelles que soient les causes de cette rareté, organisée ou non, elle est bien présente, de sorte que cela ajoute à l’importance du pouvoir de gouvernance que détient, désormais, seule l’ICANN sur l’espace de nommage.

[1] M. Mueller, op. cit. note 56, p. 91.

[2] À la suite du départ de Robert Kahn de la DARPA, en 1986, celui-ci a fondé, avec le soutien de Vint Cerf et de Keith Uncapher, une nouvelle organisation à but non lucratif, la Corporation for National Research Initiatives (CNRI), destinée à la recherche et au développement des infrastructures nationales de l’information.

[3] Le FNC a été créé par la National Science Foundation en 1990.

[4] Lors de la mise en place du DNS, c’est le service DDN-NIC du SRI qui a pris en charge, en passant un contrat avec le ministère de la défense américain, tous les services d’enregistrement, ce qui comprenait les domaines de premier niveau (Top Level Domain – TLD) et la gestion des serveurs DNS racine.

[5] Il s’agit des « .firm”, « .web », « .info », « .art », « .rec », « .nom », « .shop ».

[6] Bien que l’ICANN soit née d’un compromis entre États, elle ne saurait être considérée, comme le souligne Cédric Manara, comme un sujet de droit international. Elle est, pour le droit international public, « une entité inconnue » (C. Manara, op. cit. note 65, p. 34).

[7] Cela n’empêche pas les États-Unis d’entretenir un rapport privilégié avec l’ICANN. Cette organisation est, en effet, sous le contrôle du Department of Commerce qui, sans que les autres États puissent juridiquement s’y opposer, peut lui retirer son agrément.

[8] L’ICANN est contractuellement engagée avec le DoC, depuis le 25 novembre 1998. Il s’agit là presque, si l’on peut s’exprimer ainsi, d’un lien de vassalité qui existe entre les deux entités. Le DoC a le pouvoir de dénoncer à tout moment, et unilatéralement, l’accord qu’il a conclu avec l’ICANN, et donc de revenir sur son adoubement duquel elle tire tous ses pouvoirs sur le système d’adressage. V. en ce sens M. Mueller, op. cit., note 56, pp. 163 et s.

[9] C. Manara, op. cit. note 65, p. 35.

[10] M. Mueller, Ruling the Root. Internet Governance and the Taming of Cyberspace, MIT Press, 2004, p. 39.

[11] Ibid., p. 40.

[12] V. en ce sens M.D. Kudlick, Host Names On-Line, RFC 608, 1974.

[13] H. Klein, « Icann et la gouvernance de l’internet : la coordination technique comme levier d’une politique publique mondiale », in Les cahiers du numérique. La gouvernance d’Internet, Lavoisier, 2002, vol. 3, n°2, p. 99.

[14] Par exemple : D. Barr, Common DNS Operational And Configuration Erros, RFC 1912, 1996 ; P. Mockapetris, Domain System Changes and Observations, RFC 973, 1986 ; J. Postel et J. Reynolds, Domain Requirements, RFC 920, 1984 ; J. Postel, Domain Name System Structure and Delegation, RFC 1591, 1994 ; J. Postel, Domain Name System Implementation Schedule, RFC 897, 194. P. Mockapetris, Domain Names – Concepts and Facilities, RFC 1034, 1987 ; P. Mockapetris, DNS Encoding of Network Names and Other Types, RFC 1101, 1989 ;

[15] V. supra, n°63 et s.

[16] Hors extension, le nom de domaine ne peut pas excéder 63 caractères alphanumériques (lettres de A à Z et chiffres de 0 à 9). Aucune différence n’est faite entre les lettres majuscules et minuscules. Tous les autres caractères ne sont pas admis (accents, apostrophes, sous-tirets, etc…). Depuis peu, sont générés par le système d’adressage ce que l’on appelle les noms de domaine internationalisés (IDN). Ces identifiants ont la particularité de faire appel à des caractères de la langue locale. Ils peuvent, en d’autres termes, comporter des caractères avec signes diacritiques (autres que ceux contenus dans l’ASCII : lettres de A à Z, chiffres de 0 à 9, tiret, etc.) qu’exigent la plupart des langues européennes ou des caractères différents de ceux de l’alphabet latin (par exemple arabes ou chinois).

[17] Dans le courant des années quatre-vingt-dix a été développé ce que l’on appelle le protocole IPv6 (Internet Protocol version 6), lequel a vocation à remplacer le protocle IPv4. Ces protocoles président à la création des adresses IP. La mane des adresses IP créées à partir du protocole IPv4 étant bientôt épuisée, des travaux ont été menés, sous la houlette de l’IETF (Internet Engineering Task Force), afin d’élaborer un nouveau protocole qui mettrait fin à cette rareté. C’est là la fonction du protocole IPv6. Son déploiement, en France, a commencé dès l’année 1996 avec le réseau RENATER (Réseau national de télécommunications pour la technologie, l’enseignement et la recherche).

[18] Dans le RFC 814, Clark propose un espace de nommage avec une architecture distribuée, celui-ci permettant que « each network (or group of networks) is responsible for maintaining its own names and providing a ‘name server’ to translate between the names and the addresses in that network ». D. Clark, Name, Addresses, Ports, and Routes, RFC 814, Juil. 1982. Disponible sur: http://tools.ietf.org/html/rfc814.

[19] Pour une analyse de l’expression générique que constitue désormais le « nom de domaine », V. C. Manara, Le droit des noms de domaine, LexisNexis, coll. « Propriété intellectuelle », 2012, p. 5 et s.

[20] On parle également de noms de domaine de premier niveau. Cette expression se retrouve dans la loi. Il y est de la sorte fait référence à l’article L. 45, I, alinéa 5 du Code des postes et communications électroniques lequel dispose que « l’attribution et la gestion des noms de domaine rattachés à chaque domaine de premier niveau sont centralisées par un organisme unique ».

(0)

Notion de gouvernance. D’aucuns soutiennent que l’internet est plus qu’un simple réseau de communication. Parce qu’il relie les êtres humains en leur offrant la possibilité d’entretenir des rapports pourvus d’une interactivité proche de celle que l’on trouve dans une rencontre entre une ou plusieurs personnes dans le monde physique, il se confondrait avec la société elle-même. Si, l’évolution de cette dernière tend, de plus en plus, vers la mondialisation, cela n’est, à l’évidence, pas sans rapport avec l’enlacement de la surface du globe par les réseaux informatiques[1]. Dans cette perspective, l’internet peut être regardé comme un gigantesque système, numérique, qui serait constitué, tant d’une composante matérielle, que d’une composante humaine. L’étude des principes par lesquels son fonctionnement est sous-tendu suppose, dès lors, de s’interroger sur la gouvernance de ces deux composantes. Du grec ancien kubernân, mot signifiant piloter, manœuvrer, dont est issu le mot latin gubernare, qui a lui-même donné le verbe gouverner, le terme gouvernance renvoie littéralement à l’action de diriger un navire au moyen d’un gouvernail. C’est Platon qui, le premier, recourt à ce terme pour désigner métaphoriquement le fait de gouverner les hommes[2]. Plus tard, celui-ci sera utilisé, au Moyen Âge, pour évoquer la manière de gouverner[3]. C’est dans ce sens précis que nous entendons employer le terme de gouvernance, que nous préférons au terme régulation, tout aussi usité, sinon plus. Pourquoi l’écarter de notre champ lexical ? Arrêtons-nous un instant sur la signification du terme régulation.

Notion de régulation. Son origine est à rechercher dans la science des systèmes et, plus exactement, des systèmes « régulés », tels les machines à vapeur ou les radiateurs équipés d’un thermostat. Surtout, le concept de régulation a suscité un grand intérêt chez les pères de la théorie générale des systèmes. Selon cette théorie, tout système organisé serait en permanence confronté à l’accroissement en son sein de désordre (l’entropie), généré par l’environnement extérieur dans lequel il évolue. La régulation aurait alors pour fonction de neutraliser la progression de l’entropie pour maintenir à l’équilibre le système, ce qui lui permettrait de conserver un état stationnaire. Comme l’on pouvait s’y attendre, le concept de régulation a, très vite, été repris en sciences humaines pour désigner le mécanisme qui permet de maintenir l’équilibre des forces qui, en permanence, s’affrontent dans les systèmes sociaux. Ainsi, en sciences juridiques, par exemple, Marie-Anne Frison-Roche explique que la régulation consiste « à instaurer ou maintenir les grands équilibres de secteurs qui ne peuvent, par leur seule force, les créer ou les maintenir»[4]. De son côté, André-Jean Arnaud définit la régulation comme « le processus par lequel le comportement d’un système perçu complexe est maintenu ou ajusté en conformité à quelques règles ou normes »[5]. Enfin, citons la définition de Jacques Chevalier qui perçoit la régulation comme étant « destinée à annuler l’effet des perturbations extérieures, en maintenant l’équilibre homéostatique du système juridique »[6]. De toutes ces définitions, il ressort que la fonction première de la régulation est de garder le système sur lequel elle porte en équilibre, un équilibre statique.

Choix du terme gouvernance. Aussi, est-ce précisément parce que le système numérique n’a pas vocation à voir pareil équilibre s’installer en son sein, que l’emploi du terme régulation ne serait pas approprié pour désigner ce dont il fait l’objet. L’internet est, en effet, loin de ressembler à un système dont l’état serait stationnaire, constant, tel le corps humain qui, par exemple, s’évertue à conserver, par l’entremise du processus d’homéostasie, une température de 37 °C. L’internet est un système qui, au contraire, évolue, en permanence, au fur et à mesure que ses bâtisseurs œuvrent sur lui, le construisent. Naturellement, il possède bien un équilibre interne, sans quoi il ne saurait subsister. Cet équilibre n’est, cependant, pas statique, mais dynamique. Autrement dit, il s’agit là d’un équilibre qui se meut vers l’avant. Il joue, en quelque sorte, le rôle d’un moteur ; un moteur qui permet au système numérique d’évoluer. C’est pourquoi ce système fait l’objet d’une gouvernance et non d’une régulation. Le terme gouvernance est empreint de cette idée de mouvement, à l’image de la conduite d’un navire qui avance sur l’océan.

[1] V. en ce sens É. Loquin et C. Kessedjian, La mondialisation du droit, Litec, Paris, 2000, p. 116.

[2] Pour une analyse de l’évolution du terme gouvernance dont la signification s’est, au cours des siècles, enrichie d’une dimension politique v. O. Paye, « La gouvernance : D’une notion polysémique à un concept politologique », Études internationales, vol. 36, n° 1, 2005, pp. 13-40.

[3] V. en ce sens, J. Chevalier, « La gouvernance et le droit » in Mélanges Paul Amselek, Bruxelles, Bruylant, 2005.

[4] M.-A. Frison-Roche, « Le juge et la régulation économique », Annonces de la Seine, n°36, 22 mai 2000, p. 2.

[5] Dictionnaire encyclopédique de théorie et de sociologie du droit, sous la dir. de A.-J. Arnaud et alii, L.G.D.J, 2e éd., 1993, p. 521.

[6] J. Chevalier, « La régulation juridique en question », Droit et société, 2001, n°49. Disponible sur : http://www.reds.msh-paris.fr/publications/revue/html/ds049/ds049-07.htm.

(0)

Révolution. L’Histoire nous l’enseigne : tout changement de paradigme est le fruit d’un long processus auquel sont mêlés d’innombrables protagonistes[1]. D’ordinaire, il est pourtant admis que les révolutions, sociales ou scientifiques, s’apparentent en un coup de tonnerre pourfendant le ciel. Sans nul doute, la cause de ce sentiment que beaucoup partagent, à tort, n’est pas à rechercher dans une quelconque faculté dont seraient dotés les instigateurs des révolutions de les déclencher selon leur bon vouloir, mais plutôt dans l’incapacité de leurs observateurs à les prévoir. L’idée révolutionnaire, de relier des ordinateurs entre eux n’échappe pas à la règle. Elle est la résultante d’une lente évolution qui s’est enclenchée lorsque l’Homme a pris conscience que, le salut de l’humanité dépendait, pour une large part, de son aptitude à communiquer avec ses semblables. Le choix de l’architecture qu’il a entendu conférer au premier réseau numérique qui, rapidement, allait devenir un phénomène planétaire, voit ses racines profondément enfouies dans le passé. Ceux qui seraient tentés d’attribuer la paternité de la grande révolution sociale, dont a été porteuse l’architecture de l’ARPANET, aux seuls bâtisseurs de cet ouvrage, risquent, par conséquent, d’occulter que celle-ci a, en réalité, été amorcée bien avant que, Licklider et les savants qui lui ont succédé, aient eu et mis en œuvre leurs idées. La croyance tendant à admettre que cette révolution serait le pur produit de la structure décentralisée du réseau est véhiculée lorsque, par exemple, certains affirment que « l’intelligence distribuée [d’une infrastructure globale d’information] diffusera une démocratie participative […] en accroissant la participation des citoyens à la prise de décision et […] favorisera la capacité des nations à coopérer entre elles»[3]. Cette idée apparaît, cependant, comme partiellement erronée.

Réseau et choix de société. Pour s’en persuader, il suffit de se remémorer les propos de Michel Chevalier qui, déjà en 1836, avait une idée très précise de la finalité vers laquelle devait tendre tout système de communication. Pour lui, « améliorer la communication, c’est […] travailler à la liberté réelle, positive et pratique […], c’est faire de l’égalité et de la démocratie. Des moyens de transport perfectionnés ont pour effet de réduire les distances non-seulement d’un point à un autre, mais encore d’une classe à une autre»[4]. La pensée selon laquelle un réseau de communication peut se révéler comme un formidable instrument pour combattre les inégalités sociales et faire « s’évanouir les plus grands obstacles qui s’opposent à la civilisation des hommes et à leur réunion en grandes républiques »[5], est donc loin d’être nouvelle. Selon toute vraisemblance, l’ambition des architectes du réseau ARPANET était plus modeste que celle qui leur est habituellement prêtée. Pour autant, ils n’en sont pas moins parvenus à inscrire, dans l’architecture de l’édifice numérique, les valeurs que n’ont cessé de prêcher les héritiers de la pensée saint-simonienne. Probablement, certains se demandent comment de telles valeurs peuvent être incarnées et portées par pareille entité qui, en définitive, n’est qu’un simple agglomérat de câbles et d’ordinateurs. Afin de montrer en quoi derrière l’adoption de l’architecture d’un réseau peut se cacher un véritable choix – même inconscient – de modèle de société, il convient dès lors d’approfondir l’examen de celle pensée par les bâtisseurs de l’ARPANET.

Partage et accroissement de la puissance du réseau. Au préalable, il apparaît toutefois nécessaire de se rappeler la raison première pour laquelle ils ont été conduits à faire communiquer des machines entre elles. Pour mémoire, lorsqu’est venue à Licklider, l’idée de mettre en réseau des ordinateurs, il n’était habité que par la seule intention de développer le concept qui lui était si cher de l’informatique en temps partagé. Et si, pour ce faire, celui-ci s’est, d’abord, focalisé sur la recherche d’un moyen permettant aux chercheurs d’utiliser simultanément les ressources informatiques d’une seule et même machine[6], très vite, il lui a semblé plus judicieux de réfléchir à la conception d’un système plus global, qui offrirait la possibilité de mettre en commun les ressources de plusieurs machines[7]. Dans son esprit, cela supposait, en toute logique, que le réseau ainsi créé soit alimenté par la puissance de calcul de chaque ordinateur s’y connectant. Plus le nombre de ses utilisateurs augmenterait, plus grand serait le bénéfice que ces derniers pourraient en retirer. Envisager l’hypothèse inverse de l’adoption d’un système de communication pourvu d’une puissance de calcul initiale qui, par suite, aurait vocation à être partagée entre tous les utilisateurs du système serait revenu à admettre que la part revenant à chacun d’eux puisse diminuer à mesure de l’augmentation de leur nombre. Mais tel n’était pas le résultat recherché par Licklider. Il avait en tête de réaliser un réseau qui, lors de l’agrégation de toute nouvelle ramification, devait voir ses performances s’améliorer et non se dégrader ; autrement dit, un réseau où tout ce que l’on y partagerait, serait destiné à s’accroitre. L’architecture du réseau imaginé par Licklider ne pouvait, dans ces conditions, qu’être décentralisée.

Incertitude quant à l’utilité du réseau. Outre l’acception renvoyant à un réseau dont la disposition des nœuds forme un échiquier, par décentralisé, il faut entendre, un système où la puissance de calcul se trouve à ses extrémités. Chaque utilisateur doit pouvoir prétendre à une puissance de calcul qui soit le fruit d’une multiplication et non d’une division. Les dignes successeurs de Licklider avaient bien compris les avantages que pouvait procurer le choix d’une telle architecture – en plus de ceux précédemment évoqués[8]. C’est pourquoi, lorsque l’ARPANET a été élaboré, le recours à une structure centralisée a, d’emblée, été écarté. Elle était pourtant utilisée par AT&T comme support du réseau téléphonique. Nombreux étaient ses partisans, même au sein de l’ARPA[9]. A l’évidence, cela n’a pas été suffisant pour convaincre Taylor, Roberts et Baran de l’adopter. Alors que les deux premiers, étaient déterminés à appliquer le concept de l’informatique en temps partagé au réseau d’ordinateurs qu’ils ambitionnaient de réaliser, le troisième pointait, quant à lui, du doigt, la vulnérabilité des systèmes de communication en forme d’étoile. En définitive, c’est bien pour une architecture décentralisée qu’ils ont opté, malgré le scepticisme ambiant qui régnait à l’intérieur de l’agence gouvernementale. Au commencement du projet, ils n’étaient que quelques-uns à percevoir l’utilité de doter un réseau d’une pareille structure. La plupart ne parvenait pas à voir quelles répercussions pouvait avoir le fait de partager avec d’autres les ressources d’une machine, sinon celle de les rendre plus faibles qu’elles ne l’étaient déjà. Comme le souligne Laurence Lessig, il est difficile de blâmer ceux qui, à l’époque, ne savaient pas à quoi serait susceptible de servir le réseau qui était en passe de se construire. En vérité, même ses pères spirituels l’ignoraient[10]. C’est justement là que réside tout leur génie.

Un silex taillé. Pour reprendre l’assimilation faite par Philippe Breton de l’ordinateur au « silex taillé », le réseau ARPANET partage également quelques affinités avec le célèbre « caillou ». Tout comme lui, son invention « précéda l’intelligence que les hommes purent avoir de son usage»[11]. La préoccupation des bâtisseurs n’était nullement de conférer à leur ouvrage une quelconque utilité. Elle résidait dans sa seule mise à disposition ; libre à ses utilisateurs de lui en trouver une. Tel un morceau de bois ou un bloc de pierre, dont l’utilisation peut varier d’une extrémité à l’autre, selon l’intention qui anime celui qui s’en sert, le réseau ARPANET a cette particularité d’être tout à la fois dépourvu d’utilité lorsqu’il se trouve à l’état brut et, à l’inverse, susceptible de se révéler infiniment utile si quelqu’un exploite l’une ou plusieurs de ses propriétés. Peu nombreux étaient ceux qui, à la fin des années soixante-dix, avaient compris l’intérêt de laisser aux utilisateurs du réseau le soin de déterminer les usages auxquels son exploitation pouvait donner naissance. Pour autant, peu à peu, cette idée a fait son chemin dans les esprits, jusqu’à être conceptualisée, au début des années quatre-vingts, dans une publication de David Clark, Jérôme Saltzer et David Reed[12]. Dans cet article, pour la première fois est décrit le principe sur lequel repose l’architecture adoptée par les bâtisseurs de l’ARPANET.

Principe du end-to-end. Baptisé end-to-end argument (bout en bout), ce principe consiste à placer la puissance de calcul, soit ce que Lawrence Lessig appelle « l’intelligence du réseau»[13], à ses extrémités, de sorte que le système puisse se développer de manière organique[14]. Plus concrètement, doivent être distingués les ordinateurs qui se trouvent au centre du réseau, qui ont pour fonction d’assurer la communication entre deux machines distantes, de ceux, situés à sa lisière, dont la vocation n’est autre que d’émettre et de recevoir. Alors que les premiers doivent, selon David Clark, n’effectuer que des tâches rudimentaires, tendant au transport des paquets de données, les seconds ont, quant à eux, pour rôle de réaliser les opérations informatiques les plus complexes, celles en rapport, non pas avec l’acheminement de l’information, mais avec la finalité de cet acheminement. En vertu du principe du end-to-end, c’est donc à travers les ordinateurs localisés aux extrémités du réseau que peuvent être identifiés les usages qui en sont fait[15]. Là n’est pas la seule conséquence qu’emporte la réalisation de ce principe. En plus de voir les utilisateurs maîtres des fonctions dont est pourvu le système de communication auquel ils ont recours, l’adoption d’une architecture décentralisée est de nature à les mettre tous sur un pied d’égalité[16]. Pour anodine et insignifiante que puisse paraître, d’un point de vue technique, cette caractéristique qui découle de l’application du principe du end-to-end, comme s’accordent à le dire de nombreux auteurs, les effets qui s’ensuivent n’en sont pas moins cruciaux sur le plan sociopolitique[17].

Forme du réseau et modèle de société. S’il est indéniable que le réseau ARPANET est la résultante d’une grande prouesse technologique, en ce qu’il a été doté de la faculté de se développer organiquement, il ne faut pas non plus oublier qu’il a surtout été conçu comme le medium auquel pouvaient recourir les scientifiques de tous lieux pour communiquer. Avant d’être un réseau d’ordinateurs, il devait former, comme aimait à le rappeler Taylor et Licklider, une « supercommunauté»[18]. Or toute communauté, quel que soit le lien qui unit ses membres, répond nécessairement à une logique organisationnelle ; car la nature de l’Homme est de toujours vouloir rechercher un cadre social stable dans lequel il peut évoluer. Aussi, cela nous renvoie-t-il à la pensée d’illustres auteurs tels que Diderot, d’Alembert, Proudhon ou encore Saint-Simon et ses disciples, qui voyaient dans la figure du réseau, au-delà de son aspect technique, différents cadres sociaux. Pour eux, et notamment Proudhon, deux sortes de réseaux s’opposent. Ils ne nous sont pas inconnus, puisqu’il s‘agit du réseau étoilé et de celui dit « en échiquier ». Le premier correspond, de par son architecture centralisée, à un modèle de société dans laquelle ses membres seraient unis par un lien hiérarchique[19]. Le second se rapporte plutôt à une organisation décentralisée où les membres du groupe seraient placés sous le signe de l’égalité. Proudhon soutient que derrière l’architecture technique de n’importe quel réseau se cache presque toujours un choix politique[20].

Neutralité et égalité. Il ne saurait, toutefois, être imputé aux bâtisseurs de l’ARPANET la velléité d’avoir voulu recréer une agora artificielle sur laquelle viendraient se réunir les nostalgiques de la démocratie athénienne. Quand bien même, il n’est jamais de pur hasard, leur intention première n’était autre que de fournir aux communautés scientifiques et universitaires un instrument par le biais duquel elles pourraient s’adonner au travail collaboratif. Le choix d’une architecture qui repose sur le principe du end-to-end a, pourtant, bel et bien été accompagné de répercussions propres à un choix politique ; d’où, la difficulté de les dissocier. Parce que l’ARPANET a été élaboré sur un modèle de réseau décentralisé, il génère une égalité parfaite entre ses utilisateurs dans les rapports qu’ils entretiennent avec ce dernier[21]. Dans pareil système, un enfant se trouve être l’égal du savant ou du milliardaire[22]. Peu importe l’âge, la qualité, la nationalité, le niveau de connaissance ou de ressources financières de l’utilisateur, seul compte le fait d’être connecté au système via un ordinateur. Cette égalité, qui règne au sein du réseau, fait de lui une entité neutre, en ce sens qu’il n’est procédé à aucune discrimination à l’égard de la source, de la destination ou encore du contenu de l’information acheminée[23]. Neutralité et égalité sont indubitablement liées. Plus encore, la neutralité dont est empreinte quelque entité que ce soit, fait naître une égalité entre ses sujets. Comme a pu l’écrire un auteur, s’agissant de la neutralité à laquelle est soumise toute autorité administrative, elle a pour effet de « garantir le respect du principe d’égalité»[24] entre les administrés. Le réseau ARPANET est manifestement teinté de la même neutralité que celle que l’on connait à nos institutions[25]. De cette neutralité qu’il arbore, nous pouvons déduire deux conséquences principales s’agissant de la liberté d’action des internautes.

Conséquences de la neutralité du réseau. La première d’entre elles tient aux capacités dont est pourvu le réseau : elles sont les mêmes pour tous les utilisateurs. Ils sont, en d’autres termes, égaux devant son fonctionnement. À l’image de deux peintres qui se tiennent en un même lieu, profitant à part égale de la lumière du soleil pour réaliser leur toile, les utilisateurs de l’ARPANET bénéficient à part égale de la puissance qu’il dégage. Le réseau traite, en somme, leurs instructions de manière équivalente, peu importe la nature des données qu’il lui est demandé de transporter, leur provenance ou encore leur destination. Chaque utilisateur est en droit d’attendre qu’il soit mis – dans la mesure du possible – au service de sa requête, la plénitude de la capacité du réseau à acheminer de l’information. La seconde conséquence que fait naître la neutralité du réseau consiste en l’octroi à quiconque s’y connecte d’une absolue liberté quant à lui conférer une utilité. C’est aux utilisateurs du réseau qu’il incombe de déterminer quelles sont les fonctions qu’il doit remplir et donc de le développer. C’est à eux, que revient le pouvoir de création de toute chose qui se trouve à ses extrémités[26]. Le réseau étant neutre, aucune discrimination ne saurait être opérée entre les différentes innovations dont l’existence repose sur l’exploitation de ses capacités. Que celui-ci soit utilisé comme support de communication pour téléphoner, pour recevoir la télévision ou la radio, pour partager des données, pour déclencher des tirs de missiles à distance, pour espionner l’humanité toute entière ou encore pour procéder à une greffe de cœur par-delà les océans, peu importe. La neutralité du réseau garantit aux utilisateurs la possibilité d’y recourir librement, afin que s’exprime leur imagination. Comme le souligne Lawrence Lessig « le réseau ne peut pas exercer de discrimination contre une nouvelle structure innovante»[27]. Dit autrement, qu’une innovation soit bonne ou mauvaise, performante ou inefficace, populaire ou décriée, dès lors qu’elle répond aux caractéristiques techniques que requiert le système, elle en fait partie intégrante. La décision de la retirer ou de la modifier appartient à son seul créateur. De par sa neutralité, le réseau est ainsi doté de l’incroyable faculté d’accueillir en son sein une infinité d’innovations toutes plus différentes les unes des autres.

Neutralité et concurrence. Au total, les bâtisseurs jouissent, à part égale, d’une grande liberté d’action. Cette conjugaison de la liberté avec l’égalité est de nature à créer un terrain extrêmement fertile pour que se réalise une vive concurrence entre les architectes du réseau quant à la production d’innovations. Ne dit-on pas au sujet de la concurrence qu’elle est déloyale, et donc faussée, lorsque l’avantage dont bénéficie un opérateur sur ses concurrents procède d’un traitement différent dont il ferait l’objet par une entité extérieure au marché ? Assurément, aucune concurrence ne saurait exister – et encore moins être parfaite – lorsque des agents sont discriminés par rapports aux autres. La raison en est que, pour s’engager dans une compétition, quelle qu’elle soit, les opérateurs doivent être animés par la certitude, sinon le sentiment, d’avoir une chance de se positionner en bonne place sur le marché qu’ils convoitent. L’existence même de la concurrence dépend en grande partie de l’idée que se font les agents de gagner la compétition à laquelle ils décident de participer. Parce que le réseau est neutre, ses bâtisseurs n’ont jamais eu à douter de leurs chances de réussite dans le cyberespace. Ils pouvaient, de la sorte, entretenir l’espoir que le bénéfice qu’ils retireraient de leurs investissements serait, a minima, proportionnel aux efforts consentis. Immédiatement, une question se pose. Pourquoi les architectes du réseau ont-ils pu avoir une confiance si grande dans la neutralité du réseau ? Pour certains, les enjeux financiers étaient grands. Ces derniers étaient, certes, animés par le désir d’apporter leur pierre à l’édifice numérique. Cette entreprise comportait, cependant, une dimension matérielle qui ne saurait être négligée. D’où, la question de savoir, pour quelle raison les bâtisseurs de l’internet ont-ils eu le sentiment qu’ils étaient sur un pied d’égalité, et qu’ils participaient à une concurrence non faussée. Sans aucun doute, cela s’explique, en partie, par le fait qu’ils ne se voyaient pas que comme des concurrents, mais aussi comme des collaborateurs.

[1] S’agissant des révolutions scientifiques, Thomas Kuhn affirme que « une nouvelle théorie, quelque particulier soit son champ d’application, est rarement ou n’est jamais un simple accroissement de ce que l’on connaissait déjà. Son assimilation exige la reconstruction de la théorie antérieure et la réévaluation des faits antérieurs, processus intrinsèquement révolutionnaire qui est rarement réalisé par un seul homme et jamais du jour au lendemain » (T. Kuhn, La structure des révolutions scientifiques, Flammarion, coll. « Champs », 1999, p.24).

[2] V. supra, n°9 et s.

[3]Al. Gore, « Remarks prepared for delivery by Vice President Al Gore to the International Telecommunications Union Development Conference in Buenos Aires », Argentina on March 21, 1994, Washington D.C., Department of state, USIA, mars 1994.

[4] M. Chevalier, Lettres sur l’Amérique du Nord, Paris, éd. Gosselin, 1836, t. II, p. 3.

[5] V. en ce sens la pensée de Bertrand Barrère, député de la Convention et membre du Comité du salut public, qui s’est montré très enthousiaste face à l’émergence des nouveaux moyens de communication. A. Vandermonde, « Quatrième leçon d’économie politique », 23 ventôse/13 mars », in L’École normale de l’an III, éd. Nordman D., Paris, Dunod, 1994. Cité in A. Mattelart, « La communication et la promesse de rédemption », Quaderni, n°40, Hiver 1999-2000, p. 70.

[6] V. supra, n°23.

[7] V. supra, n°26 et s.

[8] V. supra, n°54.

[9] Pour avoir une idée du scepticisme ambiant qui régnait à cette époque au sein de l’ARPA, v. K. Hafner et M. Lyon, op. cit. note 21, p. 86.

[10] Comme l’explique David reed, « les différentes formes d’utilisations du réseau par ces applications étaient intéressantes en elles-mêmes. C’est pourquoi il nous semblait que nous ne pouvions pas présumer quoi que ce soit de la manière dont le réseau serait utilisé par les applications » (cité in L. Lessig, op. cit. note 22, p. 52).

[11] Ph. Breton, « Le rôle du contexte dans la genèse d’une innovation : (questions à propos de l’invention de l’ordinateur) », Réseaux, 1987, vol. 5, n°24. p. 64.

[12] J. Saltzer, D. Reed, et D. Clark, « End-to-End Arguments in System Design », Second International Conference on Distributed Computing Systems, avr. 1981, pp. 509-512, in ACM Transactions on Computer Systems, 1984, vol. 2, n°4, nov., pp. 277-288.

[13] L. Lessig, op. cit. note 22, pp. 45 et s.

[14] V. en ce sens B. Carpenter, Architectural Principles of the Internet, RFC 1958, 1996.

[15] Illustrer cette affirmation avec des exemples.

[16] Sur les conséquences du principe de neutralité v. notamment l’article devenu célèbre de Tim Wu, lequel est l’un des premiers auteurs à évoquer cette question sous l’angle de l’égalité et de la non-discrimination. T. Wu, « Network Neutrality, Broadband Discrimination », Journal of Telecommunications and High Technology Law, 2003, vol. 2, p. 141.

[17] V. en ce sens L. Lessig, Code and orther laws of cyberspace, Basic Books, 1999, pp. 3 et s ; B. Benhamou, « Organiser l’architecture de l’Internet », Revue Esprit, mai 2006, pp. 154-158.

[18] J. Licklider et R. Taylor, « The Computer as a communication Device », Science and Technology, avril 1968, réédité dans In Memoriam, 1990, p. 31.

[19] Ainsi Proudhon parle-t-il en terme de « pensée princière, gouvernementale du réseau étoilée », P.-J. Proudhon, œuvres complètes, t. XII, Librairie internationale, Paris, 1968, pp. 97 et 98, cité in P. Musso, « La raison du Réseau », Quaderni, n° 52, Automne 2003, Secret et pouvoir : les faux-semblants de la transparence. p. 62.

[20] V. en ce sens P. Musso, art. préc.

[21] V. en ce sens V. Serfaty, « L’Internet : fragments d’un discours utopique ». Communication et langages, n°119, 1er trimestre 1999. pp. 106-117.

[22] V. en ce sens P. Levy, « La montée vers la noosphère », Sociologie et sociétés, vol. 32, n° 2, 2000, p. 19-30.

[23] D’un point de vue étymologique, le terme neutralité vient du latin neuter, qui signifie « ni l’un ni l’autre », formé de ne, adverbe de négation, et uter, l’un des deux.

[24] V. Donier, « Les lois du service public : entre tradition et modernité », RFDA, nov.- déc. 2006 p. 1219 et s.

[25] Pour une analyse approfondie de ce principe de neutralité qui gouverne le réseau v. notamment, W. Maxwell et N. Curien, La neutralité d’Internet, La découverte, 2011.

[26] V. en ce sens J. Vallée pour qui « la vision d’origine était idéaliste : elle voulait libérer la créativité en étendant l’accès à l’information » (J. Vallée, op. cit. note 9, p. 23).

[27] L. Lessig, L’avenir des idées, op. cit. note 22, p. 48.

(0)

Le phénomène du cybersquatting. Si l’on tient compte de ces seuls textes et consignes données par l’ICANN aux registries et registrars, tout porte à croire que la création des noms de domaine est, exclusivement, régie par la règle du « premier arrivé premier servi ». Pourtant, l’application de cette règle est loin d’être aussi absolue, du moins depuis qu’est apparue une pratique qui consiste, pour certains agents du réseau, à exploiter la rareté des ressources dont est frappé l’espace de nommage. Cette pratique porte le nom le « cybersquatting ». Historiquement, un squatter était « un pionnier qui s’installait sans titre de propriété et sans payer de redevance sur les terres encore inexploitées de l’ouest »[1]. Cette définition illustre parfaitement la pratique du cybersquatting qui s’assimile en la réservation d’un nom de domaine en violation de droits antérieurs qui protègent un signe distinctif, telle une marque, un nom commercial, une enseigne ou encore une dénomination sociale. Profitant de la règle du premier arrivé premier servi, nombreux sont les internautes qui ont pu enregistrer un nom de domaine, tout en occupant illégalement l’espace de nommage. Cependant, deux catégories de cybersquatting doivent être distinguées. Alors que l’atteinte portée à certains signes distinctifs est le fruit d’une démarche frauduleuse, l’atteinte portée à d’autres est involontaire. L’une et l’autre démarche sont donc d’inégale gravité. Pour autant, comme le souligne un auteur, « la pratique démontre que c’est souvent l’existence de droits antérieurs qui pousse précisément certains individus sans scrupule à enregistrer un tel nom sur lequel ils n’ont aucun droit »[2]. Dans la grande majorité des cas, le cybersquatter n’entend pas utiliser le nom de domaine qu’il a enregistré. Son intention est toute autre. Il a seulement pour ambition de faire obstacle à la réalisation des droits relatifs à un signe distinctif par leur titulaire, afin de revendre le nom de domaine correspondant, moyennant un prix supérieur à celui des frais d’enregistrement. Le prix de revente peut parfois atteindre des sommets. En témoigne la transaction ayant porté sur le nom de domaine wallstreet.com, enregistré en 1994, pour 70 dollars, et revendu cinq ans plus tard pour un million de dollars.

La réaction des États. Certaines personnes ont trouvé dans cette pratique une activité extrêmement lucrative, au point de procéder à des dépôts massifs de noms de domaine. Certains sites web se sont même spécialisés dans ce créneau, proposant aux internautes des noms tels que « LaRedoute.com », « Lorealparis.com » ou encore « Lorealshampoo.com ». Cela n’est pas tout, peu à peu s’est développée sur l’espace de nommage une variante au cybersquatting appelée « typosquatting ». Cette variante consiste en l’enregistrement d’un nom de domaine proche typographiquement d’un autre nom de domaine. Le typosquatter espère, dans cette perspective, détourner le trafic du site officiel, afin de générer d’importantes recettes publicitaires sur son propre site. Le célèbre site « yahoo.com », par exemple, a été l’une des premières victimes de cette nouvelle pratique. Un individu, dont la malveillance ne fait aucun doute, a enregistré trente-sept noms de domaine se rapprochant du sien, tels que « ayahoo.com », « cayahoo.com » ou encore « kyahoo.com ». Prenant conscience de l’ampleur du phénomène engendré par le cybersquatting et ses variantes, le gouvernement américain s’est décidé, en août 1999, à endiguer ces pratiques en adoptant le Anti-Cybersquatting Consumer Protection Act. Ce texte offre la possibilité à tout ayant droit, victime d’un cybersquatage, d’exiger jusqu’à 100 000 dollars de dommages et intérêt en réparation d’un enregistrement abusif. En France, à défaut de disposer d’une telle législation[3], les juges n’ont pas hésité à qualifier le cybersquatting de « racket »[4] et de chercher à l’appréhender soit par l’entremise du droit des marques[5], soit en recourant au concept de concurrence déloyale[6]. Mais peu importe, pour ce qui nous concerne, la réponse apportée par les instances des différents États à ce phénomène qu’est le cybersquatting. Le fait est que chaque fois qu’une juridiction nationale constate l’atteinte portée à un signe distinctif qui bénéficie de quelque protection juridique que ce soit, l’application de la règle du « premier arrivé, premier servi » s’en trouve systématiquement écartée. Doit-on s’en réjouir ? Doit-on le déplorer ? Là n’est pas le sujet.

L’adoption par l’ICANN de la procédure UDRP. Ce sur quoi il faut, en revanche, focaliser toute notre attention c’est sur le fait que lorsque pareille décision est prononcée, elle ne saurait, techniquement, être mise en œuvre sans que l’ICANN y consente. Si elle s’y opposait, il lui suffirait d’enjoindre le registrar concerné de ne pas procéder au transfert du nom de domaine, objet de la décision. Sauf que, tel ne sera jamais le cas ; et pour cause. Comment l’ICANN pourrait-elle oublier qu’elle doit son statut, ses pouvoirs, son existence à un compromis auquel sont parvenus les membres de la communauté internationale ? Jamais l’ICANN ne s’avisera, par conséquent, de faire obstacle à l’application du droit des États. D’ailleurs, plus que consentir à ce que le droit prévale sur la règle du « premier arrivé, premier servi » et donc sur l’ordre numérique, l’ICANN va, d’une certaine manière, lui donner la portée qu’il ne peut avoir à lui-seul sur l’espace de nommage en s’en faisant le relais. Comment l’ICANN s’y prend-elle ? En offrant la possibilité à quiconque conteste l’enregistrement d’un nom de domaine par un tiers, d’actionner un mécanisme de résolution des conflits, connu sous le nom d’Uniform Domain Name Dispute Resolution Policy (UDRP). Ce mécanisme a l’avantage de permettre à celui qui y recourt, de surmonter les difficultés, tant juridiques, que pratiques, liées à l’élément d’extranéité que comporte très certainement le litige qui l’oppose au titulaire du nom de domaine dont il revendique l’usage. Dès lors que la décision dont bénéficierait le requérant doit être exécutée dans un autre État que celui de la juridiction saisie, il ne pourra faire valoir ses droits que par le biais d’un exequatur. Or cette entreprise se révèle peu aisée. D’où l’intérêt de s’engager dans la voie de la procédure UDRP laquelle – et c’est là son principal intérêt – se traduira, si elle aboutit, par le prononcé d’une décision immédiatement exécutoire[7] et aussitôt appliquée par le registrar qui a enregistré le nom de domaine litigieux. La procédure UDRP apparaît, de la sorte, comme ayant vocation à satisfaire des demandes auxquelles les États sont susceptibles d’éprouver les pires difficultés pour y répondre. Cette procédure apparaît alors, si l’on peut dire, comme une véritable bénédiction pour les titulaires de signes distinctifs, sans compter que son élaboration s’est faite moins à la lumière de la règle du « premier arrivé, premier servi », que du droit des marques.

La reconstitution d’un droit des marques. D’une part, la procédure UDRP est en grande partie le fruit du travail de l’Organisation Mondiale de la Propriété Intellectuelle (OMPI). Or la mission de celle-ci est de promouvoir la protection de la propriété intellectuelle dans le monde et d’assurer l’administration des différents instruments internationaux tels que l’arrangement de Madrid signé en 1 881 relatif à l’enregistrement international des marques, l’arrangement du Nice du 15 juin 1957 instituant la classification internationale des marques ou encore le traité sur le droit des marques conclu à Genève le 27 octobre 1994. D’autre part, si l’on s’intéresse aux principes directeurs qui gouvernent cette procédure, leur proximité avec le droit des marques est pour le moins troublante. L’article 4 a) du document approuvé par l’ICANN le 24 octobre 1999 et appliqué à compter du 1er décembre de la même année, énonce, qu’il ne pourra être fait droit à la demande des requérants que s’il est prouvé cumulativement que, tout d’abord, « le nom de domaine est identique ou semblable au point de prêter à confusion avec une marque de produits ou de services sur laquelle le requérant a des droits », ensuite que, « le déposant n’a aucun droit ni aucun intérêt légitime à l’égard du nom de domaine », enfin que « le nom de domaine a été enregistré ou utilisé de mauvaise foi ». Les termes utilisés ici sont, de toute évidence, très proches de ceux employés dans les conventions internationales protégées par l’OMPI : « identique », « semblable », « confusion », « déposant ». Autant de notions qui ne sont pas sans rappeler le droit des marques. Comme le souligne, à ce propos, Fabien Gélinas « nous retrouvons […] un système qui, par le biais d’un mécanisme prétorien sommaire, tend à harmoniser – par l’aplanissement et l’approximation – les notions aussi éparses que complexes entourant le droit des marques dans les droits nationaux »[8]. D’autres auteurs n’hésitent pas à affirmer que certes « il ne s’agit pas de droit des marques, mais la relation est permanente avec ce droit »[9]. Bien que les principes directeurs de la procédure UDRP aient leur logique propre, l’ICANN n’en a pas moins tenté de reconstituer, à travers eux, une protection qui bénéficie aux titulaires de signes distinctifs, ce, dans le dessein de pallier la protection que ne peuvent pas leur assurer les États sur l’espace de nommage.

Une extension du droit des marques. Si ces derniers ont toutes les raisons de se réjouir de cette déférence que porte l’ICANN à leur égard, les internautes ont, quant à eux, autant de raisons de s’en indigner. En prenant l’initiative de transposer le droit des marques dans l’univers numérique, l’administrateur du DNS s’est, en effet, délibérément autorisé à rompre avec le principe de neutralité du système d’adressage alphanumérique, dans la mesure où il a octroyé aux titulaires de signes distinctifs une sorte de droit de préemption sur les noms de domaine. En apparence, ce droit de préemption semble être totalement justifié, compte tenu de l’intention malveillante dont peuvent être animés certains agents. Toutefois, si l’on se place du point de vue du plus grand nombre, « ce droit » est loin d’être aussi légitime qu’il y paraît. Tout d’abord, il pourrait être objecté à son encontre que son exercice est de nature à faire fi de la négligence dont se rend, d’une certaine façon, coupable le titulaire de marque qui n’a pas procédé, promptement, et avec diligence, aux formalités d’enregistrement du nom de domaine litigieux. Ensuite, pourquoi ne pas exiger de celui qui revendique un nom de domaine, qu’il remplisse exactement les mêmes conditions que la personne physique ou morale qui se verra reconnaître des droits sur une marque, à savoir qu’il satisfasse à l’exigence d’enregistrement[10] ? En ne faisant pas de cet enregistrement du nom de domaine une condition de son attribution, l’ICANN étend, en conséquence, la protection du droit des marques au-delà de ce qu’elle est dans le monde physique puisque, abstraction faite des marques notoires[11], une marque non enregistrée est un signe distinctif sur lequel on ne saurait, a priori, exercer aucun droit. Tel n’est, cependant, pas le cas pour les noms de domaine dont les titulaires de marques peuvent demander l’attribution sans, pour autant, les avoir enregistrés les premiers. Enfin, et c’est sur ce point en particulier que le droit de préemption qui bénéficie à quelques-uns se révèle être le plus contestable et contesté – même en dehors de l’hypothèse du cybersquatting – l’application des principes directeurs de la procédure UDRP conduit à traiter les titulaires de signes distinctifs de façon privilégiée par rapport aux autres internautes.

La fin de la règle du premier arrivé, premier servi. Prenons, à tire d’illustration, l’exemple cité par Milton Mueller du nom « Ford »[12]. Dans le monde physique, ce nom peut, de droit, être porté, tant par un constructeur de voitures, que par un particulier, un acteur célèbre ou encore un garage automobile. Dans l’univers numérique, s’il est vrai que le système DNS compte, à l’heure actuelle, près de trois cents TLD, il en est en réalité à peine une demi-douzaine à être prise d’assaut par les internautes. Il s’ensuit que tous ceux qui, pour des raisons tout aussi valables les unes que les autres, voudront utiliser le nom Ford comme identifiant sur l’espace de nommage ne le pourront pas. Uniquement l’un d’entre eux se verra reconnaître le droit d’occuper le si convoité « .com ». De la même manière, les domaines nationaux de premier niveau – les fameux ccTLD – ne peuvent offrir qu’à un seul agent la possibilité d’exploiter le nom qu’ils sont pourtant une multitude à porter. Dans ces conditions, comment les départager ? Il n’est, semble-t-il, aucun de ceux qui portent le nom Ford qui soit plus légitime que les autres à occuper le nom de domaine « ford.com », « ford.net » ou bien encore « ford.fr ». C’est la raison pour laquelle, la seule règle qui préside à l’attribution du nom de domaine convoité par plusieurs agents devrait être la règle du « premier arrivé, premier servi », soit celle dont est porteur le principe de neutralité, principe par lequel était jadis gouverné le système d’adressage alphanumérique. Avec l’instauration de la procédure UDRP, il n’en est rien. La règle qui a vocation à s’appliquer n’est autre que celle tirée du droit des marques. Au terme de la procédure instituée par l’ICANN, c’est donc le titulaire de la marque Ford qui sera désigné comme le seul bénéficiaire du nom de domaine afférent à ce nom. En témoigne l’étude réalisée par Milton Mueller qui relève que, très majoritairement, ce sont les titulaires de signes distinctifs qui gagnent contre les détenteurs de noms de domaine dans le cadre de la procédure UDRP[13]. Cela n’est, en aucune manière, surprenant dans la mesure où cette procédure consiste à faire une application quasi-mécanique du droit des marques sur l’espace de nommage.

Le risque de fragmentation de l’espace de nommage. Ainsi, l’ICANN a-t-elle décidé, de son propre chef, que la règle du « premier arrivé, premier servi » devait être écartée toutes les fois que le titulaire d’une marque revendiquerait un nom de domaine litigieux. Voici une mesure qui est de nature à mettre fortement à mal la neutralité du système de nommage ; d’où l’existence d’une certaine inégalité entre les internautes. La procédure UDRP conduit inéluctablement à conférer plus de droits aux titulaires de marques qu’à ceux qui n’ont procédé à l’enregistrement d’aucun signe distinctif. Il faut ajouter, en outre, que sur certains domaines de premier niveau, l’ICANN a institué un dispositif accordant la priorité à l’enregistrement pour les titulaires de signes distinctifs, ce qui n’est pas sans créer une rupture d’égalité entre les agents[14]. En menant pareille politique de gouvernance sur l’espace de nommage, l’ICANN s’est, indubitablement, éloignée de la ligne sur laquelle se trouvaient les membres de la communauté numérique à l’époque du fichier hosts.txt. Et s’il en est certains pour se féliciter de cette nouvelle orientation que prend la gouvernance des noms de domaine, il ne saurait être occulté par eux qu’il est un risque que cette orientation porte directement atteinte à un autre principe qui gouverne le système d’adressage alphanumérique : le principe d’unité. En réaction à l’accaparement auquel s’adonnent les titulaires de marques sur l’espace de nommage en violation de la règle du « premier arrivé, premier servi », soit ce que l’on appelle plus couramment le Reverse Domain Name Hijacking[15], des internautes pourraient, en effet, être tentés de recréer leur propre système d’adressage logique[16]. On verrait alors la racine du DNS être dupliquée. Sans qu’il soit besoin d’entrer dans les détails techniques, concrètement, si un tel projet était mené à bien, cela conduirait à empêcher les internautes qui appartiennent à deux espaces de nommage différents de communiquer entre eux. L’espace de nommage actuel s’en trouverait fragmenté, ce qui reviendrait à faire passer l’internet de l’état de réseau de réseaux à celui de réseau parmi les réseaux. Ce serait là un retour à l’époque où gravitaient, autour du réseau NSFNet, une multitude de réseaux sans qu’ils y soient, pour autant, raccordés. Évidemment, la réalisation de pareil scénario relève de la pure spéculation. Il n’en demeure pas moins qu’il est, aujourd’hui, un pays, la Chine, où réside pas moins d’un quart du nombre total d’internautes. Or cette nation s’est dotée de son propre système DNS avec toutes les conséquences que cela implique. La fragmentation de l’espace de nommage est de la sorte déjà entamée.

[1] Dictionnaire du Centre Nationale de Ressources Textuelles et Lexicales. Disponible sur : http://www.cnrtl.fr/lexicographie/squatter.

[2] L. Rapp, « Des pratiques ouvertement frauduleuses : le cybersquattage » in Droit de l’informatique et des réseaux, Lamy, 2013, n° 2055.

[3] Exception faite, désormais, du domaine de premier niveau « .fr ». L’article L. 45-2 du Code des postes et communications électroniques dispose que l’enregistrement d’un nom de domaine sur cette zone de l’espace de nommage peut être refusé lorsqu’« il est susceptible de porter atteinte à des droits de propriété intellectuelle ou de la personnalité sauf si le demandeur justifie d’un intérêt légitime et agit de bonne foi ».

[4] TGI Paris, 25 avril 1997, aff. « Framatome », JCP éd. E 1999, I, p. 954, obs. Vivant et Le Stanc.

[5] Ord. 22 juillet 1996 aff. Sapeso-Atlantel contre Icare, gaz. pal. 13 au 15 avril 1997.

[6] Cass. com., 7 juil. 2004 ; Bull. civ. 2004, IV, n° 149 ; CCE, 2004, comm. 111, obs. C. Caron ; Dalloz. 2004, p. 2151, obs. C. Manara.

[7] La décision prise, à l’issue de la procédure UDRP, peut-elle être qualifiée, d’arbitrale ? La question a pu se poser, dans la mesure où il s’agit d’un mode de règlement extrajudiciaire des litiges. Cela lui confère-t-il pour autant automatiquement pareille qualité ? Naturellement non. La Cour d’appel de Paris a, d’ailleurs, eu l’occasion de se prononcer sur cette question dans un arrêt du 17 juin 2004 (CA Paris, 1re ch., 17 juin 2004 : CCE, mars 2005, p. 31, obs. C. Caron ; Rev. Lamy Dr aff. déc. 2004, n° 77 ; JCP G, 2004, II, 10 156, note Chabot). Cette décision ne laisse, manifestement pas de place à l’ambiguïté. Les juges parisiens estiment que la procédure de règlement des litiges proposée par l’ICANN ne saurait s’apparenter à un arbitrage.

[8] F. Gélinas, « UDRP : Utopie de la Décision Rapide et Pondérée ou Univers du Droit Réduit au

Pragmatisme ? », in V. Gautrais (dir.), Droit du commerce électronique, Montréal, Thémis, 2002, p. 602.

[9] L. Rapp, art. préc., n° 2109.

[10] Article L. 712-1 du Code de la propriété intellectuelle.

[11] V. en ce sens l’article L. 711-4, a) du Code de la propriété intellectuelle qui confère aux marques notoires une protection juridique au-delà du principe de spécialité.

[12] M. Mueller, op. cit. note 56, p. 234.

[13] M. Mueller, « Rough Justice, An Analysis of ICANN’s Uniform Dispute Resolution Policy », The informing society, forthcoming 2001. Disponible sur : dcc. syr.edu/PDF/roughjustice.pdf‎.

[14] Pour une critique de ce statut privilégié accordé aux titulaires de signes distinctifs V. C. Manara, op. cit. note 65, pp. 99 et s.

[15] V. en ce sens, pour une analyse de ce phénomène qui se développe et de ses conséquences juridiques, N. Dreyfus, « Appréciation de la notion de reverse domain name hijacking », Propriété industrielle, oct. 2011, n° 10, p. 3 ; R. Milchior, « Marques et noms de domaine : de quelques problèmes actuels », Revue Lamy droit de l’immatériel, août 2001, n° 139, pp. 2-13.

[16] De nombreuses tentatives ont été effectuées en ce sens. À ce jour, elles ont cependant toutes échoué. Peut être évoquée la création des racines alternatives que sont Name.Space, OpenNIC ou encore Unifiedroot.

(0)

Le statut du tisseur de liens. Pas de liberté sans responsabilité : telle est la règle qui, grosso modo, dans le monde physique, s’applique aux agents. Ainsi, en droit civil français, existe-t-il un principe fondamental selon lequel « tout fait quelconque de l’homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer »[1]. De la même façon, en droit pénal tout fait qui tombe sous le coup d’une incrimination textuelle engage la responsabilité de celui qui est à l’origine de ce fait[2]. Qu’en est-il de la responsabilité des tisseurs de liens lesquels jouissent, dans l’univers numérique, d’une liberté relativement étendue ? S’il n’eût existé en droit positif que les deux principes sus-énoncés, point ne serait besoin de se questionner sur le fondement juridique susceptible d’être utilisé quant à engager la responsabilité des bâtisseurs du web. Cela est, cependant, sans compter sur le législateur qui, au fil des années, a jugé bon de multiplier, par touches successives, le nombre de régimes spéciaux, de sorte que, de plus en plus d’acteurs de la vie économique, ont vu leur responsabilité aménagée[3]. Pour ce qui nous concerne, afin que soit instauré un climat de confiance dans l’économie numérique, certains de ses acteurs n’y ont pas échappé ou plutôt, devrait-on dire, en ont bénéficié. Si, en effet, il est des régimes spéciaux qui tendent à renforcer la responsabilité de certains[4], il en est d’autres qui, à l’opposé, les en exonèrent totalement[5] ou partiellement[6]. Par chance, pour ceux que l’on désigne sous le qualificatif d’intermédiaire technique, leur situation se rapproche plus de la seconde option que de la première. Le législateur a fait preuve d’une immense mansuétude à leur égard. Le régime de responsabilité qui s’applique à eux a été considérablement allégé. D’où, l’intérêt de s’interroger sur la qualité exacte des tisseurs de liens. Concrètement, trois catégories d’intermédiaires techniques se sont vues attirer les faveurs du législateur. Transposant la directive européenne du 8 juin 2000 sur le commerce électronique[7], la loi du 21 juin 2004, dite pour la confiance dans l’économie numérique (LCEN)[8], a posé un principe d’irresponsabilité, assorti de quelques tempéraments pour les hébergeurs d’une part, et pour les prestataires de stockage temporaire ainsi que les fournisseurs d’accès à l’internet, d’autre part. Les tisseurs de liens endossent-ils l’une de ces trois qualités ? C’est ce qu’il nous faut déterminer.

La question de la qualification d’intermédiaire technique. S’agissant de la qualité d’hébergeur, elle bénéficie, selon l’article L. 6-I-2 de la loi du 21 juin 2004, aux « personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d’écrits, d’images, de sons ou de messages de toute nature fournis par des destinataires de ces services ». Tel n’est, manifestement, pas l’objet de l’activité à laquelle s’adonnent les tisseurs de liens hypertextes. Comme le souligne Cyril Rojinsky, ces agents n’hébergent « d’aucune manière que ce soit le site cible vers lequel ils pointent, en ce sens qu’ils ne stockent pas les informations fournies par l’éditeur du site cible »[9]. Il en résulte que les créateurs de liens ne sauraient être assimilés à des hébergeurs et donc bénéficier de leur régime de responsabilité. Quant à la qualité de prestataire de stockage temporaire, l’article L. 32-3-4 du Code des postes et communications électroniques dispose que cette qualité peut être prêtée à « toute personne assurant dans le seul but de rendre plus efficace leur transmission ultérieure, une activité de stockage automatique, intermédiaire et temporaire des contenus qu’un prestataire transmet ». Le même argument que pour les hébergeurs peut ici être formulé. La tâche des tisseurs de liens ne consiste pas à stocker des informations, mais à les relier les unes aux autres. Dans ces conditions, ils ne peuvent pas rentrer dans cette catégorie d’intermédiaire technique pour qui le législateur a concocté un régime de responsabilité substantiellement allégé. Reste à examiner le cas des fournisseurs d’accès à l’internet, dont on peut se demander si leur fonction ne se recoupe pas, éventuellement, avec celle des créateurs de liens hypertextes. Alors que les premiers ont pour finalité, selon les termes de l’article L. 32-3-3 du Code des postes et communications électroniques, d’assurer la « transmission de contenus sur un réseau de communications électroniques ou de fourniture d’accès à un réseau de communications électroniques », les seconds jouent également, d’une certaine manière, ce rôle de transporteur dans la mesure où ils permettent aux internautes d’importer, de pages web distantes, n’importe quelle sorte de ressource. En outre, il ne serait pas déraisonnable de soutenir que, pareillement aux fournisseurs d’accès, les tisseurs de la toile offrent, indirectement, à ceux qui activent les liens, un accès à des services de communication en ligne.

L’existence d’un vide juridique. Pour frappantes que soient ces ressemblances entre les fonctions exercées par ces deux catégories d’opérateurs techniques, trop de dissemblances les séparent malgré tout, à commencer par les conditions que doivent remplir les fournisseurs d’accès à l’internet pour bénéficier du régime d’irresponsabilité prévu par le législateur. Selon l’article L. 32-3-3 du Code des postes et communications électroniques, pour que ces derniers profitent d’une exonération totale de responsabilité, ils ne doivent, ni être à l’origine de la demande de transmission litigieuse, ni avoir sélectionné le destinataire de la transmission, ni enfin avoir sélectionné et modifié les informations faisant l’objet de la transmission. Les créateurs de liens ne remplissent pas de telles conditions. La raison en est que, « en choisissant de manière manuelle ou automatisée les sites vers lesquels ils renvoient leurs visiteurs on peut estimer qu’ils sélectionnent […] les informations faisant l’objet d’une transmission »[10]. Il s’ensuit que les tisseurs de liens hypertextes ne peuvent se voir appliquer aucun des régimes de responsabilité qui bénéficient aux intermédiaires techniques. C’est donc un sentiment de vide juridique qui nous est laissé. Déjà, lors de l’adoption de la directive du 8 juin 2000 sur le commerce électronique, le débat sur la responsabilité des fournisseurs de liens hypertextes n’avait pas eu lieu. À l’époque, les instances communautaires ont préféré se concentrer sur la responsabilité des hébergeurs et des fournisseurs d’accès, plutôt que sur celle des créateurs de liens hypertextes. L’examen du régime juridique les concernant a été reporté[11]. Dix ans plus tard, rien n’a, cependant, encore été tranché, ni même réellement discuté. Et, s’il est des États membres[12] qui ont opté pour une limitation de la responsabilité des tisseurs de liens, il en est d’autres, comme la France, qui ne se sont pas encore décidés. Bien que surprenante puisse paraître cette absence d’harmonisation entre les États membres de l’Union européenne, cette situation n’est pour l’heure pas prête de bouger. En France c’est donc le droit commun qui a vocation à s’appliquer aux tisseurs de liens. Leur responsabilité peut, d’abord, être recherchée pour le fait même de pointer vers une ressource tierce, ensuite pour la manière de lier deux pages web entre elles et, enfin, pour l’illicéité de la ressource vers laquelle il est renvoyé.

Liberté de tissage et droit d’auteur. Pour ce qui est de la première hypothèse, il faut avoir à l’esprit que la fonction d’un lien hypertexte est de renvoyer vers une page web déterminée. Ce renvoi permet à celui qui active le lien d’accéder à une ressource immatérielle dont l’utilisation peut être protégée par des droits de propriété intellectuelle[13]. Partant, on peut légitimement se demander si la création de tels liens, ne porterait pas atteinte au monopole d’exploitation dont sont investis les administrateurs de la page web vers laquelle il est pointé. Si cette interrogation ne semble pas réellement se poser s’agissant d’un simple renvoi vers une page web où est légalement reproduite une marque, en ce que la contrefaçon de celle-ci ne saurait être caractérisée que s’il est porté atteinte à sa fonction[14], plus délicate est la question du renvoi vers un site internet sur lequel est mise en ligne une création intellectuelle protégée par le droit de la propriété littéraire et artistique. Conformément à l’article L. 111-1 alinéa 1er du Code de la propriété intellectuelle, l’auteur d’une œuvre de l’esprit jouit « sur cette œuvre, du seul fait de sa création, d’un droit de propriété incorporelle exclusif et opposable à tous ». La seule communication au public d’une œuvre suppose que soit, expressément, et par écrit[15], donnée l’autorisation de son créateur[16]. Si, dès lors, on tend à considérer que la création d’un lien hypertexte pointant vers une œuvre de l’esprit se confond avec la notion d’exploitation au sens où l’entend le droit de la propriété littéraire et artistique, les tisseurs de liens peuvent, dans le cas où ils ne solliciteraient pas le consentement du titulaire des droits intellectuels, être qualifiés de contrefacteurs. À l’évidence, loin d’être satisfaisante est une telle situation dans la mesure où, de la création des liens hypertextes, dépend le développement du web. Restreindre substantiellement la liberté de lier des tisseurs de liens, en leur imposant de solliciter systématiquement l’autorisation des auteurs des œuvres ciblées, reviendrait à menacer l’existence même de la toile[17]. Christophe Carron le concède très volontiers en affirmant que « si chaque lien devait constituer […] une contrefaçon, c’est tout le système de l’internet qui pourrait être remis en cause »[18]. Les auteurs étant unanimes sur ce constat, il convient de s’employer à mesurer le degré de compatibilité de la liberté de lier avec le droit d’auteur, afin de savoir s’il est une conciliation possible entre les deux.

Le droit de reproduction. Comment y parvenir ? Il nous suffit de comparer le mécanisme d’activation des liens hypertextes aux modes d’exploitation des œuvres de l’esprit. Préalablement à l’établissement de toute comparaison, il est, toutefois, nécessaire de préciser que ce monopole d’exploitation consenti par la loi aux auteurs se compose d’un droit de reproduction et d’un droit de représentation[19]. C’est à la lumière de ces deux prérogatives intellectuelles qu’il pourra être déterminé l’étendue de la liberté des tisseurs de liens. S’agissant de l’acte de reproduction tout d’abord, il est défini à l’article L. 122-3 du Code de la propriété intellectuelle comme « la fixation matérielle de l’œuvre par tous procédés qui permettent de la communiquer au public d’une manière indirecte ». Confrontée à l’acte de création d’un lien hypertexte, cette disposition paraît ne pas pouvoir s’y appliquer ; à aucun moment le tisseur de liens ne s’adonne à une quelconque reproduction de l’œuvre vers laquelle il renvoie. La seule fixation qui peut lui être reprochée est, à la rigueur, celle de l’URL de la page web visée[20]. La liberté de tissage dont il jouit ne semble, de ce fait, en aucune manière porter atteinte au droit exclusif de reproduction des auteurs[21]. Certains avancent, néanmoins, que le copiste n’est pas nécessairement celui qui, matériellement, effectue l’acte de copie proprement dit. Selon cette théorie, toute personne qui, sciemment, met à disposition du public les moyens de reproduire une œuvre de l’esprit peut se voir qualifier de contrefacteur. Telle a été la solution dégagée par la première chambre civile de la Cour de cassation dans le célèbre arrêt Rannou-Graphie rendue le 7 mars 1984[22]. Les juges ont estimé, à propos d’une officine de photocopie, qu’elle s’était livrée à un acte de contrefaçon par reproduction en mettant à disposition de ses clients des moyens leur permettant de porter atteinte au droit d’auteur impunément[23]. Bien que très séduisante puisse, à maints égards, être cette théorie, elle n’est, en aucun cas, susceptible de s’appliquer aux tisseurs de liens.

L’exception de reproduction provisoire. En créant un lien hypertexte qui pointe vers une œuvre de l’esprit, son fournisseur ne met nullement à disposition du public un moyen de la reproduire. Il en facilite seulement l’accès. Un lien hypertexte n’est qu’un chemin qui relie deux ressources du réseau entre elles. S’il est, par conséquent, une reproduction de la page web vers laquelle il est renvoyé, jamais elle ne saurait être le fait de l’activation du lien. Tout au plus, « le site liant […] agit comme une passerelle permettant la fixation des contenus »[24]. Lorsque les pages web d’un site internet sont visitées, leur nécessaire reproduction provisoire dans la mémoire vive de l’ordinateur à partir duquel elles sont consultées[25] est réalisée, non pas par le lien hypertexte qui pointe vers elles, mais par la machine de l’internaute qui l’a activé. Outre cet argument, s’ajoute la constatation selon laquelle, quand bien même l’activation d’un lien hypertexte aurait pour effet de reproduire le contenu protégé vers lequel il renvoie, cette reproduction, droit exclusif de l’auteur[26], tombe sous le coup de l’exception de reproduction provisoire introduite par la directive sur la société de l’information du 22 mai 2001[27]. Selon cette exception, l’auteur d’une œuvre divulguée ne peut pas empêcher sa reproduction provisoire, à condition que cette reproduction ait un « caractère transitoire ou accessoire », qu’elle soit « partie essentielle et intégrante d’un procédé technique », qu’elle ait « pour unique objet de permettre l’utilisation licite de l’œuvre ou sa transmission entre tiers par la voie d’un réseau faisant appel à un intermédiaire » et, enfin, qu’elle n’ait pas « de valeur économique propre » [28]. Parce que cette exception a, en partie, été pensée pour bénéficier aux internautes qui consultent une page web sur laquelle est présente une œuvre de l’esprit[29], elle doit profiter également, sans distinction, à ceux qui accèdent au même contenu par le biais d’un lien hypertexte. Grâce à cette exception, les tisseurs de liens semblent être immunisés contre une éventuelle action en contrefaçon, ce d’autant plus qu’il sera peu aisé de prouver que la reproduction du contenu protégé est le fait de l’activation d’un lien. Si la liberté de lier des tisseurs de liens apparaît comme pouvant parfaitement être combinée avec le droit de reproduction des auteurs, rien n’est moins sûr s’agissant de leur droit de représentation.

Le droit de représentation. En vertu de L. 122-2 du Code de la propriété intellectuelle, la représentation est définie comme « la communication de l’œuvre au public par un procédé quelconque […] ». Or n’est-ce pas là la fonction d’un lien hypertexte que de mettre à disposition du public le contenu auquel il renvoie ? Il n’est, dans cette perspective, pas illégitime de s’interroger sur la question de savoir si l’activation d’un lien ne pourrait pas être assimilée en une sorte de communication au public de la ressource vers laquelle il est pointé. Au soutien de cette thèse, certains avancent qu’un lien peut être comparé à un relais et que, à ce titre, au regard du concept de représentation, celui qui en exerce le contrôle s’apparente à un exploitant. C’est précisément de cette qualification-ci qu’a été affublé, par la première chambre civile de la Cour de cassation[30], le gérant d’un hôtel, qui mettait à disposition de ses clients des récepteurs de télévision reliés par câble aux programmes diffusés par satellite. Dans cette affaire, dite CNN, les juges ont estimé que l’acte de représentation était bien caractérisé « dès lors que l’ensemble des clients de l’hôtel, bien que chacun occupe à titre privé une chambre individuelle, constitue un public à qui l’hôtelier transmet les programmes dans l’exercice et pour les besoins de son commerce ». Par analogie avec cette décision, il pourrait être soutenu que le tisseur de liens hypertextes procède également à un acte de représentation, en communiquant au public que forment les internautes, le contenu auquel il renvoie. À la différence néanmoins de l’hôtelier, le tisseur de liens a face à lui un seul et même public qui ne change pas. C’est là toute la différence. Il ne saurait, en effet, être porté atteinte au droit de représentation d’un auteur que si son œuvre est communiquée à un public autre que celui déjà visé par ce dernier. Comme le souligne Philippe Gaudrat, « le poseur de lien n’étend pas le public. La conception même du réseau fait que le public des œuvres mises en ligne sur internet est un public unique et réellement universel »[31]. Dès lors, il ne saurait être soutenu que la communication d’une œuvre de l’esprit par le biais d’un lien hypertexte vise un nouveau public : à partir du moment où elle est en ligne, cette dernière est susceptible d’être contemplée par l’ensemble des utilisateurs qui sillonnent l’univers numérique[32].

La communication d’une œuvre contrefaisante. Le tisseur de liens ne porte aucunement atteinte au droit de représentation des auteurs, ce d’autant plus que si communication au public il y a, elle doit s’effectuer de manière directe[33]. Or exception faite des liens hypertextes automatiques[34], tel n’est pas le cas des liens traditionnels, qui n’ont pour seule fonction que de faciliter l’accès de l’œuvre vers laquelle ils pointent. En d’autres termes, « la mise en ligne du contenu d’un site est décidée par le propriétaire de celui-ci et la création de tout hyperlien ne fait que prolonger l’acte initial de la mise à disposition du public »[35]. L’acte de création d’un lien hypertexte doit donc être considéré comme indépendant de l’acte de communication au public. Sans ce lien, le contenu vers lequel il est renvoyé serait tout autant accessible à quiconque dispose d’un accès internet, à condition d’en connaître l’URL. En informant l’internaute de l’existence de l’adresse du site cible, l’hyperlien joue, ni plus, ni moins le rôle d’une note de bas de page. En somme, « le fournisseur du lien, comme l’expression l’indique, fournit le lien… et non le contenu auquel il renvoie »[36]. Finalement, eu égard à tout ce qui précède, le monopole d’exploitation des auteurs apparaît comme étant compatible avec la liberté de lier dont jouissent les tisseurs de liens. Telle est la conclusion à laquelle est arrivé le forum des droits sur l’internet en affirmant qu’« au regard de la mise en œuvre des droits patrimoniaux » le principe doit être « la liberté de lier dans le respect du droit des tiers » [37]. À ne pas s’y méprendre, cependant. Aussi libres de lier soient les fournisseurs de liens, la frontière qui les tient à l’écart du giron du droit d’auteur est pour le moins ténue. Comme le souligne Christophe Caron, ces derniers sont placés, « non pas dans une prison juridique, mais dans un régime de liberté surveillée […] »[38]. C’est la raison pour laquelle les tisseurs de liens ne sont pas totalement à l’abri de voir leur responsabilité engagée pour ce qui est du principe même de pointer vers une ressource tierce. Il est, par exemple, un cas, où leur responsabilité sera susceptible d’être recherchée en raison d’une atteinte portée au droit d’auteur : la mise à disposition d’un contenu illicite. C’est l’hypothèse d’un lien hypertexte qui renvoie vers un site web sur lequel sont mis en ligne des fichiers illégaux (musique, films, jeux vidéos, etc.). Or les articles L. 335-2 et L. 335-4 du Code de la propriété intellectuelle assimilent précisément la mise à dispositions de copies contrefaisantes à de la contrefaçon. Certains tribunaux ont sanctionné, pour contrefaçon – même s’il s’agit plus, en réalité, de complicité – les auteurs de tels liens[39]. D’autres, en revanche, se refusent de voir dans leur création un acte de contrefaçon[40]. D’autres encore avancent qu’il s’agit là plutôt d’un acte en concurrence déloyale[41]. En définitive, il ressort de l’ensemble des décisions rendues par la jurisprudence que la responsabilité des tisseurs de liens du fait d’un renvoi vers une ressource protégée par le droit d’auteur peut difficilement être engagée. Ce constat vaut-il également s’agissant de la manière de tisser la toile ?

La problématique des liens profonds. De quels liens hypertextes parle-t-on lorsque l’on évoque la manière de pointer ? Ce sont surtout les liens profonds que nous visons. Lorsqu’un tel lien est créé, cela suppose que, pour accéder à la ressource cible, les internautes ne passent pas par la page d’accueil du site internet vers lequel il est renvoyé. Il est, dès lors, des risques qu’il soit causé un préjudice à l’administrateur dudit site, non pas du fait de l’existence même de ce lien, mais du fait de la manière dont ce lien a été confectionné. La question qui se pose au juriste n’est pas de savoir si le tisseur de liens doit ou non obtenir l’autorisation de l’auteur du contenu vers lequel il est pointé, mais quelles diligences doivent être prises afin qu’il ne soit pas nui au fonctionnement du site lié. Le premier risque susceptible d’être généré par l’établissement d’un lien profond réside dans l’ambigüité sous-jacente qui découle de sa création. Lorsqu’il est renvoyé vers une page web dont l’interface graphique ne permet pas de la différencier de la page web sur laquelle le lien est édité, il est fort probable que l’internaute qui l’active ne sache pas à quelle entité numérique la ressource visée est rattachée. Certains tisseurs de liens pourraient être tentés d’exploiter cette confusion, en laissant supposer que le contenu cible est leur, alors qu’en réalité le site web d’où il provient est administré par un tiers. Du point de vue du droit, il est des raisons de penser que pareille pratique est susceptible d’engager la responsabilité de son auteur. Dans cette perspective, il est permis de se demander s’il n’est pas un fondement juridique par l’entremise duquel elle pourrait être appréhendée comme, par exemple, la concurrence déloyale.

Concurrence déloyale et confusion. Élaborée par la jurisprudence, à la fin du XIXe siècle, cette théorie vise à permettre à un acteur économique, victime d’agissements déloyaux, de poursuivre l’auteur en responsabilité civile afin d’obtenir réparation de son préjudice. La doctrine[42] a traditionnellement pour habitude de distinguer trois sortes de concurrence déloyale : l’imitation, le dénigrement, et la désorganisation. Pour ce qui nous intéresse, à savoir l’imitation, elle peut être définie comme la pratique qui consiste à créer une confusion avec les produits, les services, les activités industrielles et commerciales d’une entreprise, de nature à tromper le public et à détourner la clientèle par des moyens déloyaux. Cette pratique ne semble pas très éloignée de celle consistant en la création d’un lien profond. Même si un changement d’URL s’opère dans la barre des logiciels de navigation, lorsqu’un tel lien est activé par un internaute, il est un risque de confusion dans son esprit. Il peut ne pas s’apercevoir que la page qu’il consulte ne dépend plus du site web originellement visité. Il apparaît, dès lors, que plus la confusion dont est victime le site lié sera grande, plus facilement pourra être caractérisée une faute à l’encontre du site liant, à condition que les deux sites entretiennent des rapports de concurrence entre eux. Sans surprise, c’est aux États-Unis que la première affaire relative à une action en concurrence déloyale pour confusion a éclatée[43]. Reprochant à la multinationale Microsoft d’avoir pointé des liens profonds vers son site, la société Ticketmaster a invoqué devant les juges le risque de confusion dans l’esprit du public que pouvaient entraîner de tels liens. Cette confusion aurait eu pour effet d’envisager que des rapports plus ou moins étroits aient existé entre les deux sociétés, alors que cela n’était nullement le cas.

L’affaire Keljob. Malheureusement, pour les commentateurs, cette affaire s’est conclue par une transaction. Microsoft aurait, cependant, accepté de retirer de son site les liens litigieux. Le sentiment nous est donc laissé que l’établissement de liens profonds peut, à maints égards être constitutif d’un acte de concurrence déloyale. Ce sentiment doit, toutefois, demeurer mesuré. Dans une affaire qui opposait la société Keljob, moteur de recherche spécialisé dans les offres d’emploi, à la société Cadreonline, exploitante d’un site proposant au public des offres d’emploi sous la forme d’annonces, le juge français semble en avoir décidé autrement[44]. Dans ce litige où était pendante la question de la licéité de liens profonds, ni le Tribunal de grande instance de Paris, ni la Cour d’appel n’a jugé bon d’interdire de tels liens. Ces deux juridictions ont estimé, tour à tour, qu’aucun risque de confusion n’était caractérisé. Bien que cette décision puisse apparaître contradictoire avec l’affaire Microsoft contre Ticketmaster, en réalité, il n’en est rien. Dans la présente affaire, aucun rapport de concurrence n’existait entre le moteur de recherche Keljob et la société Cadreonline. C’est pourquoi les juges n’ont pu caractériser aucun acte de concurrence déloyale à l’égard du tisseur de liens. Tout au plus, il aurait pu se voir reprocher un agissement parasitaire. Cet acte ne suppose pas l’existence d’un quelconque rapport de concurrence[45]. Comme s’accordent à le dire la plupart des auteurs, en jurisprudence « la question de savoir si un lien profond établi par un concurrent crée un risque de confusion dans l’esprit du public n’est […] toujours pas tranchée »[46]. La solution rendue par les juges dépend essentiellement du contexte dans lequel le lien est inséré. Si les éléments en présence ne sont pas suffisants quant à caractériser la confusion, l’administrateur du site web lié n’aura d’autre choix que d’invoquer, comme fondement juridique, la seconde forme de concurrence déloyale : la désorganisation.

Concurrence déloyale et désorganisation. Comme son nom l’indique, l’acte de désorganisation consiste à désorganiser l’activité d’un concurrent afin qu’il soit procédé selon la formule de Philippe Le Tourneau à « la destruction de [son] avantage concurrentiel »[47]. Lorsqu’un lien profond est pointé vers un site web concurrent, certains n’hésitent pas à affirmer qu’en détournant le public de la page d’accueil du site lié, l’auteur du lien « désorganise l’activité de son concurrent, notamment, en diminuant la valeur de son espace publicitaire »[48]. Bien des sites internet ont pour principale source de financement la publicité. Elle se matérialise par de nombreux bandeaux situés aux endroits du site les plus fréquentés. Or quoi de plus fréquenté sur un site web que sa page d’accueil ? S’il est, par conséquent, renvoyé vers des pages web autres que cette page d’accueil, on est légitimement en droit de penser qu’aucune recette publicitaire ne sera générée lorsque le lien profond est activé. Est-ce là un manque à gagner pour l’administrateur du site lié ? Raisonnablement, il faut répondre par la négative à cette question. D’une part, en l’absence de lien vers le site lié, les recettes qui émanent de la publicité ne seraient pas plus importantes. D’autre part, l’accès à un site par le biais d’un lien profond n’empêche aucunement les internautes de se rendre sur sa page d’accueil. Pour ces raisons, il est peu probable que la création d’un lien profond puisse être qualifiée d’acte de concurrence déloyale par désorganisation. L’administrateur du site web qui désire casser un tel lien n’a, conséquemment, d’autre alternative que de se rabattre sur un autre fondement juridique. Par chance, il peut, une fois encore, compter sur l’irréductible droit d’auteur, qui constitue son ultime rempart pour contrer les velléités des tisseurs de liens. À supposer qu’une page web revête les caractéristiques de la forme originale, condition essentielle à l’accession de la protection par le droit de la propriété littéraire et artistique, son créateur pourrait faire valoir le droit moral dont il est investi sur son œuvre[49].

Droit moral. Plus précisément, comme le relève Frédéric Sardain « si l’on s’en tient à la lecture classique, ce sont essentiellement les conditions de présentation de l’œuvre liée qui détermineront la licéité du lien hypertexte au regard du droit moral de l’auteur »[50]. Seuls le droit de paternité et le droit au respect de l’œuvre peuvent être menacés par l’établissement de liens profonds. S’agissant du premier, le droit de paternité, il est évoqué à l’article L. 121-1 alinéa 1er du Code de la propriété intellectuelle. Cet article dispose que « l’auteur jouit du droit au respect de son nom » et « de sa qualité ». Tout créateur d’une œuvre de l’esprit est donc en droit d’exiger que sa diffusion soit faite sous son nom. Il s’ensuit que lorsque le tisseur d’un lien profond occulte la paternité d’une œuvre liée, son auteur est fondé à contester, non pas l’existence de ce lien, mais la manière dont il a été créé. En plus d’imposer au lieur de mentionner ostensiblement l’origine de l’œuvre à laquelle il renvoie, l’auteur peut, en outre, pour faire échec à la création de l’hyperlien, faire valoir son droit au respect. Selon cette autre facette du droit moral, tout créateur d’une œuvre de l’esprit a le droit d’exiger qu’il ne soit, ni porté atteinte à son intégrité, ni qu’il en soit fait une mauvaise utilisation. Il en résulte que si un lien profond porte atteinte au respect « dû à l’œuvre telle que l’auteur a voulu qu’elle soit »[51], il sera tout à fait recevable à demander le retrait du lien litigieux. La plupart du temps, soit que l’hyperlien génèrera des rapprochements jugés inadmissibles, soit qu’il sortira l’œuvre du contexte dans lequel elle a soigneusement été placée, le tisseur de liens ne se préoccupera pas de son respect. L’auteur de l’œuvre liée pourra, dans ces conditions, très facilement invoquer la violation de son droit moral pour qu’il soit procédé à la suppression du lien profond qui lui déplait. Encore une fois, force est de constater que le droit de la propriété intellectuelle peut se révéler être une arme de défense très efficace contre les tisseurs de liens. Il est des cas, néanmoins, où ce droit ne pourra pas être invoqué, aucune atteinte aux droits patrimoniaux et moraux de l’auteur d’une page web ne pouvant être constatée. Que faire lorsque, ni le principe même de pointer, ni la manière de pointer ne sont en cause, mais que le lien renvoie néanmoins vers un contenu illicite ? C’est vers le droit commun de la responsabilité qu’il convient de se tourner.

Responsabilité pour faute. S’agissant de la responsabilité civile du lieur, celle-ci ne saurait être évoquée qu’en vérifiant, d’abord, si elle ne peut pas être recherchée sur le fondement du sacro-saint article 1382 du Code civil. Selon cette disposition, dont on dit qu’elle peut à elle seule « résumer le droit tout entier »[52], l’existence d’une faute imputable à l’auteur du lien doit être démontrée. Il faut, par ailleurs, que cette faute ait causé un dommage à l’administrateur du site visé. En quoi ladite faute peut-elle consister ? Elle ne peut, de toute évidence, que s’identifier à l’acte de renvoi vers un contenu illicite. Ce comportement peut, sans mal, être qualifié de violation d’une règle de bonne conduite à portée générale. A priori, lorsqu’un tel renvoi est établi manuellement, il est fort probable que pèse sur son auteur une présomption de connaissance du contenu illicite. C’est la raison pour laquelle il reviendra à ce dernier de prouver qu’il ignorait l’illicéité du contenu vers lequel il pointe. Quand bien même il y parviendrait, comme l’avancent certains auteurs[53], son inertie sera de toute façon susceptible d’être considérée comme « fautive ». Il pourra, en ce sens, lui être reproché, par le juge, de n’avoir pas suffisamment fait preuve de diligence et de prudence comme l’exige l’article 1383 du Code civil[54]. Une fois l’obstacle de la faute passé, l’existence d’un lien de causalité direct entre la faute et le dommage doit ensuite être démontrée. Pour que la victime du renvoi obtienne gain de cause, le contenu illicite qui lui a causé préjudice doit être localisé sur la seule page web pointée par le lien litigieux, à défaut de quoi le lien de causalité en question risquerait fort d’être considéré comme indirect. Si celui qui souhaite engager la responsabilité du tisseur de liens ne parvient pas à caractériser dans leur plénitude chacun des éléments du présent triptyque, il n’aura d’autre choix que de se tourner vers une deuxième forme de responsabilité civile : la responsabilité du fait des choses.

Responsabilité du fait des choses. Il n’est pas illégitime de se demander si, d’une certaine manière, le lieur ne pourrait pas être assimilé à un gardien, qui aurait la garde des liens hypertextes qu’il crée. En pareil cas, il pourrait être envisagé de lui appliquer l’article 1384 du Code civil en vertu duquel « on est responsable non seulement du dommage que l’on cause par son propre fait, mais encore de celui qui est causé par le fait […] des choses que l’on a sous sa garde ». Pour extravagante que soit cette hypothèse, elle n’en est pas moins des plus sérieuses. Dans une affaire Delanoë[55] cette possibilité a, déjà, été soulevée devant le Tribunal de grande instance de Paris. En l’espèce, il était reproché au moteur de recherche AltaVista d’avoir référencé un site pornographique portant le nom de Bertrand Delanoë et de permettre d’y accéder par le biais d’un lien hypertexte. Si, finalement, le juge des référés ne s’est pas prononcé sur le fond du litige, certains[56] n’hésitent pas à avancer qu’il est une responsabilité possible du fait des informations que l’on a sous sa garde. Le gardien peut tout à fait exercer sur elles un pouvoir d’usage, de direction et de contrôle[57]. En France, seule une décision est allée en ce sens. Les juges du Tribunal de grande instance de Paris ont estimé qu’une information pouvait parfaitement constituer « une chose au sens de l’article 1384 alinéa 1er du Code civil »[58]. Toutefois, comme le constate Cyril Rojinsky, ce jugement demeure quelque peu isolé[59] ; d’où le scepticisme de la doctrine vis-à-vis du raisonnement qui tend à calquer la responsabilité des tisseurs de liens du fait du renvoi vers un contenu illicite, sur la responsabilité du fait des choses. Il s’ensuit que seule la responsabilité pour faute semble pouvoir être envisagée pour ces derniers laquelle peut, à certaines conditions, être doublée d’une responsabilité pénale.

Responsabilité pénale. Afin qu’une telle responsabilité puisse être recherchée, cela suppose que le lieur se soit comporté comme l’auteur d’une infraction[60] ou, à tout le moins, qu’il y ait participé[61]. Sans qu’il soit besoin, dans l’immédiat, de passer en revue chacune des infractions au titre desquelles les tisseurs de liens pourraient être poursuivis, il convient de nous interroger sur la question de savoir si au regard des grands principes qui gouvernent le droit pénal, ils ne pourraient pas revêtir l’une ou l’autre qualité. Pour ce qui est de la qualité d’auteur, leur responsabilité ne saurait être recherchée que s’il est démontré que, du seul fait de leur comportement, les éléments constitutifs d’une infraction que sont l’élément matériel, moral et légal, sont réunis. L’élément matériel d’abord, il consistera dans l’acte de renvoi. Du point de vue du droit pénal, cet acte peut s’analyser comme une action positive et continue. L’élément moral ensuite, il ne peut que résider dans la connaissance par le lieur du caractère illicite de la ressource cible. L’élément légal enfin, il est de tous, celui qui pose le plus de difficultés. Il existe bien, en droit pénal, quelques incriminations qui visent la fourniture de moyens comme s’y apparente, d’une certaine façon, la création d’un hyperlien. Aucune de ces incriminations n’est, cependant, suffisamment générale pour permettre d’envisager de qualifier d’auteur, celui qui facilite la commission d’une infraction. Aussi étonnant puisse paraître cet état du droit, il se justifie, en réalité, parfaitement. Si ceux qui fournissent les moyens de commettre une infraction ne sont pas, à quelques exceptions près, appréhendés par la loi comme des auteurs, ils tombent, en revanche, sous le coup d’une autre qualification : la complicité.

Complicité. Selon l’article L. 121-7 du Code pénal alinéa 1er « est complice d’un crime ou d’un délit la personne qui sciemment, par aide ou assistance, en a facilité la préparation ou la consommation ». À priori, la fourniture de moyens semble être pleinement visée par cette disposition. Reste à déterminer si, d’une part, l’acte de création d’un hyperlien peut y être assimilé et si, d’autre part, sont caractérisés les deux autres éléments constitutifs de la complicité que sont l’existence d’un fait principal punissable et l’élément intentionnel. S’agissant du premier élément, il existe, à son sujet, une ambigüité. De quelle infraction parle-t-on ? La complicité du lieur, doit-elle être appréciée par rapport à l’infraction commise par l’éditeur du site pointé sur lequel est publié un contenu illicite, ou par rapport à l’infraction que l’on impute à l’utilisateur du lien du fait de la consultation ou éventuellement du téléchargement de ce contenu illicite ? La réponse à cette question suppose, au préalable, de savoir si le tisseur de liens est à même de participer à la commission de ces infractions. Or comme nous avons pu l’observer précédemment, en matière de droit d’auteur, en aucun cas il ne participe, ni ne facilite quoi que ce soit. S’il est impliqué dans une activité, c’est seulement dans la création d’une passerelle reliant deux pages web entre elles et non dans la diffusion ou la consultation du contenu de ces dernières. Malgré l’avis contraire de certains auteurs[62], peu importe le fait principal punissable auquel il est fait référence dans la mesure où le lieur ne participe à ni l’un ni l’autre. Quand bien même celui-ci aurait la volonté de s’associer à l’entreprise criminelle de l’utilisateur du lien ou de l’éditeur du contenu visé, dans les deux cas, l’élément matériel de la complicité fait défaut[63]. Si la responsabilité du lieur ne saurait être recherchée sur le terrain de la complicité, reste peut-être une dernière chance d’y parvenir par le truchement de la qualification pénale de recel.

Recel. En vertu de l’article 321-1 du Code pénal, « le recel est le fait de dissimuler, de détenir ou de transmettre une chose, ou de faire office d’intermédiaire afin de la transmettre, en sachant que cette chose provient d’un crime ou d’un délit ». La question se pose dès lors de savoir si le fournisseur d’un lien hypertexte qui pointe vers un contenu illicite, peut être considéré comme un intermédiaire, en permettant la transmission du produit d’une infraction. Pareillement aux observations déjà formulées précédemment en matière de complicité, pas plus qu’il ne diffuse un quelconque contenu, le lieur ne transmet rien. Seul l’utilisateur du lien entretient un rapport avec l’éventuel produit d’une infraction. Outre ce constat, à cela s’ajoute le fait que le recel d’information n’existe pas. La chambre criminelle de la Cour de cassation a été très claire à ce sujet dans un arrêt du 3 avril 1995. Elle a décidé « qu’une information quelle qu’en soit la nature ou l’origine échappe aux prévisions […] de l’article 321-1 du Code pénal »[64]. Et si dans un arrêt récent[65], la qualité de chose semble avoir été reconnue à des informations, rien ne permet d’affirmer, en l’état actuel du droit, que cette jurisprudence s’applique au recel. Pour toutes ces raisons, il apparaît que la seule création d’un hyperlien ne saurait caractériser l’infraction de recel. On pourrait, hypothétiquement, envisager l’infraction de recel-profit[66]. Cela suppose, cependant, de prouver que la consommation de l’infraction sur le site lié, profite au tisseur de liens. En vérité, la seule voie ouverte, quant à engager la responsabilité pénale de ce dernier, réside dans l’existence d’une infraction qui sanctionnerait la conduite qui consiste à renvoyer vers un contenu illicite. Pour ce faire, encore faut-il parvenir à franchir le cap du principe de légalité, ce qui est loin d’être chose aisée.

Principe de légalité. Alors que le droit civil tout entier peut être résumé à l’article 1382 du Code civil, le droit pénal peut, quant à lui, tenir dans l’adage de Feuerbach « nullum crimen, nulla poena sine lege ». Le principe de légalité porté par Montesquieu, Voltaire et autres Beccaria constitue les fondations sur lesquelles s’est construit le droit pénal moderne. Comme le souligne Didier Rebut, ce principe a été conçu jadis comme « un instrument de protection de la liberté contre les atteintes qui lui sont portées par le souverain dans la mise en œuvre du droit de punir »[67]. Il en résulte que, contrairement au droit civil, les carences dont sont empreints certains textes ne sauraient être comblées par le juge pénal qui, selon Montesquieu, n’est que « la bouche qui prononce les paroles de la loi »[68]. C’est la raison pour laquelle les incriminations qu’est seul habilité à formuler le législateur[69], doivent être extrêmement précises, à défaut de quoi il est un risque que certaines atteintes à l’ordre social ne puissent pas être appréhendées par le droit. La rédaction des textes pénaux est tout un art. Cet exercice s’avère d’autant plus périlleux qu’en plus des comportements déviants qui sévissent dans le présent, doivent être anticipés par le législateur ceux qui n’existent pas encore. Tel est le cas des conduites humaines engendrées par le développement des nouvelles technologies dont fait, entre autres, partie l’acte de création d’un lien hypertexte. Afin de savoir si le droit pénal est suffisamment bien armé quant à appréhender les dérives auxquelles peut donner prise une telle pratique, il convient de les confronter aux infractions dont elles sont susceptibles de relever.

Délits de presse. La première sorte d’infraction qui a donné lieu à discussion devant les tribunaux est relative aux limites tenant à la liberté d’expression. Plus précisément s’est posée la question de savoir si la responsabilité pénale des tisseurs de liens ne pouvait pas être engagée du fait de la commission d’une infraction de presse sur la ressource vers laquelle il était pointé. Le premier réflexe du juriste devrait être de répondre par la négative à cette interrogation, celui-ci devant avoir à l’esprit l’article 42 de la loi du 29 juillet 1881 sur la liberté de la presse. Selon cette disposition, les « auteurs principaux des peines qui constituent la répression des crimes et délits commis par la voie de la presse » sont limitativement désignés. Par exception au principe de responsabilité pénale personnelle[70], c’est donc un régime de responsabilité dit en « cascade » qui a vocation à s’appliquer[71]. Le fournisseur de liens n’a, de ce fait, que peu de chance d’être poursuivi devant les juridictions pénales du fait de la commission d’un délit de presse sur le site lié, sauf à être considéré comme l’une des personnes visées par les textes, auquel cas, il reviendra au ministère public de démontrer que la création d’un lien hypertexte peut être assimilée à l’acte de publication, au sens où la loi du 29 juillet 1881 l’entend. Bien qu’extrêmement rares soient les décisions qui ont trait à cette dernière question, la jurisprudence semble, néanmoins, y avoir répondu.

Le lien hypertexte, outil de contournement de la loi. Dans une affaire « Libération », les juges du Tribunal de grande instance de Paris ont eu l’occasion de se prononcer sur la culpabilité du directeur de publication du grand quotidien. Il lui était reproché de n’avoir pas pris les mesures qui s’imposaient s’agissant de la création d’un lien hypertexte sur le site web de son journal. Ce lien renvoyait vers un site californien où étaient publiés des sondages relatifs aux élections législatives de 1997. Si, de prime abord, il n’est, semble-t-il, rien d’illicite dans la diffusion de tels sondages, il y a cependant un cas réprimé par le droit pénal. L’article 11 de la loi du 19 juillet 1977 dispose, en ce sens, qu’à « la veille de chaque tour de scrutin ainsi que le jour de celui-ci, sont interdits, par quelque moyen que ce soit, la publication, la diffusion et le commentaire de tout sondage tel que défini à l’article 1er ». Devant les juges du fond, était pendante la question de savoir si la création d’un lien hypertexte, dont la finalité n’est autre que de contourner les interdictions érigées par la loi du 19 juillet 1977, tombait sous le coup de cette loi. À cette problématique juridique – jusque-là inédite – les juges du Tribunal de grande instance de Paris ont choisi de répondre par la négative. Il a été considéré que les journalistes du site web sur lequel a été inséré le lien hypertexte litigieux se sont contentés « de donner aux internautes les moyens de prendre connaissance du contenu des sondages sur un site à l’étranger ». Cela ne suffisait donc pas à caractériser l’élément matériel de l’infraction.

Lier est-ce publier ? Cette solution est fort logique dans la mesure où, en aucun cas, l’acte de création d’un lien hypertexte ne saurait se confondre avec la notion de publication. Nonobstant l’incertitude qui entoure la définition de cette notion, comme le souligne Emmanuel Derieux, celle-ci implique l’action de « rendre public »[72]. Or en créant un hyperlien, le lieur ne rend aucunement public le contenu vers lequel il renvoie ; il le met seulement en relation avec un autre contenu. Seul celui qui accomplit matériellement l’acte de reproduction d’une ressource sur un serveur peut se voir attribuer la paternité de l’acte de publication. Lorsqu’est, par conséquent, accessible en ligne un document, quel qu’il soit, doit être distinguée la publication de celui-ci sur un site web différent, de sa mise en relation avec une autre ressource, laquelle n’implique aucune reproduction. Bien que cette décision ne possède guère de portée, en raison du faible degré de la juridiction qui l’a rendue, elle n’en corrobore pas moins l’affirmation selon laquelle, quel que soit le contenu vers lequel il est pointé, un lien hypertexte est neutre. Pas plus que la création d’un tel lien constitue une reproduction, une représentation ou bien une transmission, cet acte n’est pas non plus assimilable à une publication. Une nuance doit cependant être apportée à cet état de droit qui vient d’être quelque peu bouleversé par un jugement rendu le 18 mars 2013 par le Tribunal de grande instance de Paris. Les juges de la capitale avancent dans cette décision que « la création d’un lien hypertexte permettant d’accéder directement à un article plus ancien que la création d’un tel lien doit être analysée comme une nouvelle mise en ligne du texte auquel ce lien hypertexte renvoie »[73]. Est-ce une remise en cause du caractère neutre des liens hypertextes ? Si cette décision venait à se confirmer en appel, voire à se répandre en jurisprudence, la réponse ne peut être que positive. Dès lors que l’on estime que l’édition d’un lien hypertexte s’apparente à un acte de publication, l’auteur dudit lien ne peut plus être regardé comme un simple bâtisseur de « passerelles » [74]. Selon cette vision, son activité se confondrait avec celle de l’éditeur du site lié. Et s’il était question, dans le jugement en l’espèce, de l’infraction de diffamation, ce raisonnement est également applicable pour les autres infractions de presse érigées par la loi du 29 juillet 1881. Car, toutes reposent sur la notion de publication[75].

Le renvoi vers des contenus pédo-pornographiques. Pour savoir si les tisseurs de liens sont susceptibles d’engager leur responsabilité pénale du fait du renvoi vers un contenu illicite, reste à envisager une dernière catégorie d’infractions, qui s’est considérablement enrichie du fait de l’émergence des réseaux numériques. Il s’agit des infractions qui ont trait à la diffusion de certains contenus pornographiques ou d’une extrême violence. Avec le développement de l’internet, le législateur n’a eu d’autre choix que de multiplier les incriminations à l’égard des auteurs entre les mains desquels passe ce genre de contenus, de manière à ce que le droit puisse, plus facilement, se saisir de comportements qui n’existaient pas avant ou que trop marginalement. Les pratiques pédophiles sont particulièrement visées par le nouveau dispositif législatif. De façon générale, est réprimé d’une part, au titre de l’article 227-23 du Code pénal le fait par quelque moyen que ce soit, de « fixer », « d’enregistrer », « de transmettre », « d’offrir », « de rendre disponible », « de diffuser », « d’importer », « d’exporter », « de faire importer », « de faire exporter », ou « de consulter », « une image ou la représentation d’un mineur lorsque cette image ou cette représentation présente un caractère pornographique ». D’autre part, en vertu de l’article 227-24 du Code pénal est sanctionné « le fait soit de fabriquer, de transporter, de diffuser par quelque moyen que ce soit et quel qu’en soit le support un message à caractère violent ou pornographique ou de nature à porter gravement atteinte à la dignité humaine, soit de faire commerce d’un tel message […] lorsque ce message est susceptible d’être vu ou perçu par un mineur ». Alors que le premier texte sanctionne la diffusion d’un contenu pornographique où l’enfant en est purement et simplement l’objet, dans le second est réprimée l’hypothèse où l’enfant en est le destinataire.

L’obstacle de la sémantique. En dépit de la horde d’adjectifs employée par le législateur afin d’attraire devant le juge pénal les comportements les plus dangereux, tous renvoient, sans exception, soit à la notion de diffusion, soit à celle de reproduction. Or si l’on se réfère au principe d’interprétation stricte de la loi pénale[76], corolaire du principe de légalité[77], il apparaît que les tisseurs de liens échappent à son application. Comme nous l’avons démontré précédemment, l’acte de création d’un lien hypertexte n’est assimilable, ni à une reproduction, ni à une publication du contenu vers lequel il est pointé. Éventuellement on peut s’interroger sur la signification du terme « consulter », évoqué à l’alinéa 5 de l’article 227-23 du Code pénal. L’examen sémantique de ce verbe n’a, cependant, que peu de chance de prospérer dans la mesure où ce ne sont pas les lieurs qui consultent le contenu illicite, mais ceux qui activent les hyperliens. Toute tentative de questionnement sur la signification du terme « consulter » est donc mort-née. En définitive, si l’on respecte, scrupuleusement, le principe de légalité des délits et des peines, il n’est aucun fondement juridique valable sur lequel la responsabilité pénale des tisseurs de liens peut être recherchée. Ils ne sont visés par aucun texte, tout autant que l’acte de création d’un lien hypertexte ne répond à aucun concept juridique existant. Au total, il apparaît que la liberté que garantit l’ordre numérique aux tisseurs de liens voit son exercice pas si limité par le droit que l’on pourrait l’imaginer. La raison en est que l’acte de création d’un lien hypertexte est, en lui-même, totalement indépendant de l’acte de diffusion du contenu vers lequel il est pointé. La grande difficulté consiste, dans ces conditions, pour le juriste à trouver un concept juridique qui permette de faire un lien entre les deux. Or cette difficulté s’avère être, nous l’avons vu, presque insurmontable. Pour l’heure, les tisseurs de liens semblent être à l’abri d’une limitation de leur liberté par le droit. Leur conduite est, si l’on peut s’exprimer ainsi, trop « glissante » pour pouvoir être saisie par les tentacules de ce dernier.

[1] Bien que ce principe puisse apparaître réducteur dans la mesure où le fait générateur d’un dommage peut également consister en la violation d’un droit subjectif, comme le constate Tristan Azzi « le principe énoncé à l’article 1382du Code civil est l’une de ces grandes règles d’équité qui peuvent, à elles seules, résumer le droit tout entier ». Tristan Azzi, « Les relations entre la responsabilité civile délictuelle et les droits subjectifs », RTD Civ., 2007, p. 227.

[2] Article 121-1 et s. du Code pénal.

[3] Sur une analyse de ce phénomène V. L. Clerc-Renaud, Du Droit commun et des régimes spéciaux en droit extracontractuel de la réparation, thèse : Chambéry, 2006, 535 p.

[4] On pense notamment aux conducteurs de véhicules terrestres à moteur qui ont vu leur responsabilité considérablement renforcée avec l’adoption de la loi n° 85-677 du 5 juillet 1985 tendant à l’amélioration de la situation des victimes d’accidents de la circulation et à l’accélération des procédures d’indemnisation, JORF juillet 1985.

[5] V. en ce sens la loi du 27 juillet 2005 de sauvegarde des entreprises qui a posé, à l’article L. 650-1 du Code de commerce, un principe d’irresponsabilité au bénéfice des créanciers « du fait des concours consentis », dans le cadre de l’ouverture d’une « procédure de sauvegarde, de redressement judiciaire ou de liquidation judiciaire » (loi n° 2005-845 du 26 juillet 2005 de sauvegarde des entreprises, JORF n° 173 du 27 juillet 2005 p. 12187).

[6] Ainsi, par exemple, les agences de voyages ont vu, récemment, leur responsabilité allégée par la loi du 22 juillet 2009, en limitant les dommages intérêt alloués à leurs clients aux montants prévus par les conventions internationales (loi n° 2009-888 du 22 juillet 2009, JORF n° 0169 du 24 juillet 2009 p. 12352).

[7] Directive 2000-1931/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur (« directive sur le commerce électronique »), JO du 17/07/2000, n° L 178, pp. 1-16.

[8] Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, JORF n° 0143 du 22 juin 2004 p. 11168.

[9] C. Rojinsky, « Sens interdit. La responsabilité du créateur de lien hypertexte du fait du contenu illicite du site cible », Cahiers Lamy droit de l’informatique et des réseaux, n° 155, février 2003, p. 7.

[10] Ibid., p. 7.

[11] L’article 21 de la directive précise que la Commission devra présenter des propositions relatives à la responsabilité des fournisseurs de liens hypertextes sous la forme d’un rapport qui devra être établi à ce sujet par la Commission européenne au plus tard le 17 juillet 2003.

[12] On peut citer l’Espagne, l’Autriche le Liechtenstein ou encore le Portugal qui ont appliqué le régime de responsabilité des intermédiaires techniques aux fournisseurs d’hyperliens.

[13] Elle le sera quasiment presque toujours dans la mesure où, comme l’a écrit Jérôme Huet, un site web est, par nature, un « gisement de propriété intellectuelle » (J. Huet, « Le site Internet : gisement de droits de propriété intellectuelle », in Commerce électronique et propriétés intellectuelles, Paris, Litec, 2001, pp.35 secondes). V. également en ce sens J. Larrieu, « Le site Web à la croisée des droits », Propriété industrielle, oct. 2011, n° 10, pp. 33-34 ; C. Caron, « Droit d’auteur : un site Internet est une œuvre de l’esprit », CCE, oct. 2011, n° 10, pp. 25-25.

[14] Ainsi la Cour de justice de l’Union européenne a-t-elle eu l’occasion d’affirmer, dans un arrêt du 12 novembre 2002, que « l’exercice de ce droit [portant sur la marque] doit […] être réservé aux cas dans lesquels l’usage du signe par un tiers porte atteinte ou est susceptible de porter atteinte aux fonctions de la marque » (CJUE, 12 nov. 2002, Arsenal Football Club, C-206/01, Rec. P. I-10273, point 51).

[15] L’article L. 131-3 du Code de la propriété intellectuelle dispose que « la transmission des droits de l’auteur est subordonnée à la condition que chacun des droits cédés fasse l’objet d’une mention distincte dans l’acte de cession et que le domaine d’exploitation des droits cédés soit délimité quant à son étendue et à sa destination, quant au lieu et quant à la durée ».

[16] Selon l’article L. 122-4 du Code de la propriété intellectuelle « toute représentation ou reproduction intégrale ou partielle faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite. Il en est de même pour la traduction, l’adaptation ou la transformation, l’arrangement ou la reproduction par un art ou un procédé quelconque ».

[17] Le Tribunal de grande instance de Paris ne s’y est pas trompé, affirmant, dans le cadre d’une décision rendue en référé le 12 mai 2003 que « la liberté d’établir un lien, sauf à répondre des abus résultant de son utilisation, apparaît inhérente au principe de fonctionnement de l’Internet » (TGI Paris, ord. réf., 12 mai 2003, Lorie c/M. Géraume S. : Légipresse 2003, n° 205, II, p. 150, note L. Tellier-Loniewski).

[18] Ch. Caron, « Les liens hypertextes entre propriété intellectuelle et concurrence déloyale », CCE, mars 2001, comm. n° 26, p. 21.

[19] Article L. 122-1 du Code de la propriété intellectuelle : « le droit d’exploitation appartenant à l’auteur comprend le droit de représentation et le droit de reproduction ».

[20] Dans cette hypothèse, c’est surtout au droit d’une marque qu’il sera porté atteinte. Sur cette question, la jurisprudence estime que toute reproduction ou usage d’une marque qui n’a pas été autorisée par son titulaire constitue une contrefaçon, à condition, néanmoins qu’il soit porté atteinte à la fonction de la marque, mais encore que la reproduction du signe distinctif soit faite dans le cadre de la vie des affaires. V. en ce sens TGI Paris, 3e ch., 1re sect., 5 sept. 2001, SA Cadremploi c/SA Keljob : JurisData n° 2001-161 802 Expertises 2001, p. 391 ; CA Paris, 4e ch., sect. B, 19 oct. 2001, Sarl Wolke Inks & Printers c/SA Imaje : JurisData n° 2001-159 030. L’hypothèse d’une contrefaçon, du fait de la reproduction du titre d’une œuvre protégée par le droit de la propriété littéraire et artistique pour la création d’un hyperlien, peut-être être envisagée ? Certains auteurs le pensent (V en ce sens C. Fabre, « De l’affaire Keljob à l’affaire Keljob », Expertises, 2001, p. 180). D’autres commentateurs sont plus nuancés (V. Varet, « Les risques juridiques en matière de liens hypertextes », Légipresse, 2002, n° 196, II, p. 141).

[21] Il est, cependant, une décision qui a été prise sur le fondement de l’article L. 122-4 du Code de la propriété condamnant un fournisseur de liens qui avait reproduit le logo d’une société pour, ensuite, renvoyer vers le site de cette dernière (TGI Paris, 3e ch., 28 nov. 2001).

[22] Cass. 1re civ., 7 mars 1984, aff. « Ranou-graphie » : JCP G 1985, II, n° 20351, note Plaisant ; RTD com. 1984, p. 677, obs. A. Françon.

[23] Certains avancent que cette solution ne vaut que si le fournisseur des moyens profite de la reproduction, ce qui était clairement le cas en l’espèce de l’officine de Photocopie. D’autres avancent, comme Pierre-Yves Gauthier, que la seule fourniture publique de moyens de reproduction devrait suffire à déclencher le retour au droit exclusif. Selon cet auteur « tout comme la vente ou la location du support matériel de l’œuvre, fût-ce pour un usage privé, est subordonnée à l’autorisation de l’auteur ou de son ayant droit tout entremise d’un tiers, facilitant, contre rémunération, la photocopie de tout ou partie de l’œuvre, notamment la fourniture d’une machine à l’usager » (P.-Y. Gautier, Propriété littéraire et artistique, PUF, coll. « Droit fondamental », 2012, n° 339, p. 344).

[24] Recommandation du Forum des droits sur l’internet « Hyperliens : statut juridique », le 3 mars 2003.

[25] Sans qu’il soit besoin de nous encombrer de considérations trop techniques, il convient de souligner que tout traitement de l’information par un ordinateur suppose qu’elle soit, au préalable, reproduite dans la mémoire vive de celui-ci, de telle sorte que, comme le précisait Xavier Linant de Bellefonds, on est « dans le domaine de la copie systématique fonctionnellement nécessaire ». Ainsi, la consultation d’un site internet, par exemple, implique-t-elle que l’ordinateur de chacun de ses visiteurs reproduise le contenu de la page web visitée. Lorsque, par conséquent, est pointée un œuvre de l’esprit par un lien hypertexte, celle-ci est, en toute logique, reproduite autant de fois que le lien est activé.

[26] La reproduction provisoire et la reproduction permanente sont assimilées.

[27] Directive 2001/29/CE du Parlement européen et du Conseil du 22 mai 2001 sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information, JO 22 juin 2001, L. 167, p. 10-19.

[28] Selon l’article L. 122-5 6° : « lorsque l’œuvre a été divulguée, l’auteur ne peut interdire, […] la reproduction provisoire présentant un caractère transitoire ou accessoire, lorsqu’elle est une partie intégrante et essentielle d’un procédé technique et qu’elle a pour unique objet de permettre l’utilisation licite de l’œuvre ou sa transmission entre tiers par la voie d’un réseau faisant appel à un intermédiaire ; toutefois, cette reproduction provisoire qui ne peut porter que sur des œuvres autres que les logiciels et les bases de données ne doit pas avoir de valeur économique propre ».

[29] Il peut également y être recouru pour exempter les intermédiaires techniques.

[30] Cass. 1re civ., 6 avr. 1994, RIDA juill. 1994, p. 367, note Kéréver ; RTD com. 1994, p. 272, obs. A. Françon ; D. 1994, jurisprudence, p. 450, note P.-Y. Gautier.

[31] Ph. Gaudrat, « Hyperliens et droit d’exploitation », RTD Com., 2006, p. 104.

[32] A. Strowel et N. Ide, « La responsabilité des intermédiaires sur Internet : actualités et question des hyperliens », RIDA, oct. 2000, n° 186, p. 69.

[33] Enoncée autrefois, explicitement, par la loi du 11 mars 1957, la condition du caractère direct de la communication au public de l’œuvre est toujours exigé par l’article L. 122-2 du Code de la propriété intellectuelle selon André Lucas. En effet, selon cet auteur « il n’y a pas d’inconvénients à continuer à dire que la représentation est une communication directe » (A. Lucas et H.-J. Lucas, Traité de la propriété littéraire et artistique, Litec, coll. « Traités », 2006, n° 279, p. 224).

[34] Ces liens peuvent en effet être considérés comme réalisant un acte de communication directe au public, le contenu du site lié s’affichant directement sur la page du site liant (V. supra, n° 465).

[35] Recommandation du Forum des droits sur l’internet « Hyperliens : statut juridique », le 3 mars 2003.

[36] A. Dimeglio, Le droit du référencement dans l’internet, thèse : Montpellier ; 2002, p. 179.

[37] Recommandation du Forum des droits sur l’internet, op. préc.

[38] Ch. Caron, « Les liens hypertextes entre propriété intellectuelle et concurrence déloyale », CCE, mars 2001, comm. n° 26, p. 21.

[39] V. en ce sens TGI Épinal, ch. corr., 24 oct. 2000, Min. publ. et SCPP c/Conraud : CCE. 2000, comm. 125, note Ch. Caron ; JurisData n° 2000-126285.

[40] Dans un jugement du 6 décembre 2010, les juges du Tribunal de grande instance de Nancy estiment que la création d’un lien hypertexte n’équivaut pas la mise en ligne d’une œuvre au public (TGI Nancy, 6 déc. 2010 : Gaz. Pal. 24 févr. 2011, p. 13, obs. L. Marino).

[41] V. en ce sens T. com. Paris, réf., 26 déc. 2000 : CCE, 2001, comm. 26, obs. Ch. Caron ; Légipresse 2001, III, p. 64.

[42] P. Roubier, « Théorie générale de l’action générale en concurrence déloyale », RTD. civ., 1948, p. 541, spéc. p. 543

[43] US District Court, Los Angeles, Ticketmaster Corp. v/Tickets.com, 27 mars 2000.

[44] T. com. Paris, réf., 26 déc. 2000, SNC Havas Numérique et SA Cadres on Line c/SA Keljob : JurisData n° 2000-174 348 ; Legalis.net, 2001, n° 2, p. 122, note J. Giusti.

[45] L’agissement parasitaire est une forme de concurrence déloyale. Aussi, est-il sanctionné sur le même fondement que l’action en concurrence déloyale : l’article 1382 du Code civil. Pour que l’acte de parasitisme soit caractérisé, il faut donc que soit démontrer l’existence d’une faute, d’un préjudice et d’un lien de causalité. Depuis un arrêt du 12 février 2008, la Cour de cassation n’exige plus, dans le cadre d’une action en concurrence déloyale, qu’existe un rapport de concurrence entre l’auteur du dommage et la victime. Cass. com., 12 févr. 2008 : JurisData n° 2008-042743 ; Contrats, conc. consom. 2008, comm. 103, obs. M. Malaurie-Vignal.

[46] A. Dimeglio, op. cit. note 58, p. 204.

[47] Ph. Le Tourneau, Le Parasitisme, Notion, prévention, protection Litec, 1998.

[48] A. Dimeglio, op. cit. note 58, p. 206.

[49] V. en ce sens l’article L. 111-1 du Code de la propriété intellectuelle combiné à l’article L. 121-1.

[50] F. Sardain, « Les hyperliens », Jurisclasseur Communication, fasc. 4730, n° 37.

[51] TGI Paris 3e ch., 15 octobre 1992 : RIDA 1/1993, p. 225.

[52] T. Azzi, « Les relations entre la responsabilité civile délictuelle et les droits subjectifs », RTD Civ., 2007, p. 227.

[53] Cyril Rojinsky, art. cit. note 31.

[54] L’article 1383 du Code civil dispose que « Chacun est responsable du dommage qu’il a causé non seulement par son fait, mais encore par sa négligence ou par son imprudence ».

[55] TGI Paris, ord. Réf., 31 juillet 2000, Bertrand Delanoë c/Altavista et autres, juriscom ; Juris-Data n° 2000-134032.

[56] G. Danjaume, « La responsabilité du fait de l’information », JCP G, 1996, I, 3895 ; F. Dupuis-Toubol, M.-H. Tonnelier, et S. Lemarchand, « Responsabilité civile et internet », JCP E, 1997, I, 640.

[57] Cass, Ch. Réunies, 2 décembre 1941, D. C. 1942, 25, note Ripert.

[58] TGI Paris, 27 février 1991, JCP 1992, éd. G, II, 21809, note Ph. le Tourneau.

[59] Cyril Rojinsky, art. cit. note 31.

[60] Article 121-1 du Code pénal : « Nul n’est responsable pénalement que de son propre fait ».

[61] Article 121-6 : « Sera puni comme auteur le complice de l’infraction […] ».

[62] Pour Arnaud Dimeglio, il convient de distinguer dans la mesure où lorsque le fait principal punissable est commis par le référencé alors il ne saurait y avoir de complicité. En revanche, selon lui, quand le fait principal est imputable à l’utilisateur l’acte de complicité est caractérisé (A. Dimeglio, op. cit. note 58, p. 59-60).

[63] V. en ce sens l’arrêt rendu par la Cour d’appel de Paris, les juges estimant que l’auteur d’un lien hypertexte renvoyant vers un site sur lequel avait été publié la vidéo d’une agression ne pouvait pas être considéré comme le complice de la mise en ligne de cette vidéo illégale. (CA Paris, 9 déc. 2009, n° 09/05 089 : JurisData n° 2009-017 742 : CCE, 2010, comm. 37, A. Lepage).

[64] Crim. 3 avril 1995, Bull. Crim, n° 142 ; D. 1995, Somm. 320, obs. J. Pradel.

[65] Crim. 4 mars 2008, note J. Huet, « Vol de fichiers informatiques », CCE, déc. 2008, comm. 25.

[66] En vertu de l’article 321-1, alinéa 1e du Code pénal, « Constitue également un recel le fait, en connaissance de cause, de bénéficier, par tout moyen, du produit d’un crime ou d’un délit ».

[67] D. Rebut, « Le déclin du principe de légalité des délits et des peines », in R. Cabrillac, M.-A. Frison-Roche et T. Revet (dir.), Libertés et droits fondamentaux, Paris, Dalloz, 2003, p. 512.

[68] Montesquieu, De l’esprit des lois, Flammarion, coll. « Garnier Flammarion », 1979, vol. 1, liv. XI, chap. VI, p. 301.

[69] On constate cependant un déclin du pouvoir du législateur, compte tenu de l’intervention grandissante du pouvoir règlementaire en la matière, bien qu’il ne soit compétent, au titre de la combinaison des articles 34 et 37 de la Constitution, que pour l’édiction de contraventions.

[70] En vertu de l’article 121-1 du Code pénal « nul n’est responsable pénalement que de son propre fait ».

[71] Sont d’abord visés « 1° les directeurs de publications ou éditeurs […] 2° à leur défaut les auteurs ; 3° à défaut des auteurs, les imprimeurs ; 4° à défaut des imprimeurs, les vendeurs, distributeurs et afficheurs ».

[72] E. Derieux, Droit des médias. Droit français, européen et international, LGDJ, coll. « Manuel », 2008, pp. 440 et s.

[73] TGI Paris, 17e ch. civ., 18 mars 2013, Sté Amex c/Sté Indogo Publications.

[74] Recommandation du Forum des droits sur l’internet « Hyperliens : statut juridique », le 3 mars 2003

[75] Selon Emmanuel Derieux, « la publication est incontestablement le critère principale et, beaucoup plus, la condition ou l’élément matériel constitutif essentiel des abus de la liberté d’expression ». E. Derieux, op. préc., n° 1332, p. 440.

[76] L’article 111-4 du Code pénal dispose que « la loi pénale est d’interprétation stricte ».

[77] Le principe de légalité trouve son siège à l’article précédent du Code pénal.

(2)