De la protection juridique des logiciels: brevet ou droit d’auteur?

La protection des logiciels. Le débat qui s’est tenu sous l’égide du législateur français reflète relativement bien les discussions qui ont eu lieu au sein des États membres de l’OMPI. Afin de comprendre la décision qui en ait résulté, celle-ci ayant été partagée par la plupart des législateurs nationaux, prenons ce débat comme fil directeur de nos propos. En France donc, nombreux sont ceux à s’être spontanément prononcés en faveur de la protection des programmes d’ordinateur par le droit des brevets[1]. L’argument le plus souvent avancé est de dire que le logiciel revêt une dimension fonctionnelle, ce à quoi s’ajoute le fait que le droit d’auteur n’aurait pour seule fonction que de protéger les créations intellectuelles qui relèvent du domaine du beau. Si cette thèse est, à maints égards, fort attrayante, elle révèle, toutefois, chez ceux qui ont pu la soutenir, une certaine méconnaissance du droit de la propriété littéraire et artistique. En vertu de l’article L. 112-1 du Code de la propriété intellectuelle, ont vocation à être protégées « toutes les œuvres de l’esprit, quels qu’en soient le genre, la forme d’expression, le mérite ou la destination». Il est, dans ces conditions, inenvisageable de dénier la protection du droit d’auteur au logiciel au seul motif que celui-ci ne procèderait pas d’une démarche esthétique. De la même manière, alors que la loi du 13 juillet 1978 relative à l’activité inventive tend à n’accorder sa protection qu’aux seules inventions qui présentent un caractère technique[2], aucune raison ne justifie que les programmes d’ordinateur soient exclus de cette protection. Leur fonction première est de « tirer parti des ressources de la machine en vue d’un résultat déterminé »[3]. Or, quel autre nom donner à ce processus, sinon celui de l’effet technique, condition préalable à la qualification d’invention ? Partant, de par sa nature, le logiciel apparaît comme susceptible de revêtir toutes les formes de protections qu’offre le droit aux créateurs. Cela a pour conséquence directe, selon Christophe Caron, de faire « éclater les frontières traditionnelles de la propriété intellectuelle »[4]. Il a pourtant bien fallu choisir entre l’une ou l’autre des protections, l’hypothèse d’un cumul ou d’une option laissée aux programmeurs étant juridiquement inenvisageable[5].

L’exclusion du droit des brevets. Dès lors, afin de ne pas se laisser enfermer dans un choix qu’il aurait pu regretter, le législateur a jugé opportun de légiférer en procédant par exclusion plutôt que par choix. Parce que choisir immédiatement une protection aurait été précipité à une époque où les programmes d’ordinateur n’étaient encore que des sujets de laboratoire, les résidents du Palais Bourbon se sont contentés d’exclure la protection qui leur semblaient la moins appropriée. Cette exclusion s’est faite dans un contexte très animé, où était débattu le texte remplaçant la vieille loi du 5 juillet 1844 relative aux brevets d’invention. Personne n’avait, toutefois, imaginé que les logiciels soient écartés purement et simplement de son champ d’application. Malgré l’affaire Prater & Wei, pendante devant les tribunaux aux États-Unis[6], où la Court of Customs and Patent Appeals (CCPA), juridiction spécialisée dans le domaine des brevets, avait amorcé la protection des logiciels par le droit des brevets, la loi du 2 janvier 1968 les en a pourtant exclus, au motif qu’ils seraient dénués de tout caractère industriel[7]. Preuve que cette exclusion des programmes d’ordinateur de la protection des brevets est partagée, à l’époque, par de nombreux États, les parties à la Convention de Munich du 5 octobre 1973 relative à la délivrance de brevets européens ont inscrit à l’article 52 alinéa 2 c) de ce texte que « ne sont pas considérées comme des inventions […] les programmes d’ordinateur». Cette fois-ci, le défaut de caractère industriel n’est pas même évoqué dans les travaux préparatoires du traité. Il est acquis aux yeux de tous, que les logiciels ne constituent pas des inventions. Même s’il a marqué une étape déterminante dans la protection par le droit des programmes d’ordinateur, ce consensus n’a pas, pour autant, suffi à faire patienter les éditeurs de logiciels, dont l’activité économique prenait des proportions à la mesure de ce qu’allait très vite devenir l’industrie de l’informatique. C’est la raison pour laquelle, après le temps de l’exclusion des logiciels du droit des brevets, est venu le temps pour le législateur de choisir une protection juridique pour ces derniers. Afin de mettre un terme aux spéculations de la doctrine d’une part, qui n’en finissait pas de confectionner des listes à la Prévert dans l’espoir de déterminer quelle protection serait in fine adoptée[8] et, d’autre part pour garantir au plus vite la sécurité juridique qui s’effritait à mesure que les contentieux se multipliaient[9], le législateur s’est résolu à faire un choix.

Le choix, par défaut, du droit d’auteur. En réalité, ce choix s’imposait de lui-même dans la mesure où les États-Unis étaient farouchement opposés à l’idée que les logiciels soient revêtus d’une protection spécifique[10]. Par ailleurs, le droit de la propriété intellectuelle ne pouvait offrir aux programmes d’ordinateur que deux sortes de protection, le recours à l’une d’elles qu’est le droit des brevets étant d’ores et déjà exclu par la convention de Munich à laquelle était partie la France. Restait plus qu’aux députés français, le choix du droit de la propriété littéraire et artistique, lequel a solennellement été entériné par la loi du 3 juillet 1985[11]. Comme le souligne Jean-Louis. Goutal, par cette loi, la protection du logiciel par le droit d’auteur est, semble-t-il, « gravée pour toujours dans le silicium des mémoires d’ordinateurs où se trouvent maintenant nos lois»[12]. Elle est d’autant plus ancrée dans notre droit, qu’elle a été introduite dans l’ordre juridique communautaire, par le biais de la directive 91/250 du 14 mai 1991. Ce texte dispose en son article 1er que « les états membres protègent les programmes d’ordinateur par le droit d’auteur en tant qu’œuvres littéraires au sens de la convention de Berne pour la protection des œuvres littéraires et artistiques » [13]. Transposée par la loi du 10 mai 1994[14], la directive communautaire a, comme s’accordent à le dire de nombreux auteurs, le mérite de faire sortir les programmes d’ordinateurs de la « cabane au fond du jardin » dans laquelle ils avaient été rangés par la précédente loi[15]. Plus surprenant encore, et c’est là le point d’orgue de ce mouvement, après que de nombreux pays ont opté, à leur tour, pour cette solution[16], la protection des logiciels par le droit d’auteur est inscrite à l’article 10.1 de l’accord ADPIC. Tous les États membres de l’Organisation Mondiale de la Propriété Intellectuelle (OMPI) se voient, de la sorte, imposer de protéger « les programmes d’ordinateur […] en tant qu’œuvres littéraires en vertu de la convention de Berne »[17]. Dorénavant, hormis quelques différences susceptibles d’être relevées quant à leur régime juridique[18], les logiciels peuvent être considérés, dans de nombreux pays, dont la France, comme des œuvres de l’esprit à part entière, et ce même aux États-Unis où c’est le copyright, parent du droit d’auteur qui, dans presque tous les cas, s’appliquera.

[1] V. notamment J.-M. Mousseron, Traité des brevets, Paris, Litec, 1991, n°180 et s. ; J. Azéma et J.-C. Galloux, Droit de la propriété industrielle, Dalloz, coll. « précis », 2010, p. 116.

[2] Une invention sera considérée comme possédant un caractère technique si elle est susceptible de faire l’objet d’une application industrielle. Ainsi, selon l’article 7 de la loi de 1968 « est considérée comme industrielle toute invention concourant dans son objet, son application et son résultat, tant par la main de l’homme que par la machine à la production de biens ou de résultats techniques ».

[3] A. Lucas, J. Devèze et J. Frayssinet, Droit de l’informatique et de l’internet, PUF, coll. « Thémis », 2001, n°511, p. 303.

[4] Ch. Caron, « La coexistence du droit d’auteur et du droit des brevets sur un même logiciel »,  in Brevetabilité des logiciels : Droit des technologies avancées, 1-2/2002, vol. 9, p. 183.

[5] Contrairement aux autres biens intellectuels qui peuvent, à certaines conditions, faire l’objet d’un cumul de protection, les logiciels ne semblent pas pouvoir bénéficier de plusieurs régimes différents. L. 611-10, c) dispose en ce sens que « ne sont pas considérées comme des inventions au sens du premier alinéa du présent article notamment […] les programmes d’ordinateurs ». Cela n’empêche pas certains auteurs de plaider en faveur de l’abolition du principe de non-cumul. V. en ce sens A, Bertrand, Marques et brevets, dessins et modèles, Delmas, 1996, p. 6 ; Ch. Caron, art. préc., p. 203.

[6] Prater & Wei, 159 USPQ (United States Patent Quaterly) 583 (1968).

[7] L’article 7 de la loi du 2 janvier 1968 excluait, de la brevetabilité, « tous autres systèmes de caractère abstrait, et notamment les programmes ou séries d’instructions pour le déroulement des opérations d’une machine calculatrice ».

[8] Comme le remarque Jean-Louis Goutal à l’époque à propos de la protection juridique des logiciel « on n’a […] que l’embarras du choix : protection contractuelle […] ; action en responsabilité civile […] ; protection par le brevet du logiciel […] ; protection par le droit d’auteur […] ; et même protection par l’action d’enrichissement sans cause […] ; ou enfin, protection par le droit pénal […] » (J.-L. Goutal, « La protection juridique du logiciel », Dalloz, 1984, n°33, chron., pp. 197-206).

[9] Pour exemple, tandis que dans un arrêt Mobil Oil du 28 mai 1975, la chambre commerciale de la Cour de cassation refuse de valider un brevet au motif qu’il portait sur un programme destiné à de simples calculs informatiques, hors de tout appareillage ou procédé technique externe (Cass. Com., 28 mai 1975, PIBD 1975.155.III.349, suite à CA Paris, 22 mai 1973, Ann. propr. ind. 1973, p. 275, note Mathély ; PIBD 1973.107.III.197), dans un arrêt Schlumberger du 15 juin 1981, la Cour d’appel de Paris consacre la brevetabilité d’une invention dès lors que celle-ci porte sur un procédé technique dont certaines étapes sont mises en oeuvre par logiciel (CA Paris 15 juin 1981, PIBD.1981.285.III.175, Dossiers Brevets 1981.III.1, Ann. Prop. ind. 1982, p. 24).

[10] La Cour suprême est allée dans ce sens, en décidant de la non-brevetabilité des algorithmes dans une affaire Gottschalk v. Benson, (409 U.S, 1972). La Court of Customs and Pattent Appeals emprunta le même chemin en se prononçant, à de multiples reprises, contre la brevetabilité des logiciels. V. notamment, les Parker v. Flook, 198 USPQ 193 (1978) et Diamond v. Diehr, 209 USPQ 1 (1981).

[11] Loi n° 85-660 du 3 juillet 1985 relative aux droits d’auteur et aux droits des artistes-interprètes, des producteurs de phonogrammes et de vidéogrammes et des entreprises de communication audiovisuelle.

[12] J.-L. Goutal, « Logiciel : l’éternel retour », in Droit et Technique. Études à la mémoire du Pr. Linant de Bellefonds, Litec, 2007, p. 217.

[13] Directive 91/250/CEE du Conseil, du 14 mai 1991, concernant la protection juridique des programmes d’ordinateur, JOCE 17 mai 1991, L. 122.

[14] Loi no 94-361 du 10 mai 1994 portant mise en œuvre de la directive (C.E.E.) no 91-250 du Conseil des communautés européennes en date du 14 mai 1991, concernant la protection juridique des programmes d’ordinateur et modifiant le code de la propriété intellectuelle, JORF n°109 du 11 mai 1994, p. 6863.

[15] V. en ce sens J.-L. Goutal, art. préc., p. 218.

[16] On pense notamment aux États-Unis, à l’Allemagne, à la Grande Bretagne ou encore au Japon.

[17] Après d’âpres négociations c’est l’accord de Marrakech du 15 décembre 1993 qui prévoit que les programmes d’ordinateur seront protégés en tant qu’œuvres littéraires en vertu de la Convention de Berne.

[18] La singularité du régime juridique du logiciel réside dans le fait que les développeurs bénéficient de droits moraux amoindris sur leur création.


La gouvernance des noms de domaine ou la nationalisation de l’internet

La modification des règles de fonctionnent du système d’adressage alphanumérique. Depuis l’adoption, en juin 1999, d’un compromis entre les membres de la communauté internationale relatif à l’administration du DNS, l’ICANN concentre sur elle tous les pouvoirs. Quelle est le rôle qui lui échoit ? Sa mission, autoproclamée, est de « servir la communauté internet afin de maintenir la stabilité et la sécurité des systèmes d’identifiants uniques de l’internet»[1]. La première conséquence, s’agissant de la gouvernance de l’espace de nommage, est l’exclusion des internautes d’une partie qu’ils avaient pourtant initiée. Surtout, et c’est là le point le plus marquant, l’application des règles de l’ordre numérique ne préside pas à cette gouvernance. Aussi, cela a-t-il pour effet de singulariser le système de nommage par rapport aux autres composantes du réseau. Les normes auxquelles doivent se soumettre les créateurs de noms de domaine ne sont, effectivement, plus celles générées dans le cadre du pacte numérique. Désormais, ils doivent se conformer à la seule volonté de l’ICANN, laquelle volonté se distingue de leurs propres volontés ; car l’ICANN est une institution censée « servir la communauté internet » et non la représenter. La translation de pouvoir technique sur le système d’adressage alphanumérique dont a bénéficié l’ICANN s’est également accompagnée, à son profit, d’un transfert du pouvoir normatif sur les internautes. Et si, l’ICANN aurait très bien pu réguler l’activité de création des noms de domaine, conformément aux règles de l’ordre numérique, tel n’est pas ce qu’elle a décidé de faire. Elle a, tout au contraire, choisi d’affirmer sa souveraineté sur l’espace de nommage en cherchant à modifier ses règles. Comment s’y est-elle prise ? De la plus simple des manières. Les normes de l’ordre numérique ne sont que des significations tirées de l’interprétation de l’architecture du réseau[2]. L’ICANN s’est, dès lors, contentée d’agir sur cette architecture, tel un législateur qui rectifie un texte de loi. Cela s’est traduit par la modification, par l’ICANN, des principes qui gouvernent le fonctionnement du système d’adressage. Il suffit, pour s’en convaincre, de constater que ce système a, depuis que l’ICANN s’est emparée de son administration, perdu une grande partie de son ouverture, de sa neutralité ; il tend, en outre, aujourd’hui, à voir son unité se disloquer.

Le verrouillage du système. Focalisons-nous, d’abord, sur l’ouverture du système d’adressage logique qui, si elle était totale à l’époque du fichier hosts.txt, est, dorénavant, pour le moins restreinte. Lorsque l’ICANN a été instituée comme administrateur de l’espace de nommage, cela supposait que soit démantelé, en parallèle, le monopole détenu par NSI sur le marché des noms de domaine. L’objectif était, on le rappelle, d’ouvrir l’espace de nommage, auquel on ne pouvait accéder qu’à la condition de satisfaire les exigences fixées par NSI et, notamment, l’acquittement d’un certain prix en contrepartie de l’acquisition du droit de créer un identifiant numérique. Semblablement à qui s’était passé quelques années auparavant, s’agissant de la libéralisation du marché des télécommunications, il était, autrement dit, question de libéraliser le marché des noms de domaine. Pour ce faire, l’ICANN et le DoC, se sont entendus quant à l’élaboration d’un système de partage de l’espace de nommage. Cet accord a donné lieu à l’instauration du Shared Registry System (SRS), qui répartit l’administration du DNS sur quatre niveaux distincts. Cette répartition correspond trait pour trait à l’architecture du DNS. Fort logiquement, culmine au sommet, l’ICANN, à qui il est confié la maîtrise de la racine. Puis viennent les registries, chargés de la gestion des fichiers zone et des serveurs de noms y étant associés. Encore en-dessous, les registrars ont pour mission de concéder au détail les noms de domaine dont ils ont la gestion. Enfin, au bout de la chaîne, on trouve les créateurs de noms de domaines. Cette chaîne d’intermédiaires n’est pas figée. Elle peut être composée d’autant de maillons qu’il est de niveaux créés par les différents opérateurs. Ainsi est-on en présence d’une véritable organisation hiérarchique, où chaque administrateur, à qui il a été délégué une partie de la gestion du DNS, est tout à la fois, soumis à l’autorité des opérateurs qui appartiennent aux niveaux supérieurs de l’espace de nommage et responsable de ceux situés sur les niveaux inférieurs[3]. L’ICANN peut, de cette manière, exercer son autorité de haut en bas, impulsant sa politique par le biais du Registrar Accreditation Agreement. Cela explique, en partie, pourquoi, comme le souligne Cédric Manara, désormais, les règles relatives à la gouvernance de l’espace de nommage « sont de nature contractuelle»[4], ce qui, non seulement confère à l’ICANN un pouvoir contraignant, mais encore « un pourvoir normatif qui échappe au droit international public »[5].

Les pleins pouvoirs. Élaboré en 1999, ce contrat d’accréditation, dit aussi de délégation, est une convention par laquelle l’ICANN conditionne l’administration d’un secteur de l’espace de nommage au respect d’un cahier des charges dans lequel est inséré un certain nombre de droits et obligations[6]. Par le biais de ce mécanisme, l’ICANN espère normaliser les conditions d’accès à l’espace de nommage, chaque opérateur en charge du DNS devant insérer dans ses contrats conclus avec les gestionnaires de niveau inférieur, les règlements imposés par l’autorité supérieure[7]. Plus encore, l’idée de l’ICANN est d’imprégner l’ensemble de la chaîne contractuelle, de sa politique de « libéralisation » afin de réduire les inégalités qui existent entre les internautes devant les conditions d’accès aux noms de domaine. Les choses ne sont, malheureusement pour elle, pas aussi simples que prévu. Contrairement à AT&T, NSI fait de la résistance lorsque vient le jour de son démantèlement. Peu enclin à se soumettre à l’autorité de L’ICANN, NSI refuse, dans un premier temps, de signer le contrat d’accréditation, si bien que les domaines « .com » « .net » et « .org » échappent toujours au contrôle de l’ICANN. Cela représente plus de la moitié de l’espace de nommage. Si pareille situation avait perduré, cela serait revenu à accepter que le pouvoir de l’ICANN sur le DNS soit substantiellement limité. Cela était, toutefois, inconcevable, dans la mesure où NSI était contractuellement lié avec le seul DoC, situation qui déjà était à l’origine de la création d’une autorité « neutre » de gouvernance du système d’adressage alphanumérique. C’est pourquoi, afin que l’ICANN soit dotée d’un maximum de crédibilité vis-à-vis de la communauté internationale, NSI est invité par le gouvernement des États-Unis à se plier au système d’accréditation mis en place, en échange de quoi son monopole sur le « .com » et le « .net » serait consolidé pour les années à venir. Pour Milton Mueller cette série d’accords conclus entre NSI, l’ICANN et le DoC est une « transaction fondamentale en ce qu’elle marque véritablement le commencement de la mise en œuvre du régime de l’ICANN»[8]. Est-ce à dire que cet arrangement, intégrant NSI dans l’organisation institutionnelle de l’espace de nommage a permis l’ouverture du système d’adressage ? Il est quelques raisons d’en douter.

Le retour de la rareté. En premier lieu, s’il apparaît que l’ICANN a procédé à plus d’une centaine d’accréditations de registries et à plus d’un milier de registrars, répartis entre les sept régions du monde définies par l’Organisation Mondiale du Commerce (OMC)[9], il n’en demeure pas moins, selon Olivier Iteanu, que ces délégataires se partagent « les miettes de l’empire»[10] de NSI, qui est resté à la tête du monopole sur les TLD « .com » et « .net ». D’ailleurs, après avoir été racheté par la société VeriSign en 2000, NSI a gardé le contrôle du serveur maître, qui se situe dans la hiérarchie du DNS entre la racine et les serveurs racines, ce qui lui confère un rang supérieur aux autres registries. En second lieu, si la mise en place d’un régulateur sur l’espace de nommage a été motivée par l’ouverture du marché des noms de domaine à la concurrence, son instauration n’a fait que remplacer le monopole d’exploitation détenu par NSI, par une chaîne de monopoles. Or comme l’a souligné, fort justement, l’économiste français Augustin Cournot, « la seule chose pire qu’un monopole, c’est une chaîne de monopoles ». Enfin, il est une dernière raison, la principale, susceptible de faire douter de la réelle ouverture du système d’adressage alphanumérique ; cette raison tient à la rareté des noms de domaine qui, plus elle augmente sur l’espace de nommage, plus elle tend, mécaniquement, à restreindre l’accès à celui-ci. Cette rareté est certes presque inhérente à la structure du DNS. Pour autant, elle dépend également, pour partie, de la politique menée par l’ICANN quant à la création de TLD. Bien que l’augmentation de leur nombre ne saurait à elle-seule résoudre le problème de la rareté sur un domaine en particulier, elle pourrait à tout le moins en limiter l’ampleur sur l’espace de nommage, pris dans sa globalité. Cela suppose, néanmoins, que l’ICANN accepte de créer des TLD ; elle est, on le rappelle, le maître du fichier racine. Si l’on regarde ses actes accomplis dans le passé, tel ne semble pas être sa volonté. L’ICANN n’a créé que quatorze TLD[11], alors que Jon Postel en préconisait deux-cent cinquante. Depuis peu, il semble qu’elle ait décidé de réviser sa politique. En juin 2008, l’ICANN a exprimé son intention de permettre aux internautes, à compter du 12 janvier 2012, de créer leurs propres TLD, mais à la condition de s’acquitter du prix de 185 000 dollars pour candidater, ajouter à cela le paiement de 25 000 dollars par an, une fois leur candidature retenue.

La règle du premier arrivé, premier servi. Compte tenu de la somme d’argent à débourser pour s’offrir un domaine de premier niveau, la volonté affichée par l’ICANN d’élargir l’accès des internautes à l’espace de nommage est à nuancer fortement. Pour l’heure, le système d’adressage alphanumérique est donc loin d’être aussi ouvert qu’il l’était à l’époque du fichier hosts.txt. À ce titre, il apparaît que, dans son activité de gouvernance des noms de domaine, l’ICANN a œuvré dans le sens contraire de celui que lui indiquait la norme véhiculée par le principe d’ouverture du réseau. Là n’est pas la seule norme de l’ordre numérique qui, sous l’égide de cette organisation à but non-lucratif, n’a pas été observée. Il en va de même s’agissant de la règle dont est porteur le principe de neutralité de l’internet. Eu égard à ce principe, le système d’adressage devrait, en toute logique, comme cela était le cas dans son ancienne version, être neutre quant aux choix des noms de domaine créés par les internautes, pourvu qu’ils respectent le nombre et le type de caractères alphanumériques gérés par le système. En terme normatif, cela implique que la création des noms de domaine ne devrait être régie que par la seule règle du « premier arrivé, premier servi ». Lorsqu’elle est arrivée aux commandes du DNS, l’ICANN l’avait bien compris. C’est la raison pour laquelle, s’agissant de ce que l’on appelle les Generic Top-Level Domain (gTLD), par opposition aux Country Code Top-Level Domain (ccTLD), le nouveau régulateur de l’espace de nommage a imposé aux registries et registrars, que l’enregistrement des adresses alphanumériques se fasse selon cette règle du « premier arrivé, premier servi ». La Commission européenne s’est engagée dans cette voie pour ce qui est du ccTLD « .eu ». En témoigne l’article 2 alinéa 2 du règlement du 28 avril 2004 adopté par elle, lequel dispose qu’« un nom de domaine particulier est attribué pour usage à la partie éligible qui est la première à avoir fait parvenir sa demande au registre selon les modalités techniques correctes et conformément au présent règlement. Aux fins du présent règlement, ce critère de priorité en fonction de la date et de l’heure de réception est désigné par l’expression principe du premier arrivé, premier servi »[12]. Dans le droit fil de cette disposition, l’article 15.1 de la charte édictée par l’Association Française pour le Nommage Internet en Coopération (AFNIC) chargée d’administrer le ccTLD « .fr », indique que « le traitement des actes d’administration adressés à l’AFNIC par les bureaux d’enregistrement repose sur le principe du premier arrivé -premier servi, c’est à dire qu’il est assuré par ordre chronologique de réception des dites demandes».

Le phénomène du cybersquatting. Si l’on tient compte de ces seuls textes et consignes données par l’ICANN aux registries et registrars, tout porte à croire que la création des noms de domaine est, exclusivement, régie par la règle du « premier arrivé premier servi ». Pourtant, l’application de cette règle est loin d’être aussi absolue, du moins depuis qu’est apparue une pratique qui consiste, pour certains agents du réseau, à exploiter la rareté des ressources dont est frappé l’espace de nommage. Cette pratique porte le nom le « cybersquatting». Historiquement, un squatter était « un pionnier qui s’installait sans titre de propriété et sans payer de redevance sur les terres encore inexploitées de l’ouest »[13]. Cette définition illustre parfaitement la pratique du cybersquatting qui s’assimile en la réservation d’un nom de domaine en violation de droits antérieurs qui protègent un signe distinctif, tel une marque, un nom commercial, une enseigne ou encore une dénomination sociale. Profitant de la règle du premier arrivé premier servi, nombreux sont les internautes qui ont pu enregistrer un nom de domaine, tout en occupant illégalement l’espace de nommage. Cependant, deux catégories de cybersquatting doivent être distinguées. Alors que l’atteinte portée à certains signes distinctifs est le fruit d’une démarche frauduleuse, l’atteinte portée à d’autres est involontaire. L’une et l’autre démarche sont donc d’inégale gravité. Pour autant, comme le souligne un auteur, « la pratique démontre que c’est souvent l’existence de droits antérieurs qui pousse précisément certains individus sans scrupules à enregistrer un tel nom sur lequel il n’ont aucun droit »[14]. Dans la grande majorité des cas, le cybersquatter n’entend pas utiliser le nom de domaine qu’il a enregistré. Son intention est toute autre. Il a seulement pour ambition de faire obstacle à la réalisation des droits relatifs à un signe distinctif par leur titulaire, afin de revendre le nom de domaine correspondant, moyennant un prix supérieur à celui des frais d’enregistrement. Le prix de revente peut parfois atteindre des sommets. En témoigne la transaction ayant porté sur le nom de domaine wallstreet.com, enregistré en 1994, pour 70 dollars, et revendu cinq ans plus tard pour un million de dollars.

La réaction des États. Certaines personnes ont trouvé dans cette pratique une activité extrêmement lucrative, au point de procéder à des dépôts massifs de noms de domaine. Certains sites web se sont même spécialisés dans ce créneau, proposant aux internautes des noms tels que « LaRedoute.com », « Lorealparis.com » ou encore « Lorealshampoo.com ». Cela n’est pas tout, peu à peu s’est développée sur l’espace de nommage une variante au cybersquatting appelée « typosquatting». Cette variante consiste en l’enregistrement d’un nom de domaine proche typographiquement d’un autre nom de domaine. Le typosquatter espère, dans cette perspective, détourner le trafic du site officiel, afin de générer d’importantes recettes publicitaires sur son propre site. Le célèbre site « yahoo.com », par exemple, a été l’une des premières victimes de cette nouvelle pratique. Un individu, dont la malveillance ne fait aucun doute, a enregistré trente-sept noms de domaine se rapprochant du sien, tels que « ayahoo.com », « cayahoo.com » ou encore « kyahoo.com ». Prenant conscience de l’ampleur du phénomène engendré par le cybersquatting et ses variantes, le gouvernement américain s’est décidé, en août 1999, à endiguer ces pratiques en adoptant le Anti-Cybersquatting Consumer Protection Act. Ce texte offre la possibilité à tout ayant droit, victime d’un cybersquatage, d’exiger jusqu’à 100 000 dollars de dommages et intérêt en réparation d’un enregistrement abusif. En France, à défaut de disposer d’une telle législation[15], les juges n’ont pas hésité à qualifier le cybersquatting de « racket »[16] et de chercher à l’appréhender soit par l’entremise du droit des marques[17], soit en recourant au concept de concurrence déloyale[18]. Mais peu importe, pour ce qui nous concerne, la réponse apportée par les instances des différents États à ce phénomène qu’est le cybersquatting. Le fait est que chaque fois qu’une juridiction nationale constate l’atteinte portée à un signe distinctif qui bénéficie de quelque protection juridique que ce soit, l’application de la règle du « premier arrivé, premier servi » s’en trouve systématiquement écartée. Doit-on s’en réjouir ? Doit-on le déplorer ? Là n’est pas le sujet.

L’adoption par l’ICANN de la procédure UDRP. Ce sur quoi il faut, en revanche, focaliser toute notre attention c’est sur le fait que lorsque pareille décision est prononcée, elle ne saurait, techniquement, être mise en œuvre sans que l’ICANN y consente. Si, elle s’y opposait, il lui suffirait d’enjoindre le registrar concerné de ne pas procéder au transfert du nom de domaine, objet de la décision. Sauf que, tel ne sera jamais le cas ; et pour cause. Comment l’ICANN pourrait-elle oublier qu’elle doit son statut, ses pouvoirs, son existence à un compromis auquel sont parvenus les membres de la communauté internationale ? Jamais l’ICANN ne s’avisera, par conséquent, de faire obstacle à l’application du droit des États. D’ailleurs, plus que consentir à ce que le droit prévale sur la règle du « premier arrivé, premier servi » et donc sur l’ordre numérique, l’ICANN va, d’une certaine manière, lui donner la portée qu’il ne peut avoir à lui-seul sur l’espace de nommage en s’en faisant le relais. Comment l’ICANN s’y prend-t-elle ? En offrant la possibilité à quiconque conteste l’enregistrement d’un nom de domaine par un tiers, d’actionner un mécanisme de résolution des conflits, connu sous le nom d’Uniform Domain Name Dispute Resolution Policy (UDRP). Ce mécanisme a l’avantage de permettre à celui qui y recourt, de surmonter les difficultés, tant juridiques, que pratiques, liées à l’élément d’extranéité que comporte très certainement le litige qui l’oppose au titulaire du nom de domaine dont il revendique l’usage. Dès lors que la décision dont bénéficierait le requérant doit être exécutée dans un autre État que celui de la juridiction saisie, il ne pourra faire valoir ses droits que par le biais d’un exaquatur. Or cette entreprise se révèle peu aisée. D’où l’intérêt de s’engager dans la voie de la procédure UDRP laquelle – et c’est là son principal intérêt – se traduira, si elle aboutit, par le prononcé d’une décision immédiatement exécutoire[19] et aussitôt appliquée par le registrar qui a enregistré le nom de domaine litigieux. La procédure UDRP apparaît, de la sorte, comme ayant vocation à satisfaire des demandes auxquelles les États sont susceptibles d’éprouver les pires difficultés pour y répondre. Cette procédure apparaît alors, si l’on peut dire, comme une véritable bénédiction pour les titulaires de signes distinctifs, sans compter que son élaboration s’est faite moins à la lumière de la règle du « premier arrivé, premier servi », que du droit des marques.

La reconstitution d’un droit des marques. D’une part, la procédure UDRP est en grande partie le fruit du travail de l’Organisation Mondiale de la Propriété Intellectuelle (OMPI). Or la mission de celle-ci est de promouvoir la protection de la propriété intellectuelle dans le monde et d’assurer l’administration des différents instruments internationaux tels que l’arrangement de Madrid signé en 1881 relatif à l’enregistrement international des marques, l’arrangement du Nice du 15 juin 1957 instituant la classification internationale des marques ou encore le traité sur le droit des marques conclu à Genève le 27 octobre 1994. D’autre part, si l’on s’intéresse aux principes directeurs qui gouvernent cette procédure, leur proximité avec le droit des marques est pour le moins troublante. L’article 4 a) du document approuvé par l’ICANN le 24 octobre 1999 et appliqué à compter du 1er décembre de la même année, énonce, qu’il ne pourra être fait droit à la demande des requérants que s’il est prouvé cumulativement que, tout d’abord, « le nom de domaine est identique ou semblable au point de prêter à confusion avec une marque de produits ou de services sur laquelle le requérant a des droits », ensuite que, « le déposant n’a aucun droit ni aucun intérêt légitime à l’égard du nom de domaine», enfin que « le nom de domaine a été enregistré ou utilisé de mauvaise foi ». Les termes utilisés ici sont, de toute évidence, très proches de ceux employés dans les conventions internationales protégées par l’OMPI : « identique », « semblable », « confusion », « déposant ». Autant de notions qui ne sont pas sans rappeler le droit des marques. Comme le souligne, à ce propos, Fabien Gélinas « nous retrouvons […] un système qui, par le biais d’un mécanisme prétorien sommaire, tend à harmoniser – par l’aplanissement et l’approximation – les notions aussi éparses que complexes entourant le droit des marques dans les droits nationaux »[20]. D’autres auteurs n’hésitent pas à affirmer, que certes « il ne s’agit pas de droit des marques mais la relation est permanente avec ce droit »[21]. Bien que les principes directeurs de la procédure UDRP aient leur logique propre, l’ICANN n’en a pas moins tenté de reconstituer, à travers eux, une protection qui bénéficie aux titulaires de signes distinctifs, ce, dans le dessein de palier la protection que ne peuvent pas leur assurer les États sur l’espace de nommage.

Une extension du droit des marques. Si ces derniers ont toutes les raisons de se réjouir de cette déférence que porte l’ICANN à leur égard, les internautes ont, quant à eux, autant de raisons de s’en indigner. En prenant l’initiative de transposer le droit des marques dans l’univers numérique, l’administrateur du DNS s’est, en effet, délibérément autorisé à rompre avec le principe de neutralité du système d’adressage alphanumérique, dans la mesure où il a octroyé aux titulaires de signes distinctifs une sorte de droit de préemption sur les noms de domaine. En apparence, ce droit de préemption semble être totalement justifié, compte tenu de l’intention malveillante dont peuvent être animés certains agents. Toutefois, si l’on se place du point de vue du plus grand nombre, « ce droit » est loin d’être aussi légitime qu’il y paraît. Tout d’abord, il pourrait être objecté à son encontre que son exercice est de nature à faire fi de la négligence dont se rend, d’une certaine façon, coupable le titulaire de marque qui n’a pas procédé, promptement, et avec diligence, aux formalités d’enregistrement du nom de domaine litigieux. Ensuite, pourquoi ne pas exiger de celui qui revendique un nom de domaine, qu’il remplisse exactement les mêmes conditions que la personne physique ou morale qui se verra reconnaître des droits sur une marque, à savoir qu’il satisfasse à l’exigence d’enregistrement[22]? En ne faisant pas de cet enregistrement du nom de domaine une condition de son attribution, l’ICANN étend, en conséquence, la protection du droit des marques au-delà de ce qu’elle est dans le monde physique puisque, abstraction faite des marques notoires[23], une marque non enregistrée est un signe distinctif sur lequel on ne saurait, a priori, exercer aucun droit. Tel n’est, cependant, pas le cas pour les noms de domaine dont les titulaires de marques peuvent demander l’attribution sans, pour autant, les avoir enregistrés les premiers. Enfin, et c’est sur ce point en particulier que le droit de préemption qui bénéficie à quelques-uns se révèle être le plus contestable et contesté – même en dehors de l’hypothèse du cybersquatting – l’application des principes directeurs de la procédure UDRP conduit à traiter les titulaires de signes distinctifs de façon privilégiée par rapport aux autres internautes.

La fin de la règle du premier arrivé, premier servi. Prenons, à tire d’illustration, l’exemple cité par Milton Mueller du nom « Ford »[24]. Dans le monde physique, ce nom peut, de droit, être porté, tant par un constructeur de voitures, que par un particulier, un acteur célèbre ou encore un garage automobile. Dans l’univers numérique, s’il est vrai que le système DNS compte, à l’heure actuelle, près de trois cents TLD, il en est en réalité à peine une demi-douzaine à être pris d’assaut par les internautes. Il s’ensuit que tous ceux qui, pour des raisons tout aussi valables les unes que les autres, voudront utiliser le nom Ford comme identifiant sur l’espace de nommage ne le pourront pas. Uniquement l’un d’entre eux se verra reconnaître le droit d’occuper le si convoité « .com ». De la même manière, les domaines nationaux de premier niveau – les fameux ccTLD – ne peuvent offrir qu’à un seul agent la possibilité d’exploiter le nom qu’ils sont pourtant une multitude à porter. Dans ces conditions, comment les départager ? Il n’est, semble-t-il, aucun de ceux qui portent le nom Ford qui soit plus légitime que les autres à occuper le nom de domaine « ford.com », « ford.net » ou bien encore « ford.fr ». C’est la raison pour laquelle, la seule règle qui préside à l’attribution du nom de domaine convoité par plusieurs agents devrait être la règle du « premier arrivé, premier servi », soit celle dont est porteur le principe de neutralité, principe par lequel était jadis gouverné le système d’adressage. alphanumérique Avec l’instauration de la procédure UDRP, il n’en n’est rien. La règle qui a vocation à s’appliquer n’est autre que celle tirée du droit des marques. Au terme de la procédure instituée par l’ICANN, c’est donc le titulaire de la marque Ford qui sera désigné comme le seul bénéficiaire du nom de domaine afférent à ce nom. En témoigne l’étude réalisée par Milton Mueller qui relève que, très majoritairement, ce sont les titulaires de signes distinctifs qui gagnent contre les détenteurs de noms de domaine dans le cadre de la procédure UDRP[25]. Cela n’est, en aucune manière, surprenant dans la mesure où cette procédure consiste à faire une application quasi-mécanique du droit des marques sur l’espace de nommage.

Le risque de fragmentation de l’espace de nommage. Ainsi, l’ICANN a-t-elle décidé, de son propre chef, que la règle du « premier arrivé, premier servi », devait être écartée toutes les fois que le titulaire d’une marque revendiquerait un nom de domaine litigieux. Voici une mesure qui est de nature à mettre fortement à mal la neutralité du système de nommage ; d’où l’existence d’une certaine inégalité entre les internautes. La procédure UDRP conduit inéluctablement à conférer plus de droits aux titulaires de marques qu’à ceux qui n’ont procédé à l’enregistrement d’aucun signe distinctif. Il faut ajouter, en outre, que sur certains domaines de premier niveau, l’ICANN a institué un dispositif accordant la priorité à l’enregistrement pour les titulaires de signes distinctifs, ce qui n’est pas sans créer une rupture d’égalité entre les agents[26]. En menant pareille politique de gouvernance sur l’espace de nommage, l’ICANN s’est, indubitablement, éloignée de la ligne sur laquelle se trouvaient les membres de la communauté numérique à l’époque du fichier hosts.txt. Et s’il en est certains pour se féliciter de cette nouvelle orientation que prend la gouvernance des noms de domaine, il ne saurait être occulté par eux qu’il est un risque que cette orientation porte directement atteinte à un autre principe qui gouverne le système d’adressage alphanumérique : le principe d’unité. En réaction à l’accaparement auquel s’adonnent les titulaires de marques sur l’espace de nommage en violation de la règle du « premier arrivé, premier servi », soit ce que l’on appelle plus couramment le Reverse Domain Name Hijacking[27], des internautes pourraient, en effet, être tentés de recréer leur propre système d’adressage logique[28]. On verrait alors la racine du DNS être dupliquée. Sans qu’il soit besoin d’entrer dans les détails techniques, concrètement, si un tel projet était mené à bien, cela conduirait à empêcher les internautes qui appartiennent à deux espaces de nommage différents de communiquer entre eux. L’espace de nommage actuel s’en trouverait fragmenté, ce qui reviendrait à faire passer l’internet de l’état de réseau de réseaux à celui de réseau parmi les réseaux. Ce serait là un retour à l’époque où gravitaient, autour du réseau NSFNet, une multitude de réseaux sans qu’ils y soient, pour autant, raccordés. Évidemment, la réalisation de pareil scénario relève de la pure spéculation. Il n’en demeure pas moins qu’il est, aujourd’hui, un pays, la Chine, où réside pas moins d’un quart du nombre total d’internautes. Or cette nation s’est dotée de son propre système DNS avec toutes les conséquences que cela implique. La fragmentation de l’espace de nommage est de la sorte déjà entamée.

La convoitise par les États des ccTLD. Au total, il apparaît que depuis l’intronisation de l’ICANN, en 1998, comme administrateur du système DNS, les principes qui, naguère, gouvernaient son fonctionnement ont, pour la plupart, été remaniés, de sorte que les règles de l’ordre numérique ne semblent plus pouvoir s’appliquer aux créateurs de noms de domaine. Comme le fait remarquer, en ce sens, Cédric Manara, il est un certain nombre de normes techniques que ne respectent pas l’ICANN, ce qui témoigne du pouvoir discrétionnaire qu’elle exerce sur le système d’adressage[29]. Désormais, c’est l’ICANN qui, seule, dicte ses propres règles, imprégnées de plus en plus du droit des États. Cette immixtion des ordres juridiques dans la gouvernance de l’espace de nommage a d’abord démarré avec la création de l’ICANN. Surtout, elle s’est grandement amplifiée ensuite à partir du moment où les ccTLD ont été revendiqués. Mais, à ne pas se tromper, lorsque, au départ, ils ont été mis au point il ne s’agissait aucunement de créer une zone sur l’espace de nommage sur laquelle les États pourraient exercer leur souveraineté. Lorsque Jon Postel a décidé de se référer à la norme ISO 3166-1 établie par l’Organisation Internationale de Normalisation (ISO), qui édicte des codes-pays à deux chiffres tels que le « .fr » pour la France, le « .jp » pour le Japon, le « .ca » pour le Canada ou encore le « .uk » pour le Royaume-Uni, c’était uniquement par souci de commodité technique. Les ccTLD ont été conçus en vue de n’être que de simples identifiants de localisation. C’est pourquoi, dans un premier temps, comme le souligne Milton Mueller, la gestion de ces derniers a été confiée à des personnalités du monde universitaire des différents pays sur la base du contact personnel et du volontariat. Pour autant, cela n’a pas empêché les États de se les approprier, prétextant, comme l’a affirmé Elisabeth Porteneuve, membre du registry en charge du « .fr » que les ccTLD « sont attachés à la réputation du pays ». Tel est le mouvement qui s’est dessiné au fil des années. On peut se risquer à qualifier ce mouvement de nationalisation de l’espace de nommage[30]. À la suite d’un choix malencontreux de nomenclature, de vives tensions politiques sont nées entre d’une part, les pères fondateurs du DNS pour qui les ccTLD n’ont pas vocation à représenter les Etats et, d’autre part, les gouvernements nationaux pour qui ces domaines de premier niveau doivent être reconnus comme une sorte de prolongement de leur territoire ; d’où, il s’ensuit qu’ils seraient fondés à exercer sur eux leur souveraineté.

La nationalisation des ccTLD. Force est de constater que la détermination des États s’est révélée être à la mesure de l’importance des intérêts qu’ils entendaient défendre. La preuve en est, la création par eux du GAC (Governmental Advisory Committee), comité consultatif de l’ICANN composé des différents gouvernements nationaux. Sitôt constituée, cette structure internationale a fait part de son ambition de participer à la gouvernance de l’espace de nommage. Plus qu’un comité consultatif, le GAC est une émanation de la souveraineté des Etats qui, par son biais, ont voulu asseoir leur autorité sur les ccTLD[31] et de plus en plus sur les gTLD[32]. Il est ressorti de l’une des réunions organisées dans le cadre du GAC que chaque fichier-zone attaché à un pays devait être regardé comme « une ressource publique» dont la gestion relève du seul ressort des gouvernements. Cela justifierait, selon eux, leur intégration dans le processus décisionnel de l’ICANN les concernant. Pour Hans Klein « même si les domaines des gouvernements nationaux représentent un niveau inférieur à l’ICANN dans la hiérarchie du DNS, l’ICANN n’est pas en situation de revendiquer sur eux une quelconque autorité », d’où le mouvement de nationalisation qui s’est enclenché sur l’espace de nommage. Ce mouvement est d’autant plus fort qu’un peu à la manière des opérateurs historiques qui ont monopolisé l’exploitation des infrastructures physiques des réseaux de télécommunications, l’administration des ccTLD a, dans la plupart des Etats, été confiée à des organismes à but non lucratif, organismes dont l’indépendance vis-à-vis d’eux est loin d’être assurée. En France, la gestion du domaine « .fr » a été remise, après maints rebondissements[33], entre les mains de l’Association française pour le nommage internet en coopération (AFNIC)[34]. Cette structure a pris la succession de l’Institut National de Recherche en Informatique et en Automatique (INRIA) depuis le 1er janvier 1998[35]. Il n’est un secret pour personne que l’AFNIC entretient des rapports pour le moins étroits avec l’État français. Il suffit pour s’en convaincre d’examiner la composition de son conseil d’administration, dont les membres sont pour moitié directement ou indirectement liés au pouvoir exécutif[36]. Tous ces éléments conduisent à renforcer l’idée que les États exercent de plus en plus de poids sur la gouvernance du DNS, ce qui, corrélativement, a pour effet d’affaiblir l’ordre numérique. Ce mouvement ne s’observe pas seulement sur l’espace de nommage, il tend également à se répandre en bordure du réseau.

[1] Plan stratégique de l’ICANN. Disponible sur : www.icann.org/strategic…/draft_stratplan_
2007_2010_clean
_v3_fr.pdf?.

[2] V. supra, n°163.

[3] Ce système de délégation en chaîne, mis en place par l’ICANN de concert avec le DoC, est très largement inspiré de la RFC 1591 intitulée « Domain Name System Structure and Delegation ».

[4] C. Manara, op. cit. note 65, p. 16.

[5] Ibid., p. 36.

[6] Les registries doivent notamment intégrer dans leur contrat avec les registrars, les règles relatives à la procédure UDRP, procédure de règlement extrajudiciaire des litiges portant sur un nom de domaine. Nous y reviendrons.

[7] Il s’agit là, comme le fait remarquer Cédric Manara, d’un contrat extrêmement « précaire », dans la mesure où il peut être mis fin à celui-ci discrétionnairement par l’ICANN (C. Manara, op. cit. note 65, p. 68).

[8] M. Mueller, op. cit. note 56, p. 195.

[9] Les sept régions du monde définies par l’OMC sont l’Amérique du nord, l’Amérique latine, l’Europe occidentale, l’Europe orientale et centrale, l’Afrique dont l’Afrique du nord, le Moyen-Orient et l’Asie dont l’Asie de l’Ouest. Disponible sur http://www.wto.org/french/
res_f/statis_f/technotes_f.htm
.

[10] M. Mueller, op. cit. note 56, p. 153.

[11] En 2000 on assiste au premier mouvement de création de nouveaux domaines de premier niveau. Cette mesure a été prise le 16 juillet 2000, dans le cadre d’une résolution adoptée par l’ICANN.

[12] Règlement (CE) No 874/2004 de la Commission du 28 avril 2004 établissant les règles de politique d’intérêt général relatives à la mise en œuvre et aux fonctions du domaine de premier niveau .eu et les principes applicables en matière d’enregistrement, JO 30 avril 2004, L. 162, pp. 40-50.

[13] Dictionnaire du Centre Nationale de Ressources Textuelles et Lexicales. Disponible sur : http://www.cnrtl.fr/lexicographie/squatter.

[14] L. Rapp, « Des pratiques ouvertement frauduleuses : le cybersquattage » in Droit de l’informatique et des réseaux, Lamy, 2013, n°2055.

[15] Exception faite, désormais, du domaine de premier niveau « .fr ». L’article L. 45-2 du Code des postes et communications électroniques dispose que l’enregistrement d’un nom de domaine sur cette zone de l’espace de nommage peut être refusé lorsqu’« il est susceptible de porter atteinte à des droits de propriété intellectuelle ou de la personnalité sauf si le demandeur justifie d’un intérêt légitime et agit de bonne foi ».

[16] TGI Paris, 25 avril 1997, aff. « Framatome », JCP éd. E 1999, I, p. 954, obs. Vivant et Le Stanc.

[17] Ord. 22 juillet 1996 aff. Sapeso-Atlantel contre Icare, gaz. pal. 13-15 avril 1997.

[18] Cass. com., 7 juil. 2004; Bull. civ. 2004, IV, n° 149; CCE, 2004, comm. 111, obs. C. Caron ; Dalloz. 2004, p. 2151, obs. C. Manara.

[19] La décision prise, à l’issue de la procédure UDRP, peut-elle être qualifiée, d’arbitrale ? La question a pu se poser, dans la mesure où il s’agit d’un mode de règlement extrajudiciaire des litiges. Cela lui confère-t-il pour autant automatiquement pareille qualité ? Naturellement non. La Cour d’appel de Paris a, d’ailleurs, eu l’occasion de se prononcer sur cette question dans un arrêt du 17 juin 2004 (CA Paris, 1re ch., 17 juin 2004 : CCE, mars 2005, p. 31, obs. C. Caron ; Rev. Lamy dr. aff. déc. 2004, n° 77 ; JCP G, 2004, II, 10156, note Chabot). Cette décision ne laisse, manifestement pas de place à l’ambiguïté. Les juges parisiens estiment que la procédure de règlement des litiges proposée par l’ICANN ne saurait s’apparenter à un arbitrage.

[20] F. Gélinas, « UDRP: Utopie de la Décision Rapide et Pondérée ou Univers du Droit Réduit au

Pragmatisme? », in V. Gautrais (dir.), Droit du commerce électronique, Montréal, Thémis, 2002, p. 602.

[21] L. Rapp, art. préc., n°2109.

[22] Article L. 712-1 du Code de la propriété intellectuelle.

[23] V. en ce sens l’article L. 711-4, a) du Code de la propriété intellectuelle qui confère aux marques notoires une protection juridique au-delà du principe de spécialité.

[24] M. Mueller, op. cit. note 56, p. 234.

[25] M. Mueller, « Rough Justice, An Analysis of ICANN’s Uniform Dispute Resolution Policy », The informing society, forthcoming 2001. Disponible sur: dcc.syr.edu/PDF/roughjustice.pdf?.

[26] Pour une critique de ce statut privilégié accordé aux titulaires de signes distinctifs v. C. Manara, op. cit. note 65, pp. 99 et s.

[27] V. en ce sens, pour une analyse de ce phénomène qui se développe et de ses conséquences juridiques, N. Dreyfus, « Appréciation de la notion de reverse domain name hijacking », Propriété industrielle, oct. 2011, n°10, p. 3 ; R. Milchior, « Marques et noms de domaine: de quelques problèmes actuels », Revue Lamy droit de l’immatériel, août 2001, n°139, pp. 2-13.

[28] De nombreuses tentatives ont été effectuées en ce sens. À ce jour, elles ont cependant toutes échoué. Peut être évoquée la création des racines alternatives que sont Name.Space, OpenNIC ou encore Unifiedroot.

[29] C. Manara, op. cit. note 65, p. 46.

[30] En France cela s’est traduit par l’adoption d’un article L. 45-2 dans le Code des postes et communications électroniques, lequel dispose que « dans le respect des principes rappelés à l’article L. 45-1, l’enregistrement ou le renouvellement des noms de domaine peut être refusé ou le nom de domaine supprimé lorsque le nom de domaine est : […] 3° Identique ou apparenté à celui de la République française, d’une collectivité territoriale ou d’un groupement de collectivités territoriales ou d’une institution ou service public national ou local, sauf si le demandeur justifie d’un intérêt légitime et agit de bonne foi ».

[31] Comme le souligne Cédric Manara, on ne saurait cependant se méprendre sur les pouvoirs dont est investi le GAC. Selon cet auteur « le fait qu’un tel organisme ait un rôle purement consultatif est de nature à démontrer que le pouvoir en matière de nommage est propre à la seule ICANN » (C. Manara, op. cit. note 65, p. 34).

[32] On peut évoquer la contestation des États lorsqu’a été envisagée la création d’un « .amazon » en raison de la région du monde que constitue l’amazonie ou encore d’un « .islam » et d’un « .church » pour les tensions que ces extensions sont susceptibles de susciter. Force est de constater que la mobilisation des États a été courronnée de succès, ce qui témoigne de leur influence croissante sur la gouvernance de l’espace de nommage en général.

[33] L’AFNIC s’est d’abord vue désignée comme organisme chargé d’administrer le « .fr » par le décret du 8 février 2007 pris conformément à loi du 9 juillet 2004 qui a introduit dans le Code des postes et communications électroniques l’article L. 45-I, lequel disposait que « le ministre chargé des communications électroniques désigne, après consultation publique, les organismes chargés d’attribuer et de gérer les noms de domaine, au sein des domaines de premier niveau du système d’adressage par domaines de l’internet, correspondant au territoire national […] ». Il faut, en effet, parler de cette disposition légale au passé, depuis que le Conseil constitutionnel a été saisi, par le Conseil d’État, dans le cadre d’une question prioritaire de constitutionnalité. Aussi, les juges de la rue Montpensier donnent-ils raison à l’auteur de la requête formulée auprès du Conseil d’État, estimant que les termes de l’article L. 45 seraient trop imprécis et ne donneraient pas suffisamment de garanties aux titulaires de noms de domaine. Cette disposition est alors censurée par le Conseil, ce qui a pour conséquence immédiate de priver la désignation de l’AFNIC de tout fondement juridique. Le législateur est, en conséquence, sommé par le Conseil constitutionnel d’adopter une nouvelle loi, ce qu’il fera le 22 mars 2011. Au titre de cette loi, un arrêté sera édicté, le 28 juin 2012, arrêté qui, une fois encore, désigne l’AFNIC comme gestionnaire du « .fr ».

[34] Arrêté du 25 juin 2012 désignant l’office d’enregistrement chargé d’attribuer et de gérer les noms de domaine au sein des domaines de premier niveau du système d’adressage par domaines de l’internet correspondant au « .fr », JORF n°0149 du 28 juin 2012 p. 10578.

[35] La désignation de l’INRIA reposait sur le décret n°85-831 du 2 août 1985 portant organisation et fonctionnement de l’institut national de recherche en informatique et en automatique.

[36] Le conseil d’administration de l’AFNIC est composé de : cinq représentants désignés par les membres fondateurs, deux pour l’INRIA (Institut National de Recherche en Informatique et en Automatique), et un pour les ministères en charge respectivement des télécommunications, de l’industrie et de la recherche, cinq représentants élus par et parmi les membres suivants : deux pour le comité de concertation « prestataires » /bureaux d’enregistrement, deux pour le comité de concertation “utilisateurs”, un pour le Collège international (membres correspondants).

La gouvernance des noms de domaines ou l’organisation de la rareté

Système d’adressage et sémantique. Il est une idée très répandue selon laquelle l’internet pourrait se résumer en un système de communication, régi par le protocole TCP/IP. Tel n’est, cependant, pas la réalité. En vérité, l’internet consiste en la réunion de deux systèmes, l’un certes de communication et l’autre, bien moins connu, qu’est le système d’adressage. Pour que deux ordinateurs puissent communiquer, encore faut-il que leur soit affectée une adresse afin que, mutuellement, ils soient en mesure de se reconnaître. Aussi, est-ce là, la fonction du système d’adressage, que de permettre aux ordinateurs, une fois connectés à l’internet, de se trouver sur le réseau de sorte que, par la suite, puisse s’instaurer entre eux la communication. Comment fonctionne le système d’adressage ? Au préalable, il n’est pas inutile de préciser que ses architectes l’ont construit de telle façon que son maniement ne suppose pas la maîtrise du langage informatique. Si, tel avait été le cas, l’utilisation des adresses IP requérant des compétences spécifiques, non connues du commun des mortels, seules les personnes sensibilisées aux technologies de l’information auraient été capables de naviguer et de communiquer dans l’univers numérique. Ajoutée à cela, l’ampleur prise par le réseau ARPANET, qui a vu ses ramifications se multiplier de jour en jour, la question de la classification des adresses IP se serait inévitablement posée. C’est la raison pour laquelle, les bâtisseurs du système d’adressage ont choisi de travailler à l’élaboration d’un système qui réponde à une logique sémantique. Selon Milton Mueller, deux raisons ont présidé à l’adoption de ce choix : l’une est mnémonique, l’autre pratique. S’agissant de la première, elle se justifie aisément par le fait que « tant qu’il y aura une interface directe entre les êtres humains et les machines connectées au réseau, on donnera aux machines un nom que les humains peuvent reconnaître»[1]. Quant à la seconde raison, elle découle de la première, puisqu’il s’agit « de fournir un seul identifiant plus stable»[2] aux ordinateurs.

Le fichier hosts.txt. En pratique, l’attribution d’une adresse IP à une machine, quelle qu’elle soit, n’est pas définitive. Elle varie au gré des connections à l’internet de l’ordinateur auquel elle est associée. Un système de nommage qui donc reposerait sur la seule adresse IP mettrait en péril la connectivité du réseau, car elle dépendrait de la capacité des utilisateurs, des serveurs et des tables de routage à se mettre à jour. Or compte tenu de l’instabilité des adresses IP, la viabilité d’un tel système serait quasi nulle. En intégrant, en revanche, au système d’adressage de l’internet un système de nommage qui repose sur une logique sémantique, peu importe que l’adresse IP de la machine connectée au réseau fluctue ; le nom de l’ordinateur alphanumérique reste, quant à lui, inchangé. Ainsi, le système d’adressage du réseau a-t-il été construit autour du principe selon lequel à chaque adresse IP d’un ordinateur, correspond un nom pourvu d’une dimension sémantique. Pour autant, les paquets IP ne répondant qu’à la seule forme IP des adresses numériques, restait à élaborer un système capable de résoudre les conflits entre adresses IP et noms alphanumériques. Pour ce faire, dès les années 1970, avant même que Vint Cerf et Bob Kahn publient leur article relatif au protocole TCP/IP, les fondateurs du réseau créent un fichier appelé « txt»[3]. Celui-ci contient toutes les informations dont a besoin un ordinateur du réseau ARPANET pour identifier les autres ordinateurs (hosts) qui y sont connectés. Il s’agit, en un mot, d’une simple liste de correspondance entre les adresses IP des ordinateurs connectés au réseau et le nom alphanumérique qui leur est attribué. Ce fichier hosts.txt peut, en quelque sorte, être assimilé à un annuaire téléphonique. Plus encore, il constitue la pierre de rosette du système d’adressage, en ce qu’il est la clé dont a besoin tout ordinateur pour traduire le langage sémantique en langage numérique. L’utilisateur qui désire accéder à une ressource partagée par un autre utilisateur, doit nécessairement enjoindre son ordinateur de consulter la liste de correspondance contenue dans le fichier, afin que l’adresse tapée dans le navigateur soit convertie en adresse IP, compréhensible par les routeurs.

Un système d’adressage alphanumérique intelligible, neutre, et ouvert. Aussi anecdotique que puisse apparaître l’existence de cette liste, elle constitue, aux côtés du protocole TCP/IP, le second pilier de l’édifice numérique puisque déterminant ce que l’on appelle « l’espace de nommage». Certains auteurs n’hésitent pas à affirmer, en ce sens, que « l’espace de nommage est internet »[4]. Les ordinateurs connectés au réseau doivent y être rattachés, sans quoi ils ne sauraient être trouvés par les autres machines. Cela équivaudrait à ne pas exister dans le cyberespace. Manifestement, il s’avère que les bâtisseurs du système initial d’adressage se sont pleinement conformés aux normes dont sont porteurs les principes d’ouverture, de neutralité ou encore d’intelligibilité qui gouvernent le fonctionnement général du réseau. Cela s’est, tout d’abord, traduit par la publication de nombreuses RFC sur le système d’adressage alphanumérique[5], faisant de lui un système intelligible[6]. Celui-ci peut, ensuite, être considéré comme neutre, dans la mesure où il a été conçu de façon à ce qu’aucune différence de traitement ne soit opérée dans son fonctionnement entre les noms d’adresses numériques choisis par les internautes, la seule exigence étant que les caractères alphanumériques qui composent les noms en question, fassent partie de ceux gérés par le système[7]. Le système d’adressage logique se révèle, enfin, comme ayant été façonné de telle manière qu’il soit ouvert. Non seulement le fichier hosts.txt est rendu accessible à tous, mais encore, il suffit à ceux qui désirent créer une adresse alphanumérique de demander au Network Information Center (NIC) du Stanford Research Institute (SRI) d’ajouter une ligne à ce fichier, sans qu’il soit besoin de remplir de conditions particulières. Parce qu’il est techniquement impossible au système d’adressage d’attribuer à deux machines différentes un nom alphanumérique identique, la seule règle à respecter pour procéder à la création d’une adresse alphanumérique n’est autre que celle du « premier arrivé, premier servi ». En d’autres termes, seul le premier à inscrire le nom de l’adresse de sa machine sur le fichier hosts.txt gagne le droit de l’utiliser. Bien que le NIC se soit vu confier la charge d’administrer le fichier hosts.txt, la gouvernance de l’espace de nommage demeure l’affaire de tous. Elle repose entièrement sur l’observation, par les arpanautes, de la règle du premier arrivé premier servi. En somme, il s’est établi une sorte d’autogestion améliorée du système, le NIC n’étant que le simple dépositaire du fichier hosts.txt. Cette situation n’est, cependant, que de courte durée. La gouvernance de l’espace de nommage, qui n’était que technique, se retrouve, en très peu de temps, au centre d’enjeux d’ordre politique et économique.

Endiguer la rareté. Pour comprendre comment un si petit fichier a pu devenir l’objet de toutes les convoitises, revenons un instant sur les débuts de l’internet. À cette époque, le travail de maintenance de l’espace de nommage est confié au NIC. Toute modification de la liste lui est soumise pour qu’il les compile en un nouveau fichier txt une à deux fois par semaine. Par suite, ce mécanisme de résolution de noms est implanté dans tous les systèmes d’exploitation des ordinateurs, quel que soit leur fabriquant. Rapidement, il apparaît que le travail de maintenance de cette liste et la charge du serveur du SRI prennent des proportions telles, qu’il devient difficile pour leur administrateur de remplir correctement son office. Les mises à jour sont si fréquentes que les nouvelles modifications sont introduites, avant même que les précédentes ne soient déployées sur le réseau ARPANET. En outre, plus le réseau grandit, plus la probabilité que deux utilisateurs attribuent le même nom à leur ordinateur est grande. Nonobstant l’incroyable richesse de mots que recèle le langage pour exprimer une idée, cette richesse n’en demeure pas moins limitée. Les limites de la langue humaine sont, d’ailleurs, bien plus importantes que celles du langage informatique. Les combinaisons d’adresses alphanumériques disponibles sont, si l’on raisonne sur une logique sémantique, très inférieures à celles offertes par le système d’adressage IP. Il en résulte que, contrairement aux adresses IP[8], les adresses alphanumériques sont une ressource rare. La rareté de ces adresses a pour conséquence de mettre en exergue les limites du système qui sous-tend l’espace de nommage qui, jusqu’à la fin des années quatre-vingts, repose sur un système centralisé. Et les bâtisseurs de l’internet l’ont bien compris. Dès lors, pour endiguer cette rareté qui menace, il a été jugé bon de transformer l’architecture centralisée du système d’adressage alphanumérique en une architecture décentralisée. Cette transformation ne s’est pas faite sans difficulté. Les bâtisseurs doivent se conformer, en plus des normes véhiculées par les principes d’ouverture, de neutralité et d’intelligibilité, à celle dont est porteur le principe d’interopérabilité. Appliqué au système d’adressage alphanumérique, ce principe implique que les adresses logiques doivent communiquer entre elles. Il doit, autrement dit, exister un lien qui permette d’aller d’une adresse à une autre.

La nécessaire unité de l’espace de nommage. Cela suppose que l’espace de nommage soit unique. Dit plus simplement, il n’est qu’une seule base de données recensant l’ensemble des ordinateurs du réseau qui peut exister. Dans le cas contraire, l’espace de nommage de l’internet serait fragmenté, si bien que les adresses de machines qui se trouveraient sur deux listes différentes ne pourraient pas, dans le cadre du système d’adressage alphanumérique, communiquer entre elles. Cela signifie qu’elles ne seraient pas interopérables. D’où, l’importance qu’il n’existe qu’ seul espace de nommage. Or c’est précisément cette exigence d’unité qui est à l’origine de la rareté des adresses ; chaque combinaison de caractères alphanumériques ne peut être utilisée que pour le nommage d’une seule et même machine. Dans ces conditions, il faut aux bâtisseurs du système d’adressage logique trouver une solution pour étendre substantiellement l’espace de nommage, tout en cherchant un moyen de conserver son unité. Dix années de recherche sont nécessaires pour y parvenir. C’est à l’orée de l’année 1977, date à partir de laquelle le ministère de la défense des États-Unis décide de déployer le protocole TCP sur l’ARPANET, que les choses vont véritablement bouger. Ce protocole TCP ne répondant pas de manière satisfaisante aux contraintes liées à l’adressage IP, les trois informaticiens que sont Vins Cerf, Jon Postel et Danny Cohen ont l’idée de scinder sa fonction en deux. Le protocole TCP/IP est né. C’est sur lui que reposera, plus tard, le nouvel espace de nommage. Sitôt l’élaboration du protocole TCP/IP achevée, Jon Postel, chercheur à l’institut des sciences informatiques de l’Université de Californie du Sud (ISI), est investi, entre 1977 et 1981, de la responsabilité du système d’adressage alphanumérique au sein de la petite communauté DARPA. Preuve que l’espace de nommage est, à cette période, encore l’affaire de tous, les internautes sont invités par Jon Postel à lui envoyer leurs suggestions pour moderniser le système vieillissant sur lequel il repose. C’est ainsi qu’à partir de 1981 commencent à germer des modèles d’architecture du système d’adressage. Tandis que certains développeurs plaident pour un espace de nommage hiérarchisée, d’autres proposent un espace de nommage plutôt distribué[9]. Finalement, ce sont les travaux de Zaw-Sing Su et de Jon Postel, publiés dans la RFC 819, suivi par les travaux de Paul Mockapetris, publiés dans les RFC 882 et 883, qui ont le dernier mot. La réunion de leurs travaux respectifs donne naissance à un nouveau système d’adressage alphanumérique de l’internet, appelé DNS (Domain Name System).

Une architecture hiérarchique. Grosso modo, sous l’égide du fichier hosts.txt, l’espace de nommage consistait en une seule et même base de données centralisée. Seulement, en raison de la surcharge du serveur sur lequel repose la liste de résolution des adresses numériques, et de la pénurie des adresses alphanumériques qui s’annonce, il faut trouver un moyen pour désengorger l’espace de nommage et étendre ce dernier. Le système DNS consiste en la division de l’espace de nommage en « sous-espaces », appelés zones, de sorte que la base de données contenue dans le seul fichier host.txt, se voit divisée en autant de fichiers qu’il y a de zones. Pour ce faire, les fondateurs du DNS ont imaginé une architecture dans laquelle chaque zone est associée à un ordinateur hôte, faisant office de serveur, un logiciel de résolution de noms et un fichier-zone à l’intérieur duquel on retrouve la paire adresse IP-nom alphanumérique. Semblablement à une adresse postale composée d’un nom de pays, d’un code postal, d’un nom de ville, d’un nom de rue et enfin d’un numéro, à chaque zone est affectée une partie des adresses numériques. Chacune des différentes zones entretient un rapport hiérarchique avec la zone qui lui est inférieure ou supérieure, l’ensemble des zones réunies formant une arborescence. Jon Postel use de la métaphore d’arbre inversé pour décrire son système. Au sommet de la hiérarchie se trouve une zone unique appelée racine, qui est reliée à des zones inférieures appelées haut niveau qui, à leur tour, sont reliées à des sous-zones, appelées deuxième niveau etc. Le principe d’unité de l’espace de nommage est totalement respecté ; chaque zone de l’arborescence est nécessairement reliée à la zone unique : la racine.

La perspective d’une ressource illimitée. L’avantage de ce système réside, indiscutablement, dans la possibilité de créer une infinité de domaines. Les limites de l’espace de nommage dépendent, en effet, du nombre de zones au sein de l’arborescence. Un domaine étant constitué d’une zone et de toutes les zones qui lui sont inférieures, l’espace de nommage peut être étendu à l’infini. Plus un domaine est proche de la racine, plus l’espace de nommage qui lui est attaché est grand. Le domaine de la racine constitue donc l’intégralité de l’espace de nommage alors qu’un domaine de deuxième niveau n’en constitue qu’une petite fraction. Seuls les domaines peuvent, en conséquence, être affublés d’un nom, dans la mesure où ils sont le résultat d’une combinaison de zones en partant du sommet de l’arborescence vers le bas. D’où le qualificatif de « nom de domaine »[10]. Une adresse alphanumérique est, de la sorte, constituée de plusieurs composantes strictement séparées. D’abord, en partant de la droite vers la gauche, apparaît la racine représentée par un point ; elle marque l’appartenance de l’adresse souhaitée à l’espace de nommage unique du DNS. Ensuite, viennent les noms de domaine de haut niveau (Top-Level Domains)[11], qui sont estimés à 300, répartis sur treize serveurs racines. Les plus connus sont le « .com », « .fr », « .net », ou encore le « .org ». Enfin, ferment la marche les noms de domaine de deuxième niveau, répartis sur l’ensemble des serveurs de la toile, lesquels sont passés de quelques milliers dans les années quatre-vingts à des centaines de millions en 2000. Et l’on pourrait continuer comme cela indéfiniment. Une adresse alphanumérique est constituée d’autant de niveaux qu’il y existe de zones. La pratique tend, toutefois, à démontrer que la limite se situe autour du troisième niveau. Au total, alors que les pères fondateurs du DNS ont trouvé là, dans son architecture décentralisée, un formidable moyen d’endiguer la rareté des noms de domaines, assez paradoxalement, ils viennent corrélativement de déposséder les internautes du pouvoir de gouvernance qu’ils exerçaient, jusque-là, en commun, sur l’espace de nommage. Dorénavant, celui-ci est entièrement géré par ceux qui disposent de la maîtrise de la racine. Voyons comment cette translation de pouvoir s’est opérée.

L’internationalisation du système de nommage. Très tôt, prenant conscience de l’ampleur prise par le Projet Internet, les chercheurs de DARPA s’essayent à institutionnaliser l’administration du DNS. De cette façon il leur sera possible de prendre la mesure de la gouvernance de l’espace de nommage qu’ils ne seront bientôt plus en capacité d’assurer. Dans ce contexte, est créée, en 1979, sous l’impulsion de Vint Cerf et Bob Kahn, une commission consultative composée de professionnels de la mise en réseau, l’ICCB (Internet Configuration Control Board). Cette commission est destinée à superviser la normalisation des protocoles de l’internet. Au début des années quatre-vingts le réseau numérique commence, cependant, à traverser les frontières, si bien que, vers la fin de l’année 1983, l’ICCB est remplacée par l’Internet Achitecture Board (IAB), afin que soit prise en compte la nouvelle dimension internationale du système. Ce groupe de coordination réunit l’élite des scientifiques qui ont participé à la création de l’ARPANET. Surtout, il est ouvert aux spécialistes du monde entier, pourvu qu’ils aient des compétences sérieuses en matière de réseau. À ce moment précis, l’équilibre des forces entre la communauté des internautes, que tente de représenter, de son mieux, Jon Postel, et les administrateurs du DNS, est à son paroxysme. Seulement, les choses commencent à changer lorsque, en 1987, la National Science Foundation voit se connecter à son backbone, les plus grands réseaux de la planète, ce qui, pour la première fois, fera de l’internet un réseau mondial. À partir de cette date, la gouvernance de l’espace de nommage n’est plus une simple question nationale qui concerne le seul réseau ARPANET. Elle intéresse l’ensemble de la communauté internationale. En raison de cette internationalisation du cyberespace, les problèmes techniques qui entourent le DNS se complexifient, à tel point que, tant Jon Postel, que l’IAB, s’en trouvent dépassés. C’est pourquoi, en réponse à cette vague déferlante provoquée par la croissance toujours plus grande du réseau, l’IAB est scindé en deux. L’idée est que, pour être surmontées, les nouvelles difficultés rencontrées par la communauté numérique doivent être appréhendées séparément. D’un côté, l’Internet Engineering Task Force (IETF) est chargé de l’élaboration et de l’évolution des protocoles, de leur standardisation et de leur intégration avec d’autres protocoles. D’un autre côté, l’Internet Research Task Force (IRTF) se voit confier la tâche d’explorer les techniques avancées en matière de communication et de protocoles.

La racine : objet de toutes les convoitises. Selon Milton Mueller, on vient de passer d’une « ARAPA community» à une « Internet community »[12] où le consensus préside encore à la prise de décision. Sans tarder, l’action de l’IAB et l’IETF reçoit le soutien du gouvernement des États-Unis, l’IETF concluant, en outre, un accord avec la National Science Foundation et la Corporation for National Research Initiatives (CNRI)[13]. Déjà à cette période on peut entrapercevoir les vives convoitises que fait naître l’administration du DNS. Mais le meilleur reste à venir. Sans doute inspiré par le mouvement d’institutionnalisation dont la racine fait l’objet, Jon Postel publie, en décembre 1988, la RFC 1083 dans laquelle y est décrit, pour la première fois, un modèle d’autorité à qui pourrait être confiée la gouvernance de l’espace de nommage. Ce projet se concrétise, quelque temps plus tard, par la création de L’Internet Assigned Numbers Authority (IANA). Immédiatement, la DARPA décide de déléguer à cette organisation l’attribution des adresses IP, ce qui, de fait, lui confère un pouvoir sans commune mesure sur l’administration technique du DNS. En parallèle, Jon Postel, en tant que fondateur de l’IANA et directeur de l’ISI (Information Science Institute) à l’Université de Californie du sud, prend la décision de signer avec le département du commerce américain (DoC) un contrat de partenariat selon lequel l’IANA garde le contrôle du DNS. Les critiques ne se font pas attendre. Nombreux sont ceux à soulever la question de la nature de l’IANA. Est-elle civile ou militaire ? De quel département du gouvernement américain dépend-t-elle ? Quelle est sa réelle fonction ? En tout état de cause, pareillement au mouvement de désengagement financier des instances publiques américaines auquel avaient dû faire face les entités chargées du développement des infrastructures physiques du réseau, les responsables en charge du DNS sont confrontés à la même politique, celle destinée à laisser place à l’initiative privée.

Le basculement. Dans cette perspective, afin d’encourager et de promouvoir le développement de l’édifice numérique au-delà du cadre initial de la recherche, est créée l’Internet Society (ISOC), organisation à but non lucratif, dont certains disent qu’elle est inspirée de la National Geographic Society. Quel est son rôle ? Elle a pour fonction d’assurer la coordination du développement des réseaux informatiques dans le monde en favorisant l’échange d’expériences et l’extension du réseau au-delà de la zone des pays les plus riches: Europe de l’Est, Asie, Amérique du Sud et Afrique. La régulation de l’espace de nommage est alors en passe d’être soumise aux lois du marché. Cela suppose de poursuivre le mouvement de privatisation de l’administration du DNS qui était enclenché. En 1990 la Defense Information Systems Agency (DISA), responsable de la communication au sein du ministère de la défense américain, appelle l’ensemble des agences civiles à la suppléer dans le fonctionnement de son activité non-militaire d’enregistrement des noms de domaine. Aussitôt, sur les recommandations de la DISA, le Federal Networking Council (FNC)[14], représentant des agences civiles telles que le département de l’énergie, la National Aeronautics and Space Administration (NASA) ou encore la National Science Foundation, décide de lancer un appel d’offre en direction du secteur privé, afin que soit définitivement transférée à une entreprise privée, la fonction de gouvernance de l’espace de nommage. La grande gagnante de cet appel d’offre est une compagnie appelée Government Systems Inc (GSI) qui sous-traite sa nouvelle mission à une petite entreprise privée qui réside en Virgine, connue sous le nom de Network Solutions Inc (NSI).

L’évincement des géniteurs du système de nommage de sa gestion. Le 1er octobre 1991, cette société devient le concessionnaire de la plupart des services exercés jusqu’alors par le Defense Data Network-Network Information Center (DDN-NIC)[15], organisme contrôlé par SRI. Néanmoins, NSI ne dispose pas des pleins pouvoirs sur l’activité d’enregistrement des noms de domaine. Elle demeure soumise à l’autorité, tant de l’IANA, qui s’estime être le dernier vrai défenseur de la racine, que de la NSF qui entend, quant à elle, préserver les intérêts gouvernementaux. À l’image d’une palette de peinture sur laquelle les couleurs se mêlent et s’entremêlent, l’espace de nommage apparaît ici comme le terrain d’une opposition frontale entre trois forces de nature différente. Contrairement, toutefois, aux couleurs du peintre, qui se mélangent les unes aux autres pour ne former qu’une seule couleur à la fin, les forces politiques économiques et scientifiques, présentes sur l’espace de nommage, se combattent les unes contre les autres avec la velléité de s’emparer seules du contrôle du DNS. De cette confrontation, seules les forces économiques et politiques en sont sorties vainqueurs, en conséquence de quoi la gouvernance de l’espace de nommage échappe encore un peu plus à l’IANNA. Désormais, le champ est libre pour NSI qui peut commencer à exploiter tranquillement les domaines « .com », « .net » et « .org ». Avec l’avènement du World Wide Web, combiné à l’émergence des premiers navigateurs, tels que Mosaïc, Netscape et Internet Explorer, l’internet connaît la plus grande croissance de toute son histoire. Incidemment, cela provoque un nombre, sans précédent, d’enregistrements de noms de domaine. Sans surprise, seuls les domaines en « .com » font l’objet de ce ras de marée qui a pris d’assaut l’espace de nommage. Il s’ensuit, mécaniquement, une pénurie des noms de domaine sur le « .com ». Il s’agit là du même type de pénurie qui, naguère, a déjà frappé l’espace de nommage, à l’époque du fichier hosts.txt. Sous prétexte de remédier à la pénurie des noms de domaine, NSI, autorisé par la NSF, prend la décision, en 1995, de facturer l’enregistrement des noms de domaines, ce qui fait d’elle le premier monopole, au sens économique du terme, qui exploite les ressources de l’espace de nommage. Il était, pourtant, une autre solution possible pour répondre à la pénurie qui s’est installée sur le domaine « .com ».

La contestation grandissante de la monopolisation de la racine. Alors que NSI a répondu à ce phénomène par une solution économique, Jon Postel propose une solution technique. L’alternative consiste en la création de 130 nouveaux domaines. À cette fin, est créé, par l’IANA et l’ISOC, l’Internet Ad Hoc Committee (l’IAHC), structure dont la mission est d’assurer l’élargissement de l’espace de nommage. Dès sa création, cette organisation reçoit le soutien de plusieurs organisations internationales dont l’UIT (Union Internationale des Télécommunications), l’INTA (International Trademark Association), ou encore l’OMPI (Organisation Mondiale de la Propriété Intellectuelle). Il en est résulté un rapport publié en 1997 qui préconise d’une part, la création de sept nouveaux noms de domaines et, d’autre part, la création d’une organisation non gouvernementale pouvant réguler l’enregistrement des noms de domaines sous ces nouvelles extensions. Ainsi, est né le Council of Registars (CORE), lequel propose l’instauration de sept nouveaux domaines[16]. Cela était sans compter sur Ira Magaziner, conseiller spécial aux affaires sociales de Bill Clinton. Cet homme politique s’oppose vigoureusement au projet du CORE, sans doute sous les pressions de NSI, peu enclin – et pour cause – à voir son monopole lui échapper. La concurrence a, cependant, commencé à se faire entendre. Des acteurs économiques et scientifiques contestent de plus en plus le bien-fondé de ce monopole. Ajouté à cela, les revendications des gouvernements nationaux, de la Commission Européenne et de l’Organisation des Nations Unies, qui se sont mis à remettre en cause l’autorité des États-Unis sur l’espace de nommage, il est apparu nécessaire de réformer la structure institutionnelle entourant le DNS. En janvier 1998, le DoC propose un green paper afin de calmer les esprits, la seule condition étant que le siège de la future organisation se trouve sur le sol américain. L’heure est aux négociations. Elles débouchent, en juin 1999, sur l’adoption d’un white paper, accepté par l’ensemble de la communauté internationale[17]. De ce compromis, il en est ressorti la création d’une société à but non lucratif de droit californien : l’Internet Corporation for Assigned Names and Numbers (ICANN)[18]. Deux mois avant, Jon Postel, sur qui reposait, depuis la fin des années soixante-dix, l’administration technique de l’espace de nommage, décède.

Une translation de pouvoir au bénéfice de l’ICANN. Plus qu’un symbole, sa mort marque, tant la fin de l’ère « préhistorique » du système d’adressage logique qui avait vu naître le DNS, que le commencement d’une nouvelle ère, une ère sous laquelle l’administration de la racine va être au centre de toutes les attentions. Bien que se distinguant assez nettement du fichier hosts de par son contenu, le fichier racine s’en rapproche, néanmoins, à maints égards, ne serait-ce que parce que tous deux se sont vus attribuer la fonction de détermination de l’espace de nommage. Mais là n’est pas notre préoccupation. Ce sur quoi doit se focaliser notre regard c’est, surtout, sur le fait que le passage de l’ancien système d’adressage alphanumérique au système DNS, s’est accompagné d’une translation de pouvoir. En un peu moins d’une vingtaine d’années on a pu assister en la captation progressive du pouvoir que se partageaient les pères fondateurs de l’internet sur le fichier hosts.txt, au profit d’une autorité, l’ICANN, qui désormais a seule la maîtrise du fichier racine. Contrairement au NIC dont les prérogatives sur l’espace de nommage se limitaient à sa maintenance, le pouvoir qu’exerce l’ICANN sur lui, est bien plus important puisqu’il s’étend à sa gouvernance. Cela ne poserait guère de difficultés si cette gouvernance était, comme à l’époque du NIC, effectuée conformément aux règles de l’ordre numérique. Sauf que, tel est loin d’être le cas. L’action menée par l’ICANN est commandée, moins par le souci d’aller dans le même sens que celui dans lequel œuvrent les architectes du réseau, que par des considérations d’ordre, tant politique, qu’économique. Politique d’abord, l’ICANN peut difficilement ne pas voir qualifier de la sorte la gouvernance qu’elle mène sur l’espace de nommage, dans la mesure où il existe un lien opaque entre cette organisation et le gouvernement américain[19]. Par ailleurs, comme le fait observer Cédric Manara « l’ICANN tire de ses statuts la prérogative de faire adopter des règles techniques, dont l’application concrète reflète aussi le pouvoir de contrainte qui est le sien»[20]. Pour ce qui est, ensuite, de la dimension économique que revêt cette gouvernance, elle relève de l’évidence. Cette dimension naît à l’instant même où est attribuée par NSI une valeur pécuniaire aux noms de domaine. Car ils sont une ressource rare. Et si d’aucuns s’avancent à dire que cette rareté est organisée par l’ICANN, elle est avant tout due, comme il a été vu, à l’exigence d’unicité de l’espace de nommage. Toujours est-il que, quelles que soient les causes de cette rareté, organisée ou non, elle est bien présente, de sorte que cela ajoute à l’importance du pouvoir de gouvernance que détient, désormais, seule l’ICANN sur l’espace de nommage.

[1] M. Mueller, op. cit. note 56, p. 91.

[2] À la suite du départ de Robert Kahn de la DARPA, en 1986, celui-ci a fondé, avec le soutien de Vint Cerf et de Keith Uncapher, une nouvelle organisation à but non lucratif, la Corporation for National Research Initiatives (CNRI), destinée à la recherche et au développement des infrastructures nationales de l’information.

[3] Le FNC a été créé par la National Science Foundation en 1990.

[4] Lors de la mise en place du DNS, c’est le service DDN-NIC du SRI qui a pris en charge, en passant un contrat avec le ministère de la défense américain, tous les services d’enregistrement, ce qui comprenait les domaines de premier niveau (Top Level Domain – TLD) et la gestion des serveurs DNS racine.

[5] Il s’agit des « .firm”, « .web », « .info », « .art », « .rec », « .nom », « .shop ».

[6] Bien que l’ICANN soit née d’un compromis entre États, elle ne saurait être considérée, comme le souligne Cédric Manara, comme un sujet de droit international. Elle est, pour le droit international public, « une entité inconnue » (C. Manara, op. cit. note 65, p. 34).

[7] Cela n’empêche pas les États-Unis d’entretenir un rapport privilégié avec l’ICANN. Cette organisation est, en effet, sous le contrôle du Department of Commerce qui, sans que les autres États puissent juridiquement s’y opposer, peut lui retirer son agrément.

[8] L’ICANN est contractuellement engagée avec le DoC, depuis le 25 novembre 1998. Il s’agit là presque, si l’on peut s’exprimer ainsi, d’un lien de vassalité qui existe entre les deux entités. Le DoC a le pouvoir de dénoncer à tout moment, et unilatéralement, l’accord qu’il a conclu avec l’ICANN, et donc de revenir sur son adoubement duquel elle tire tous ses pouvoirs sur le système d’adressage. V. en ce sens M. Mueller, op. cit., note 56, pp. 163 et s.

[9] C. Manara, op. cit. note 65, p. 35.

[10] M. Mueller, Ruling the Root. Internet Governance and the Taming of Cyberspace, MIT Press, 2004, p. 39.

[11] Ibid., p. 40.

[12] V. en ce sens M.D. Kudlick, Host Names On-Line, RFC 608, 1974.

[13] H. Klein, « Icann et la gouvernance de l’internet : la coordination technique comme levier d’une politique publique mondiale », in Les cahiers du numérique. La gouvernance d’Internet, Lavoisier, 2002, vol. 3, n°2, p. 99.

[14] Par exemple : D. Barr, Common DNS Operational And Configuration Erros, RFC 1912, 1996 ; P. Mockapetris, Domain System Changes and Observations, RFC 973, 1986 ; J. Postel et J. Reynolds, Domain Requirements, RFC 920, 1984 ; J. Postel, Domain Name System Structure and Delegation, RFC 1591, 1994 ; J. Postel, Domain Name System Implementation Schedule, RFC 897, 194. P. Mockapetris, Domain Names – Concepts and Facilities, RFC 1034, 1987 ; P. Mockapetris, DNS Encoding of Network Names and Other Types, RFC 1101, 1989 ;

[15] V. supra, n°63 et s.

[16] Hors extension, le nom de domaine ne peut pas excéder 63 caractères alphanumériques (lettres de A à Z et chiffres de 0 à 9). Aucune différence n’est faite entre les lettres majuscules et minuscules. Tous les autres caractères ne sont pas admis (accents, apostrophes, sous-tirets, etc…). Depuis peu, sont générés par le système d’adressage ce que l’on appelle les noms de domaine internationalisés (IDN). Ces identifiants ont la particularité de faire appel à des caractères de la langue locale. Ils peuvent, en d’autres termes, comporter des caractères avec signes diacritiques (autres que ceux contenus dans l’ASCII : lettres de A à Z, chiffres de 0 à 9, tiret, etc.) qu’exigent la plupart des langues européennes ou des caractères différents de ceux de l’alphabet latin (par exemple arabes ou chinois).

[17] Dans le courant des années quatre-vingt-dix a été développé ce que l’on appelle le protocole IPv6 (Internet Protocol version 6), lequel a vocation à remplacer le protocle IPv4. Ces protocoles président à la création des adresses IP. La mane des adresses IP créées à partir du protocole IPv4 étant bientôt épuisée, des travaux ont été menés, sous la houlette de l’IETF (Internet Engineering Task Force), afin d’élaborer un nouveau protocole qui mettrait fin à cette rareté. C’est là la fonction du protocole IPv6. Son déploiement, en France, a commencé dès l’année 1996 avec le réseau RENATER (Réseau national de télécommunications pour la technologie, l’enseignement et la recherche).

[18] Dans le RFC 814, Clark propose un espace de nommage avec une architecture distribuée, celui-ci permettant que « each network (or group of networks) is responsible for maintaining its own names and providing a ‘name server’ to translate between the names and the addresses in that network ». D. Clark, Name, Addresses, Ports, and Routes, RFC 814, Juil. 1982. Disponible sur: http://tools.ietf.org/html/rfc814.

[19] Pour une analyse de l’expression générique que constitue désormais le « nom de domaine », V. C. Manara, Le droit des noms de domaine, LexisNexis, coll. « Propriété intellectuelle », 2012, p. 5 et s.

[20] On parle également de noms de domaine de premier niveau. Cette expression se retrouve dans la loi. Il y est de la sorte fait référence à l’article L. 45, I, alinéa 5 du Code des postes et communications électroniques lequel dispose que « l’attribution et la gestion des noms de domaine rattachés à chaque domaine de premier niveau sont centralisées par un organisme unique ».

Gouvernance ou régulation de l’internet?

Notion de gouvernance. D’aucuns soutiennent que l’internet est plus qu’un simple réseau de communication. Parce qu’il relie les êtres humains en leur offrant la possibilité d’entretenir des rapports pourvus d’une interactivité proche de celle que l’on trouve dans une rencontre entre une ou plusieurs personnes dans le monde physique, il se confondrait avec la société elle-même. Si, l’évolution de cette dernière tend, de plus en plus, vers la mondialisation, cela n’est, à l’évidence, pas sans rapport avec l’enlacement de la surface du globe par les réseaux informatiques[1]. Dans cette perspective, l’internet peut être regardé comme un gigantesque système, numérique, qui serait constitué, tant d’une composante matérielle, que d’une composante humaine. L’étude des principes par lesquels son fonctionnement est sous-tendu suppose, dès lors, de s’interroger sur la gouvernance de ces deux composantes. Du grec ancien kubernân, mot signifiant piloter, manœuvrer, dont est issu le mot latin gubernare, qui a lui-même donné le verbe gouverner, le terme gouvernance renvoie littéralement à l’action de diriger un navire au moyen d’un gouvernail. C’est Platon qui, le premier, recourt à ce terme pour désigner métaphoriquement le fait de gouverner les hommes[2]. Plus tard, celui-ci sera utilisé, au Moyen Âge, pour évoquer la manière de gouverner[3]. C’est dans ce sens précis que nous entendons employer le terme de gouvernance, que nous préférons au terme régulation, tout aussi usité, sinon plus. Pourquoi l’écarter de notre champ lexical ? Arrêtons-nous un instant sur la signification du terme régulation.

Notion de régulation. Son origine est à rechercher dans la science des systèmes et, plus exactement, des systèmes « régulés », tels les machines à vapeur ou les radiateurs équipés d’un thermostat. Surtout, le concept de régulation a suscité un grand intérêt chez les pères de la théorie générale des systèmes. Selon cette théorie, tout système organisé serait en permanence confronté à l’accroissement en son sein de désordre (l’entropie), généré par l’environnement extérieur dans lequel il évolue. La régulation aurait alors pour fonction de neutraliser la progression de l’entropie pour maintenir à l’équilibre le système, ce qui lui permettrait de conserver un état stationnaire. Comme l’on pouvait s’y attendre, le concept de régulation a, très vite, été repris en sciences humaines pour désigner le mécanisme qui permet de maintenir l’équilibre des forces qui, en permanence, s’affrontent dans les systèmes sociaux. Ainsi, en sciences juridiques, par exemple, Marie-Anne Frison-Roche explique que la régulation consiste « à instaurer ou maintenir les grands équilibres de secteurs qui ne peuvent, par leur seule force, les créer ou les maintenir»[4]. De son côté, André-Jean Arnaud définit la régulation comme « le processus par lequel le comportement d’un système perçu complexe est maintenu ou ajusté en conformité à quelques règles ou normes »[5]. Enfin, citons la définition de Jacques Chevalier qui perçoit la régulation comme étant « destinée à annuler l’effet des perturbations extérieures, en maintenant l’équilibre homéostatique du système juridique »[6]. De toutes ces définitions, il ressort que la fonction première de la régulation est de garder le système sur lequel elle porte en équilibre, un équilibre statique.

Choix du terme gouvernance. Aussi, est-ce précisément parce que le système numérique n’a pas vocation à voir pareil équilibre s’installer en son sein, que l’emploi du terme régulation ne serait pas approprié pour désigner ce dont il fait l’objet. L’internet est, en effet, loin de ressembler à un système dont l’état serait stationnaire, constant, tel le corps humain qui, par exemple, s’évertue à conserver, par l’entremise du processus d’homéostasie, une température de 37 °C. L’internet est un système qui, au contraire, évolue, en permanence, au fur et à mesure que ses bâtisseurs œuvrent sur lui, le construisent. Naturellement, il possède bien un équilibre interne, sans quoi il ne saurait subsister. Cet équilibre n’est, cependant, pas statique, mais dynamique. Autrement dit, il s’agit là d’un équilibre qui se meut vers l’avant. Il joue, en quelque sorte, le rôle d’un moteur ; un moteur qui permet au système numérique d’évoluer. C’est pourquoi ce système fait l’objet d’une gouvernance et non d’une régulation. Le terme gouvernance est empreint de cette idée de mouvement, à l’image de la conduite d’un navire qui avance sur l’océan.

[1] V. en ce sens É. Loquin et C. Kessedjian, La mondialisation du droit, Litec, Paris, 2000, p. 116.

[2] Pour une analyse de l’évolution du terme gouvernance dont la signification s’est, au cours des siècles, enrichie d’une dimension politique v. O. Paye, « La gouvernance : D’une notion polysémique à un concept politologique », Études internationales, vol. 36, n° 1, 2005, pp. 13-40.

[3] V. en ce sens, J. Chevalier, « La gouvernance et le droit » in Mélanges Paul Amselek, Bruxelles, Bruylant, 2005.

[4] M.-A. Frison-Roche, « Le juge et la régulation économique », Annonces de la Seine, n°36, 22 mai 2000, p. 2.

[5] Dictionnaire encyclopédique de théorie et de sociologie du droit, sous la dir. de A.-J. Arnaud et alii, L.G.D.J, 2e éd., 1993, p. 521.

[6] J. Chevalier, « La régulation juridique en question », Droit et société, 2001, n°49. Disponible sur : http://www.reds.msh-paris.fr/publications/revue/html/ds049/ds049-07.htm.

Les origines du principe de neutralité de l’internet

Révolution. L’Histoire nous l’enseigne : tout changement de paradigme est le fruit d’un long processus auquel sont mêlés d’innombrables protagonistes[1]. D’ordinaire, il est pourtant admis que les révolutions, sociales ou scientifiques, s’apparentent en un coup de tonnerre pourfendant le ciel. Sans nul doute, la cause de ce sentiment que beaucoup partagent, à tort, n’est pas à rechercher dans une quelconque faculté dont seraient dotés les instigateurs des révolutions de les déclencher selon leur bon vouloir, mais plutôt dans l’incapacité de leurs observateurs à les prévoir. L’idée révolutionnaire, de relier des ordinateurs entre eux n’échappe pas à la règle. Elle est la résultante d’une lente évolution qui s’est enclenchée lorsque l’Homme a pris conscience que, le salut de l’humanité dépendait, pour une large part, de son aptitude à communiquer avec ses semblables. Le choix de l’architecture qu’il a entendu conférer au premier réseau numérique qui, rapidement, allait devenir un phénomène planétaire, voit ses racines profondément enfouies dans le passé. Ceux qui seraient tentés d’attribuer la paternité de la grande révolution sociale, dont a été porteuse l’architecture de l’ARPANET, aux seuls bâtisseurs de cet ouvrage, risquent, par conséquent, d’occulter que celle-ci a, en réalité, été amorcée bien avant que, Licklider et les savants qui lui ont succédé, aient eu et mis en œuvre leurs idées. La croyance tendant à admettre que cette révolution serait le pur produit de la structure décentralisée du réseau est véhiculée lorsque, par exemple, certains affirment que « l’intelligence distribuée [d’une infrastructure globale d’information] diffusera une démocratie participative […] en accroissant la participation des citoyens à la prise de décision et […] favorisera la capacité des nations à coopérer entre elles»[3]. Cette idée apparaît, cependant, comme partiellement erronée.

Réseau et choix de société. Pour s’en persuader, il suffit de se remémorer les propos de Michel Chevalier qui, déjà en 1836, avait une idée très précise de la finalité vers laquelle devait tendre tout système de communication. Pour lui, « améliorer la communication, c’est […] travailler à la liberté réelle, positive et pratique […], c’est faire de l’égalité et de la démocratie. Des moyens de transport perfectionnés ont pour effet de réduire les distances non-seulement d’un point à un autre, mais encore d’une classe à une autre»[4]. La pensée selon laquelle un réseau de communication peut se révéler comme un formidable instrument pour combattre les inégalités sociales et faire « s’évanouir les plus grands obstacles qui s’opposent à la civilisation des hommes et à leur réunion en grandes républiques »[5], est donc loin d’être nouvelle. Selon toute vraisemblance, l’ambition des architectes du réseau ARPANET était plus modeste que celle qui leur est habituellement prêtée. Pour autant, ils n’en sont pas moins parvenus à inscrire, dans l’architecture de l’édifice numérique, les valeurs que n’ont cessé de prêcher les héritiers de la pensée saint-simonienne. Probablement, certains se demandent comment de telles valeurs peuvent être incarnées et portées par pareille entité qui, en définitive, n’est qu’un simple agglomérat de câbles et d’ordinateurs. Afin de montrer en quoi derrière l’adoption de l’architecture d’un réseau peut se cacher un véritable choix – même inconscient – de modèle de société, il convient dès lors d’approfondir l’examen de celle pensée par les bâtisseurs de l’ARPANET.

Partage et accroissement de la puissance du réseau. Au préalable, il apparaît toutefois nécessaire de se rappeler la raison première pour laquelle ils ont été conduits à faire communiquer des machines entre elles. Pour mémoire, lorsqu’est venue à Licklider, l’idée de mettre en réseau des ordinateurs, il n’était habité que par la seule intention de développer le concept qui lui était si cher de l’informatique en temps partagé. Et si, pour ce faire, celui-ci s’est, d’abord, focalisé sur la recherche d’un moyen permettant aux chercheurs d’utiliser simultanément les ressources informatiques d’une seule et même machine[6], très vite, il lui a semblé plus judicieux de réfléchir à la conception d’un système plus global, qui offrirait la possibilité de mettre en commun les ressources de plusieurs machines[7]. Dans son esprit, cela supposait, en toute logique, que le réseau ainsi créé soit alimenté par la puissance de calcul de chaque ordinateur s’y connectant. Plus le nombre de ses utilisateurs augmenterait, plus grand serait le bénéfice que ces derniers pourraient en retirer. Envisager l’hypothèse inverse de l’adoption d’un système de communication pourvu d’une puissance de calcul initiale qui, par suite, aurait vocation à être partagée entre tous les utilisateurs du système serait revenu à admettre que la part revenant à chacun d’eux puisse diminuer à mesure de l’augmentation de leur nombre. Mais tel n’était pas le résultat recherché par Licklider. Il avait en tête de réaliser un réseau qui, lors de l’agrégation de toute nouvelle ramification, devait voir ses performances s’améliorer et non se dégrader ; autrement dit, un réseau où tout ce que l’on y partagerait, serait destiné à s’accroitre. L’architecture du réseau imaginé par Licklider ne pouvait, dans ces conditions, qu’être décentralisée.

Incertitude quant à l’utilité du réseau. Outre l’acception renvoyant à un réseau dont la disposition des nœuds forme un échiquier, par décentralisé, il faut entendre, un système où la puissance de calcul se trouve à ses extrémités. Chaque utilisateur doit pouvoir prétendre à une puissance de calcul qui soit le fruit d’une multiplication et non d’une division. Les dignes successeurs de Licklider avaient bien compris les avantages que pouvait procurer le choix d’une telle architecture – en plus de ceux précédemment évoqués[8]. C’est pourquoi, lorsque l’ARPANET a été élaboré, le recours à une structure centralisée a, d’emblée, été écarté. Elle était pourtant utilisée par AT&T comme support du réseau téléphonique. Nombreux étaient ses partisans, même au sein de l’ARPA[9]. A l’évidence, cela n’a pas été suffisant pour convaincre Taylor, Roberts et Baran de l’adopter. Alors que les deux premiers, étaient déterminés à appliquer le concept de l’informatique en temps partagé au réseau d’ordinateurs qu’ils ambitionnaient de réaliser, le troisième pointait, quant à lui, du doigt, la vulnérabilité des systèmes de communication en forme d’étoile. En définitive, c’est bien pour une architecture décentralisée qu’ils ont opté, malgré le scepticisme ambiant qui régnait à l’intérieur de l’agence gouvernementale. Au commencement du projet, ils n’étaient que quelques-uns à percevoir l’utilité de doter un réseau d’une pareille structure. La plupart ne parvenait pas à voir quelles répercussions pouvait avoir le fait de partager avec d’autres les ressources d’une machine, sinon celle de les rendre plus faibles qu’elles ne l’étaient déjà. Comme le souligne Laurence Lessig, il est difficile de blâmer ceux qui, à l’époque, ne savaient pas à quoi serait susceptible de servir le réseau qui était en passe de se construire. En vérité, même ses pères spirituels l’ignoraient[10]. C’est justement là que réside tout leur génie.

Un silex taillé. Pour reprendre l’assimilation faite par Philippe Breton de l’ordinateur au « silex taillé », le réseau ARPANET partage également quelques affinités avec le célèbre « caillou ». Tout comme lui, son invention « précéda l’intelligence que les hommes purent avoir de son usage»[11]. La préoccupation des bâtisseurs n’était nullement de conférer à leur ouvrage une quelconque utilité. Elle résidait dans sa seule mise à disposition ; libre à ses utilisateurs de lui en trouver une. Tel un morceau de bois ou un bloc de pierre, dont l’utilisation peut varier d’une extrémité à l’autre, selon l’intention qui anime celui qui s’en sert, le réseau ARPANET a cette particularité d’être tout à la fois dépourvu d’utilité lorsqu’il se trouve à l’état brut et, à l’inverse, susceptible de se révéler infiniment utile si quelqu’un exploite l’une ou plusieurs de ses propriétés. Peu nombreux étaient ceux qui, à la fin des années soixante-dix, avaient compris l’intérêt de laisser aux utilisateurs du réseau le soin de déterminer les usages auxquels son exploitation pouvait donner naissance. Pour autant, peu à peu, cette idée a fait son chemin dans les esprits, jusqu’à être conceptualisée, au début des années quatre-vingts, dans une publication de David Clark, Jérôme Saltzer et David Reed[12]. Dans cet article, pour la première fois est décrit le principe sur lequel repose l’architecture adoptée par les bâtisseurs de l’ARPANET.

Principe du end-to-end. Baptisé end-to-end argument (bout en bout), ce principe consiste à placer la puissance de calcul, soit ce que Lawrence Lessig appelle « l’intelligence du réseau»[13], à ses extrémités, de sorte que le système puisse se développer de manière organique[14]. Plus concrètement, doivent être distingués les ordinateurs qui se trouvent au centre du réseau, qui ont pour fonction d’assurer la communication entre deux machines distantes, de ceux, situés à sa lisière, dont la vocation n’est autre que d’émettre et de recevoir. Alors que les premiers doivent, selon David Clark, n’effectuer que des tâches rudimentaires, tendant au transport des paquets de données, les seconds ont, quant à eux, pour rôle de réaliser les opérations informatiques les plus complexes, celles en rapport, non pas avec l’acheminement de l’information, mais avec la finalité de cet acheminement. En vertu du principe du end-to-end, c’est donc à travers les ordinateurs localisés aux extrémités du réseau que peuvent être identifiés les usages qui en sont fait[15]. Là n’est pas la seule conséquence qu’emporte la réalisation de ce principe. En plus de voir les utilisateurs maîtres des fonctions dont est pourvu le système de communication auquel ils ont recours, l’adoption d’une architecture décentralisée est de nature à les mettre tous sur un pied d’égalité[16]. Pour anodine et insignifiante que puisse paraître, d’un point de vue technique, cette caractéristique qui découle de l’application du principe du end-to-end, comme s’accordent à le dire de nombreux auteurs, les effets qui s’ensuivent n’en sont pas moins cruciaux sur le plan sociopolitique[17].

Forme du réseau et modèle de société. S’il est indéniable que le réseau ARPANET est la résultante d’une grande prouesse technologique, en ce qu’il a été doté de la faculté de se développer organiquement, il ne faut pas non plus oublier qu’il a surtout été conçu comme le medium auquel pouvaient recourir les scientifiques de tous lieux pour communiquer. Avant d’être un réseau d’ordinateurs, il devait former, comme aimait à le rappeler Taylor et Licklider, une « supercommunauté»[18]. Or toute communauté, quel que soit le lien qui unit ses membres, répond nécessairement à une logique organisationnelle ; car la nature de l’Homme est de toujours vouloir rechercher un cadre social stable dans lequel il peut évoluer. Aussi, cela nous renvoie-t-il à la pensée d’illustres auteurs tels que Diderot, d’Alembert, Proudhon ou encore Saint-Simon et ses disciples, qui voyaient dans la figure du réseau, au-delà de son aspect technique, différents cadres sociaux. Pour eux, et notamment Proudhon, deux sortes de réseaux s’opposent. Ils ne nous sont pas inconnus, puisqu’il s‘agit du réseau étoilé et de celui dit « en échiquier ». Le premier correspond, de par son architecture centralisée, à un modèle de société dans laquelle ses membres seraient unis par un lien hiérarchique[19]. Le second se rapporte plutôt à une organisation décentralisée où les membres du groupe seraient placés sous le signe de l’égalité. Proudhon soutient que derrière l’architecture technique de n’importe quel réseau se cache presque toujours un choix politique[20].

Neutralité et égalité. Il ne saurait, toutefois, être imputé aux bâtisseurs de l’ARPANET la velléité d’avoir voulu recréer une agora artificielle sur laquelle viendraient se réunir les nostalgiques de la démocratie athénienne. Quand bien même, il n’est jamais de pur hasard, leur intention première n’était autre que de fournir aux communautés scientifiques et universitaires un instrument par le biais duquel elles pourraient s’adonner au travail collaboratif. Le choix d’une architecture qui repose sur le principe du end-to-end a, pourtant, bel et bien été accompagné de répercussions propres à un choix politique ; d’où, la difficulté de les dissocier. Parce que l’ARPANET a été élaboré sur un modèle de réseau décentralisé, il génère une égalité parfaite entre ses utilisateurs dans les rapports qu’ils entretiennent avec ce dernier[21]. Dans pareil système, un enfant se trouve être l’égal du savant ou du milliardaire[22]. Peu importe l’âge, la qualité, la nationalité, le niveau de connaissance ou de ressources financières de l’utilisateur, seul compte le fait d’être connecté au système via un ordinateur. Cette égalité, qui règne au sein du réseau, fait de lui une entité neutre, en ce sens qu’il n’est procédé à aucune discrimination à l’égard de la source, de la destination ou encore du contenu de l’information acheminée[23]. Neutralité et égalité sont indubitablement liées. Plus encore, la neutralité dont est empreinte quelque entité que ce soit, fait naître une égalité entre ses sujets. Comme a pu l’écrire un auteur, s’agissant de la neutralité à laquelle est soumise toute autorité administrative, elle a pour effet de « garantir le respect du principe d’égalité»[24] entre les administrés. Le réseau ARPANET est manifestement teinté de la même neutralité que celle que l’on connait à nos institutions[25]. De cette neutralité qu’il arbore, nous pouvons déduire deux conséquences principales s’agissant de la liberté d’action des internautes.

Conséquences de la neutralité du réseau. La première d’entre elles tient aux capacités dont est pourvu le réseau : elles sont les mêmes pour tous les utilisateurs. Ils sont, en d’autres termes, égaux devant son fonctionnement. À l’image de deux peintres qui se tiennent en un même lieu, profitant à part égale de la lumière du soleil pour réaliser leur toile, les utilisateurs de l’ARPANET bénéficient à part égale de la puissance qu’il dégage. Le réseau traite, en somme, leurs instructions de manière équivalente, peu importe la nature des données qu’il lui est demandé de transporter, leur provenance ou encore leur destination. Chaque utilisateur est en droit d’attendre qu’il soit mis – dans la mesure du possible – au service de sa requête, la plénitude de la capacité du réseau à acheminer de l’information. La seconde conséquence que fait naître la neutralité du réseau consiste en l’octroi à quiconque s’y connecte d’une absolue liberté quant à lui conférer une utilité. C’est aux utilisateurs du réseau qu’il incombe de déterminer quelles sont les fonctions qu’il doit remplir et donc de le développer. C’est à eux, que revient le pouvoir de création de toute chose qui se trouve à ses extrémités[26]. Le réseau étant neutre, aucune discrimination ne saurait être opérée entre les différentes innovations dont l’existence repose sur l’exploitation de ses capacités. Que celui-ci soit utilisé comme support de communication pour téléphoner, pour recevoir la télévision ou la radio, pour partager des données, pour déclencher des tirs de missiles à distance, pour espionner l’humanité toute entière ou encore pour procéder à une greffe de cœur par-delà les océans, peu importe. La neutralité du réseau garantit aux utilisateurs la possibilité d’y recourir librement, afin que s’exprime leur imagination. Comme le souligne Lawrence Lessig « le réseau ne peut pas exercer de discrimination contre une nouvelle structure innovante»[27]. Dit autrement, qu’une innovation soit bonne ou mauvaise, performante ou inefficace, populaire ou décriée, dès lors qu’elle répond aux caractéristiques techniques que requiert le système, elle en fait partie intégrante. La décision de la retirer ou de la modifier appartient à son seul créateur. De par sa neutralité, le réseau est ainsi doté de l’incroyable faculté d’accueillir en son sein une infinité d’innovations toutes plus différentes les unes des autres.

Neutralité et concurrence. Au total, les bâtisseurs jouissent, à part égale, d’une grande liberté d’action. Cette conjugaison de la liberté avec l’égalité est de nature à créer un terrain extrêmement fertile pour que se réalise une vive concurrence entre les architectes du réseau quant à la production d’innovations. Ne dit-on pas au sujet de la concurrence qu’elle est déloyale, et donc faussée, lorsque l’avantage dont bénéficie un opérateur sur ses concurrents procède d’un traitement différent dont il ferait l’objet par une entité extérieure au marché ? Assurément, aucune concurrence ne saurait exister – et encore moins être parfaite – lorsque des agents sont discriminés par rapports aux autres. La raison en est que, pour s’engager dans une compétition, quelle qu’elle soit, les opérateurs doivent être animés par la certitude, sinon le sentiment, d’avoir une chance de se positionner en bonne place sur le marché qu’ils convoitent. L’existence même de la concurrence dépend en grande partie de l’idée que se font les agents de gagner la compétition à laquelle ils décident de participer. Parce que le réseau est neutre, ses bâtisseurs n’ont jamais eu à douter de leurs chances de réussite dans le cyberespace. Ils pouvaient, de la sorte, entretenir l’espoir que le bénéfice qu’ils retireraient de leurs investissements serait, a minima, proportionnel aux efforts consentis. Immédiatement, une question se pose. Pourquoi les architectes du réseau ont-ils pu avoir une confiance si grande dans la neutralité du réseau ? Pour certains, les enjeux financiers étaient grands. Ces derniers étaient, certes, animés par le désir d’apporter leur pierre à l’édifice numérique. Cette entreprise comportait, cependant, une dimension matérielle qui ne saurait être négligée. D’où, la question de savoir, pour quelle raison les bâtisseurs de l’internet ont-ils eu le sentiment qu’ils étaient sur un pied d’égalité, et qu’ils participaient à une concurrence non faussée. Sans aucun doute, cela s’explique, en partie, par le fait qu’ils ne se voyaient pas que comme des concurrents, mais aussi comme des collaborateurs.

[1] S’agissant des révolutions scientifiques, Thomas Kuhn affirme que « une nouvelle théorie, quelque particulier soit son champ d’application, est rarement ou n’est jamais un simple accroissement de ce que l’on connaissait déjà. Son assimilation exige la reconstruction de la théorie antérieure et la réévaluation des faits antérieurs, processus intrinsèquement révolutionnaire qui est rarement réalisé par un seul homme et jamais du jour au lendemain » (T. Kuhn, La structure des révolutions scientifiques, Flammarion, coll. « Champs », 1999, p.24).

[2] V. supra, n°9 et s.

[3]Al. Gore, « Remarks prepared for delivery by Vice President Al Gore to the International Telecommunications Union Development Conference in Buenos Aires », Argentina on March 21, 1994, Washington D.C., Department of state, USIA, mars 1994.

[4] M. Chevalier, Lettres sur l’Amérique du Nord, Paris, éd. Gosselin, 1836, t. II, p. 3.

[5] V. en ce sens la pensée de Bertrand Barrère, député de la Convention et membre du Comité du salut public, qui s’est montré très enthousiaste face à l’émergence des nouveaux moyens de communication. A. Vandermonde, « Quatrième leçon d’économie politique », 23 ventôse/13 mars”, in L’École normale de l’an III, éd. Nordman D., Paris, Dunod, 1994. Cité in A. Mattelart, « La communication et la promesse de rédemption », Quaderni, n°40, Hiver 1999-2000, p. 70.

[6] V. supra, n°23.

[7] V. supra, n°26 et s.

[8] V. supra, n°54.

[9] Pour avoir une idée du scepticisme ambiant qui régnait à cette époque au sein de l’ARPA, v. K. Hafner et M. Lyon, op. cit. note 21, p. 86.

[10] Comme l’explique David reed, « les différentes formes d’utilisations du réseau par ces applications étaient intéressantes en elles-mêmes. C’est pourquoi il nous semblait que nous ne pouvions pas présumer quoi que ce soit de la manière dont le réseau serait utilisé par les applications » (cité in L. Lessig, op. cit. note 22, p. 52).

[11] Ph. Breton, « Le rôle du contexte dans la genèse d’une innovation : (questions à propos de l’invention de l’ordinateur) », Réseaux, 1987, vol. 5, n°24. p. 64.

[12] J. Saltzer, D. Reed, et D. Clark, « End-to-End Arguments in System Design », Second International Conference on Distributed Computing Systems, avr. 1981, pp. 509-512, in ACM Transactions on Computer Systems, 1984, vol. 2, n°4, nov., pp. 277-288.

[13] L. Lessig, op. cit. note 22, pp. 45 et s.

[14] V. en ce sens B. Carpenter, Architectural Principles of the Internet, RFC 1958, 1996.

[15] Illustrer cette affirmation avec des exemples.

[16] Sur les conséquences du principe de neutralité v. notamment l’article devenu célèbre de Tim Wu, lequel est l’un des premiers auteurs à évoquer cette question sous l’angle de l’égalité et de la non-discrimination. T. Wu, « Network Neutrality, Broadband Discrimination », Journal of Telecommunications and High Technology Law, 2003, vol. 2, p. 141.

[17] V. en ce sens L. Lessig, Code and orther laws of cyberspace, Basic Books, 1999, pp. 3 et s ; B. Benhamou, « Organiser l’architecture de l’Internet », Revue Esprit, mai 2006, pp. 154-158.

[18] J. Licklider et R. Taylor, « The Computer as a communication Device », Science and Technology, avril 1968, réédité dans In Memoriam, 1990, p. 31.

[19] Ainsi Proudhon parle-t-il en terme de « pensée princière, gouvernementale du réseau étoilée », P.-J. Proudhon, œuvres complètes, t. XII, Librairie internationale, Paris, 1968, pp. 97 et 98, cité in P. Musso, « La raison du Réseau », Quaderni, n° 52, Automne 2003, Secret et pouvoir : les faux-semblants de la transparence. p. 62.

[20] V. en ce sens P. Musso, art. préc.

[21] V. en ce sens V. Serfaty, « L’Internet : fragments d’un discours utopique ». Communication et langages, n°119, 1er trimestre 1999. pp. 106-117.

[22] V. en ce sens P. Levy, « La montée vers la noosphère », Sociologie et sociétés, vol. 32, n° 2, 2000, p. 19-30.

[23] D’un point de vue étymologique, le terme neutralité vient du latin neuter, qui signifie « ni l’un ni l’autre », formé de ne, adverbe de négation, et uter, l’un des deux.

[24] V. Donier, « Les lois du service public : entre tradition et modernité », RFDA, nov.- déc. 2006 p. 1219 et s.

[25] Pour une analyse approfondie de ce principe de neutralité qui gouverne le réseau v. notamment, W. Maxwell et N. Curien, La neutralité d’Internet, La découverte, 2011.

[26] V. en ce sens J. Vallée pour qui « la vision d’origine était idéaliste : elle voulait libérer la créativité en étendant l’accès à l’information » (J. Vallée, op. cit. note 9, p. 23).

[27] L. Lessig, L’avenir des idées, op. cit. note 22, p. 48.