Site WWW de Laurent Bloch
Slogan du site

ISSN 2271-3905
Cliquez ici si vous voulez visiter mon autre site, orienté vers des sujets moins techniques.

Pour recevoir (au plus une fois par semaine) les nouveautés de ce site, indiquez ici votre adresse électronique :

Communication au second Forum mondial sur le dialogue des civilisations et la diversité culturelle
L’Internet favorise-t-il le dialogue des civilisations et la diversité culturelle ?
Fès, Maroc, 15 - 17 novembre 2008
Article mis en ligne le 26 décembre 2008
dernière modification le 7 août 2019

par Laurent Bloch

Du 15 au 17 novembre j’ai été invité au second Forum mondial sur le dialogue des civilisations et la diversité culturelle qui s’est tenu à Fès au Maroc. Voici la communication que j’y ai présentée (si vous préférez, vous pouvez aller sur le site du Forum pour la regarder en vidéo, ce sont les parties 4 et 5 de la séance).

La diffusion extraordinairement rapide de l’Internet [1]
dans le monde est une évidence qui peut faire oublier sa diversification culturelle encore plus rapide, même si elle est encore limitée. Au cours de cet exposé, j’aborderai cinq aspects de cette internationalisation de l’Internet, pour lesquels les résultats obtenus sont inégaux :

 la disponibilité de contenus en différentes langues ;
 la possibilité d’écrire des textes avec les systèmes d’écriture propres aux différentes langues ;
 la possibilité de désigner des sites Internet par des noms écrits selon différentes écritures ;
 la diversification nationale des instances de décision de l’Internet ;
 l’évolution du marché des échanges de flux entre opérateurs.

Ce tour d’horizon introduira une discussion des problèmes et des enjeux qui en découlent.

L’Internet multilingue

Aujourd’hui sur Internet chacun peut lire des textes, écouter des émissions de radio ou des chansons dans sa langue, et ce facilement. Cela ne doit pas nous faire oublier combien ceci est récent, et encore perfectible.

En 1995, le contenu du Web était pour l’essentiel du texte, et 97% de ce texte était en anglais. C’est cette année-là qu’est apparue la première page Web en chinois, mais il s’agissait d’une réalisation hautement expérimentale.

En 1997, on trouvait 84% de sites en anglais, 4% en allemand, 1,5% en français, etc.

En 2007, nous en étions à 68% de sites en anglais, alors que seuls 35% des internautes ont l’anglais comme langue maternelle.

Aussi étrange que cela puisse paraître, il est difficile d’obtenir des données plus précises sur la répartition linguistique des sites Web. J’ai interrogé mes interlocuteurs chez Google, qui m’ont répondu que bien sûr ils avaient des données très précises sur le sujet, mais qu’ils n’envisageaient pas de les rendre publiques.

Voici maintenant des données sur les internautes, selon leur langue maternelle :

% of all Internet Internet Growth World Population
Internet Users Penetration in Internet for the Language
Users (2000-2008) 2008 Estimated
English 29.4 % 430,802,172 21.1 % 203.5 % 2,039,114,892
Chinese 18.9 % 276,216,713 20.2 % 755.1 % 1,365,053,177
Spanish 8.5 % 124,714,378 27.6 % 405.3 451,910,690
Japanese 6.4 % 94,000,000 73.8 % 99.7 % 127,288,419
French 4.7 % 68,152,447 16.6 % 458.7 % 410,498,144
German 4.2 % 61,213,160 63.5 % 121.0 % 96,402,649
Arabic 4.1 % 59,853,630 16.8 % 2,063.7 % 357,271,398
Portuguese 4.0 % 58,180,960 24.3 % 668.0 % 239,646,701
Korean 2.4 % 34,820,000 47.9 % 82.9 % 72,711,933
Italian 2.4 % 34,708,144 59.7 % 162.9 % 58,175,843
Top 10 Languages 84.9 % 1,242,661,604 23.8 % 278.3 % 5,218,073,846
Other Languages 15.1 % 220,970,757 15.2 % 580.4 % 1,458,046,442
WORLD TOTAL 100.0 % 1,463,632,361 21.9 % 305.5 % 6,676,120,288

(source : Internet World Stats)

Même si l’anglais reste largement la langue dominante sur le Web, nous pouvons constater une diversification linguistique réelle. On observe la croissance très rapide des langues en usage dans des pays où l’essor de l’Internet est récent.
Diversité scripturale

Accéder au Web dans sa langue suppose de pouvoir utiliser l’écriture de cette langue. Il y a trente ans l’idée même de pouvoir utiliser sur un ordinateur d’autres caractères que l’alphabet latin réduit à sa plus simple expression (ni accents ni cédilles) paraissait utopique. La situation a évolué en vertu de deux influences convergentes :

 les efforts des industriels, à partir des années 1980, pour atteindre le grand public : comment espérer vendre un micro-ordinateur à usage domestique si le client ne peut pas utiliser le système d’écriture qu’il a appris à l’école ?Retour ligne manuel
 la position très ferme, dans les organismes de normalisation, des pays asiatiques, qui ont opposé leur veto à tout projet de norme qui ne prendrait pas leurs écritures en considération.

Ce fut un long combat au cours duquel furent surmontés des problèmes techniques dont l’extrême complexité, si elle échappe au profane, s’impose à quiconque plonge dans la documentation du sujet. Ce n’est que depuis 1991 que les solutions locales et incompatibles entre elles laissèrent la place à un travail coordonné à l’échelle internationale par le consortium Unicode et l’ISO.

Le consortium Unicode est une organisation internationale à but non-lucratif créée en 1991 qui regroupe des industriels de l’informatique tels qu’Apple, IBM ou Hewlett-Packard, des éditeurs de logiciels comme Adobe, Oracle, Microsoft ou Google, des états et des institutions tels que le Pakistan, l’Inde, l’Université de Californie à Berkeley, etc. Le but qu’il s’est donné est le développement de normes et de données de référence pour la représentation des textes par les logiciels, dans une perspective d’internationalisation.

Fondamentalement, les ordinateurs et les logiciels ne traitent que des nombres binaires, c’est-à-dire composés de zéros et de uns. Pour représenter des textes, il faut établir des conventions par lesquelles certaines suites de zéros et des uns sont des codes qui représentent des caractères. Ainsi, le code ASCII (pour American Standard Code for Information Interchange) publié en 1963 code des caractères sur 7 chiffres binaires, ce qui permet de représenter 128 caractères : les 26 lettres de l’alphabet latin en majuscules et en minuscules, les chiffres, les signes de ponctuation et quelques autres tels que parenthèses et crochets, tiret et arobas. C’était suffisant pour l’anglais mais inadapté à toute autre langue.

La norme ISO/IEC 8859 élargissait la représentation à 8 chiffres binaires, soit 256 caractères possibles, dont les 128 premiers étaient identiques au code ASCII, et les 128 suivants adaptés à tel ou tel groupe de langues : ISO 8859-15 pour les langues d’Europe occidentale, 8859-2 pour celles d’Europe centrale, 8859-5 pour les écritures cyrilliques, 8859-6 pour l’arabe, 8859-8 pour l’hébreu, etc.

Mais ISO 8859 restait insuffisant : 256 combinaisons ne sont bien sûr pas assez pour représenter les écritures idéographiques telles que le chinois, mais elles ne suffisent même pas pour la représentation complète des écritures latines, avec les ligatures nécessaires à la typographie. Le besoin se faisait donc sentir d’un système unifié et universel, pour représenter toutes les écritures présentes ou du passé, et les travaux en ce sens furent initiés en 1987 par Joe Becker de Xerox et Lee Collins et Mark Davis d’Apple.

L’aboutissement de ces efforts est la norme Unicode, qui établit une méthode pour représenter à l’heure actuelle près de 100 000 caractères appropriés à toutes les écritures de la terre, qu’elles soient alphabétiques, syllabiques ou idéographiques, et qu’elles s’écrivent de gauche à droite, de droite à gauche, de haut en bas ou de bas en haut. Pour mémoire, les deux tiers des caractères Unicode sont dévolus au chinois ! Les jeunes générations, qui trouveront cela tout naturel, auront sans doute du mal à imaginer le chemin parcouru.

Noms de domaines internationalisés

C’est une chose de pouvoir écrire et lire sur le Web des contenus dans sa langue et avec son écriture, c’en est une autre de pouvoir en faire autant pour désigner les objets même de l’Internet, les serveurs et les adresses électroniques notamment. Aujourd’hui, même si je peux écrire un message électronique en arabe ou en chinois, je dois rédiger l’adresse de mon correspondant en me restreignant à l’alphabet latin, sans accents ni cédilles, aux chiffres arabes et au tiret. Il en va de même pour les adresses de sites Web.

Il serait hautement souhaitable que chacun puisse utiliser le système scriptural de sa langue maternelle pour composer des adresses électroniques, mais les problèmes techniques soulevés par cette aspiration légitime sont également redoutables, et nous ne faisons qu’entr’apercevoir les idées de solutions qui pourraient en venir à bout.

Les adresses électroniques, de personnes ou de sites Web, données sous forme littérale, correspondent à des numéros analogues dans leur fonction aux numéros de téléphone, appelés numéros (ou adresses) IP, pour Internet Protocol. Ces numéros doivent bien sûr être uniques mondialement, ce qui permet d’atteindre tout correspondant ou tout serveur n’importe où dans le monde. La correspondance entre les adresses littérales et les adresses numérique est donnée, comme pour le téléphone, par un système d’annuaire ; cet annuaire est électronique, mondial et automatique et s’appelle Domain Name System (DNS), ou système de noms de domaine.

Comme le remarque Vinton Cerf, l’un des inventeurs de l’Internet, « l’un de aspects les plus importants de l’Internet est la capacité de chaque utilisateur de faire référence sans ambiguïté aucune à un nom de domaine enregistré. ... Les noms doivent être uniques et ceux enregistrés dans les prochaines années quelques soient les nouveaux caractères ajoutés dans Unicode pour supporter l’expression d’encore plus de langages écrites doivent l’être aussi. » (Opening Remarks at Internet Governance Forum, Athènes, Grèce 30 octobre – 2 novembre 2006). Un faux pas dans la définition des règles qui seront adoptées pour permettre des noms de domaine dans différents systèmes d’écriture risquerait de balkaniser l’Internet en le scindant en îlots qui ne seraient plus capables de communiquer entre eux.
Gouvernement de l’Internet

Comme nous venons de le voir, toute une série de questions techniques en apparence ont pour les sujets qui nous occupent, le dialogue des civilisations et la diversité culturelle, des implications lourdes de conséquences. Qui prend les décisions dans ce domaine ? L’analyse politique de cette question est un domaine de recherche de plein droit.

L’Internet n’a pas à proprement parler de personnalité juridique. Ses organes de décision sont informels et fonctionnent par cooptation et consensus. Voyons rapidement quels sont-ils.

L’Internet Architecture Board (IAB) est le comité qui supervise le développement technique et l’ingénierie de l’Internet. Il a été formé en 1979 sous le nom de Internet Configuration Control Board.

L’Internet Society (ISOC) est un organisme de discussion qui regroupe 80 organisations et 28 000 adhérents individuels, et qui peut avoir une influence importante dans certains débats.

L’Internet Engineering Task Force (IETF) est un forum technique qui élabore et valide les normes techniques de l’Internet, supervisé par l’IAB. L’IETF fonctionne sur la base du volontariat, les industriels du secteur des réseaux y délèguent éventuellement des ingénieurs. Entre 1 000 et 2 000 personnes assistent aux réunions plénières, mais beaucoup de travail est accompli par le réseau. L’IETF a été créé en 1986 et était à l’époque constitué de 21 chercheurs sous contrat du gouvernement américain. C’est la cheville ouvrière de l’Internet.

L’Internet Corporation for Assigned Names and Numbers (ICANN) est une organisation à but non lucratif créée en 1998 pour prendre en charge un certain nombre de tâches de gestion de l’Internet, notamment les mission stratégiques que sont la réglementation et l’attribution des adresses et des noms, objets du présent exposé.

Tous ces organes étaient à leur origine purement américains, et ignoraient superbement l’existence d’autres pays. Cette situation a évolué progressivement au fur et à mesure que l’Internet se répandait hors des États-Unis, principalement en Europe, dans les universités et les centres de recherche. C’est ainsi que le Français Christian Huitema fut le premier président non-américain de l’IAB d’avril 1993 à juillet 1995. Mais dans la mesure où les États-Unis sont les principaux contributeurs techniques et financiers aux infrastructures qui sous-tendent le fonctionnement de l’Internet, leur poids reste largement dominant.

Celui de ces organes qui suscite le plus de débats, parce que son action a le plus de conséquences politiques et économiques directement observables, est l’ICANN. En effet, l’ICANN supervise l’attribution des numéros IP et des noms de domaine, notamment en édictant les règles qui s’y appliquent et en délivrant les délégations qui permettent à d’autres organismes, en général commerciaux, de les vendre au détail. Au fur et à mesure que les noms de domaine devenaient des actifs commerciaux de grande valeur et les numéros IP une ressource rare, comme nous le verrons plus loin, cette position de monopole de l’ICANN appelait la contestation.

La position de l’ICANN a aussi des implications politiques : ainsi, pour des raisons que le lecteur pourra imaginer, la création d’un domaine .PS pour la Palestine s’est fait attendre beaucoup plus longtemps que celle des domaines .AQ pour l’Antarctique ou .BV pour l’île inhabitée Bouvet dans l’Atlantique sud, sans doute utiles à moins de gens.

Au départ l’ICANN était une simple émanation du Department of Commerce américain, avec pour mission de transférer le gouvernement de l’Internet à l’industrie privée (sous- entendue : américaine) sous un régime de concurrence.

Ce projet d’évolution de l’ICANN a suscité des réactions négatives qui se sont notamment exprimées au Sommet mondial de la société de l’information à Tunis en novembre 2005. Ce sommet mondial, dont la première session a eu lieu à Genève en décembre 2003, était organisé par l’Union internationale des télécommunications (UIT), une agence de l’ONU basée à Genève et où le poids des grands opérateurs européens de télécommunications contrebalance celui des américains. Il a été suivi, du 30 octobre au 2 novembre 2006 à Athènes, par le Forum sur la gouvernance de l’Internet, chargé de faire progresser dans les faits les résolutions formulées à Tunis, qui portaient principalement sur l’accroissement des possibilités d’accès à l’Internet dans les pays en développement et la garantie de la neutralité des réseaux.

Les revendications du sommet de Tunis n’ont pas été vraiment prises en considération, mais l’ICANN a admis au moins en principe l’idée que la gestion l’Internet devrait s’internationaliser. Néanmoins, le Department of Commerce a en juillet 2008 réitéré sa position de ne pas abandonner la gestion de la racine du DNS. Malgré l’internationalisation (toute relative) des instances de l’Internet, restent totalement sous le contrôle des États-Unis les points stratégiques : attribution des numéros IP et des noms de domaine, gestion de la racine du DNS, délégation de la distribution des numéros et des noms.

En fait, les opérateurs et les industriels européens qui tiennent la tribune à l’UIT ont pris en marche le train de l’Internet, et ils sont aujourd’hui en position de faiblesse. Ainsi, en 1996 Alcatel était le leader mondial de l’industrie des Télécoms, et à la même date Lucent, une entreprise juste créée à partir du démantèlement d’American Telegraph & Telephon et qui partageait avec ses collègues européens une vision traditionnelle des télécommunications, était sans doute son second ; lorsque ces deux entreprises fusionneront en décembre 2006, leur réunion n’atteindra pas, avec un chiffre d’affaires de 25 milliards de dollars, celui (28 milliards) du nouveau leader Cisco, une entreprise « pur Internet », qui dix ans plus tôt faisait figure de grosse PME. Par un bizarre cécité, les meilleurs titres de la presse française ont alors salué la naissance d’un nouveau leader, en occultant la présence de Cisco et le fait qu’aujourd’hui les télécommunications ont leur avenir dans les technologies de l’Internet.

Comment peut-on résumer le contraste entre ce que nous avons appelé « la vision traditionnelle des télécommunications », partagée par Alcatel et Lucent, et la vision nouvelle tournée vers l’Internet, illustrée par Cisco ? Par cette différence : dans le système téléphonique ancien, le fonctionnement et le contrôle du réseau sont entièrement assurés par les équipements centraux qui constituent les infrastructures des opérateurs, ce qui permet notamment la facturation précise du trafic des abonnés, tandis que pour l’Internet les infrastructures centrales sont de simples postes d’aiguillage, toute la gestion des communications est aux extrémités, dans les ordinateurs des utilisateurs.

Le leadership et l’innovation dans les technologies de l’Internet appartiennent de façon très majoritaire aux Américains, il est donc difficile d’imaginer qu’ils en abandonnent le gouvernement juste pour obéir aux objurgations de l’UIT, qui apparaît comme un syndicat de gouvernements dirigistes et monopolistes, et d’industriels en déclin.
Le marché de l’interconnexion

L’Internet, comme son nom l’indique, est un réseau de réseaux. Chaque utilisateur de l’Internet accède au réseau de l’opérateur dont il est le client. Si l’éditeur du site Web qu’il veut consulter est le client d’un autre opérateur, le succès de la consultation suppose que les réseaux de ces deux opérateurs puissent communiquer entre eux. Cela suppose des règles de nommage et des protocoles de communication normalisés, nous l’avons vu, c’est nécessaire mais ne suffit pas : il faut en outre que les réseaux soient physiquement interconnectés. Comment cela se passe-t-il ?

À l’époque de l’Internet non-marchand à l’usage d’une communauté de chercheurs, l’interconnexion reposait sur une coopération internationale bénévole. Il en va désormais autrement, bien entendu. Les opérateurs qui ont une stature internationale négocient avec leurs pairs des accords de peering, aux termes desquels ils échangent leurs trafics respectifs de l’un vers l’autre et acceptent éventuellement du trafic en transit vers d’autres réseaux. Ces accords sont confidentiels, leurs principes et leur économie sont mal connus. Les petits opérateurs n’ont guère d’autre ressource que d’acheter à un de ces grands opérateurs leur accès au réseau mondial, leur connectivité, si l’on me pardonne ce néologisme. Ils apparaîtront finalement comme des revendeurs de la connectivité de leur grossiste.

De ce nouvel état de fait, qui a commencé à se manifester au milieu des années 1990, découle la disparition d’une administration collective des infrastructures de l’Internet, si ce n’est, implicitement, par le marché. Cela introduit un risque de balkanisation.

L’administration de l’Internet purement par le marché ne suffit pas. Ainsi, la pénurie imminente de numéros IP imposera bientôt un changement de système de numérotation, exactement pour les mêmes raisons qu’en France nous sommes passés des numéros de téléphone à six ou sept chiffres aux numéros actuels à dix chiffres. Le nouveau plan de numérotation à venir fait partie d’une norme appelée IPv6 (Internet Protocol version 6), la norme actuelle (IPv4) repose sur des numéros à 32 chiffres binaires, ce qui autorise un maximum théorique de quelques quatre milliards de numéros(4 294 967 296 précisément), mais en pratique moins, parce que, comme pour les numéros de téléphone, la structure des numéros fait que certains intervalles ne sont pas utilisés.

Ce stock de numéros semblait pléthorique lorsqu’il fut créé en 1981. Il est aujourd’hui d’autant plus insuffisant que les premiers arrivés se sont servis avec profusion : les réseaux américains ont « gaspillé » des adresses, les Européens ont consommé ce qui restait, et n’ont laissé que des miettes aux Asiatiques et aux Africains, plus tard venus.

Le changement de plan de numérotation du téléphone était une opération lourde et coûteuse, mais qui du point de vue technique ne concernait que l’opérateur, pour modifier ses autocommutateurs et éditer un nouvel annuaire. Pour l’Internet il en va autrement, parce que, et c’est un de ses points forts, l’« intelligence » du réseau réside dans ses extrémités, c’est-à-dire dans des logiciels installés dans l’ordinateur de chaque utilisateur. Il y a donc potentiellement quelques centaines de millions de systèmes à modifier ! On conçoit que cela incline à l’hésitation.

Si chaque opérateur ou fournisseur d’accès voit ce que la migration lui coûterait, le coût de l’immobilisme est bien plus élevé, mais équitablement réparti entre tous les acteurs, et seulement à venir, du coup personne ne fait le premier pas et on va au-devant de graves dysfonctionnements, dont les principales victimes seront les pays où le développement de l’Internet est le plus récent, soit en Asie et en Afrique. Ceci bien sûr n’est pas sans rapport avec notre propos.
Conclusion

L’Internet, plus que jamais, reste un système technique merveilleux disponible pour la communication entre les hommes, et ce, de plus en plus, quelles que soient leurs langues et leurs nations. Il ne faut pourtant pas se dissimuler les difficultés qui risquent de se manifester à l’avenir.

Le système technique conçu à la fin des années 1960 pour faciliter les échanges entre quelques centaines de chercheurs connectés à quelques dizaines d’ordinateurs a merveilleusement évolué pour abriter aujourd’hui près de 100 millions de serveurs consultés par bientôt deux milliards d’internautes : c’est une performance remarquable.

Source : Netcraft

Le système organisationnel et politique mis en place pour administrer le système technique fait preuve de moins de pérennité. La gestion par consensus, qui convenait tant que l’usage de l’Internet était restreint à une communauté de chercheurs sans objectifs économiques, n’est plus possible dès lors que l’Internet est devenu l’axe autour duquel s’organise l’économie mondiale, et que de ce fait les noms de domaines ou les blocs de numéros IP deviennent des actifs commerciaux de grande valeur, objets d’une concurrence acharnée.

Le modèle économique de l’Internet est aujourd’hui opaque, son système de gouvernement présente des risques de dérive anarchique et d’appropriation abusive, voire prédatrice, la balkanisation n’est pas impossible. La seule protection contre ces dangers réside dans le fait que ce ne serait l’intérêt de personne, ce qui n’est qu’à moitié rassurant.

© 2008 Laurent Bloch
Notes

[1] L’Internet, comme nous l’a enseigné Christian Huitema, s’écrit avec un l apostrophe et un I majuscule, comme le Louvre, le Vatican ou l’Assemblée nationale, car il s’agit d’une institution unique.
Modifier cet articleModifier cet article
Illustrations
Inséré dans le texte site_count_history.gif Sans titre
N° 82 - gif - 6.3 ko
| Modifier
Ajouter un documentAjouter un document
Poster un messagePoster un message

 % of allInternetInternetGrowthWorld Population
 InternetUsersPenetrationin Internetfor the Language
 Users  (2000-2008)2008 Estimated
English29.4 % 430,802,172 21.1 %203.5 %2,039,114,892
Chinese 18.9 %276,216,71320.2 %755.1 %1,365,053,177
Spanish 8.5 %124,714,37827.6 %405.3 451,910,690
Japanese 6.4 %94,000,00073.8 %99.7 % 127,288,419
French 4.7 %68,152,44716.6 %458.7 %410,498,144
German 4.2 %61,213,16063.5 %121.0 %96,402,649
Arabic 4.1 %59,853,63016.8 %2,063.7 %357,271,398
Portuguese 4.0 %58,180,96024.3 %668.0 %239,646,701
Korean 2.4 %34,820,00047.9 %82.9 % 72,711,933
Italian 2.4 %34,708,14459.7 %162.9 % 58,175,843
Top 10 Languages84.9 %1,242,661,60423.8 %278.3 %5,218,073,846
Other Languages15.1 % 220,970,75715.2 %580.4 %1,458,046,442
WORLD TOTAL 100.0 % 1,463,632,361 21.9 %305.5 %6,676,120,288



(source : Internet World Stats)

Même si l’anglais reste largement la langue dominante sur le Web, nous pouvons constater une diversification linguistique réelle. On observe la croissance très rapide des langues en usage dans des pays où l’essor de l’Internet est récent.

Diversité scripturale

Accéder au Web dans sa langue suppose de pouvoir utiliser l’écriture de cette langue. Il y a trente ans l’idée même de pouvoir utiliser sur un ordinateur d’autres caractères que l’alphabet latin réduit à sa plus simple expression (ni accents ni cédilles) paraissait utopique. La situation a évolué en vertu de deux influences convergentes :

 les efforts des industriels, à partir des années 1980, pour atteindre le grand public : comment espérer vendre un micro-ordinateur à usage domestique si le client ne peut pas utiliser le système d’écriture qu’il a appris à l’école ?
 la position très ferme, dans les organismes de normalisation, des pays asiatiques, qui ont opposé leur veto à tout projet de norme qui ne prendrait pas leurs écritures en considération.

Ce fut un long combat au cours duquel furent surmontés des problèmes techniques dont l’extrême complexité, si elle échappe au profane, s’impose à quiconque plonge dans la documentation du sujet. Ce n’est que depuis 1991 que les solutions locales et incompatibles entre elles laissèrent la place à un travail coordonné à l’échelle internationale par le consortium Unicode et l’ISO.

Le consortium Unicode est une organisation internationale à but non-lucratif créée en 1991 qui regroupe des industriels de l’informatique tels qu’Apple, IBM ou Hewlett-Packard, des éditeurs de logiciels comme Adobe, Oracle, Microsoft ou Google, des états et des institutions tels que le Pakistan, l’Inde, l’Université de Californie à Berkeley, etc. Le but qu’il s’est donné est le développement de normes et de données de référence pour la représentation des textes par les logiciels, dans une perspective d’internationalisation.

Fondamentalement, les ordinateurs et les logiciels ne traitent que des nombres binaires, c’est-à-dire composés de zéros et de uns. Pour représenter des textes, il faut établir des conventions par lesquelles certaines suites de zéros et des uns sont des codes qui représentent des caractères. Ainsi, le code ASCII (pour American Standard Code for Information Interchange) publié en 1963 code des caractères sur 7 chiffres binaires, ce qui permet de représenter 128 caractères : les 26 lettres de l’alphabet latin en majuscules et en minuscules, les chiffres, les signes de ponctuation et quelques autres tels que parenthèses et crochets, tiret et arobas. C’était suffisant pour l’anglais mais inadapté à toute autre langue.

La norme ISO/IEC 8859 élargissait la représentation à 8 chiffres binaires, soit 256 caractères possibles, dont les 128 premiers étaient identiques au code ASCII, et les 128 suivants adaptés à tel ou tel groupe de langues : ISO 8859-15 pour les langues d’Europe occidentale, 8859-2 pour celles d’Europe centrale, 8859-5 pour les écritures cyrilliques, 8859-6 pour l’arabe, 8859-8 pour l’hébreu, etc.

Mais ISO 8859 restait insuffisant : 256 combinaisons ne sont bien sûr pas assez pour représenter les écritures idéographiques telles que le chinois, mais elles ne suffisent même pas pour la représentation complète des écritures latines, avec les ligatures nécessaires à la typographie. Le besoin se faisait donc sentir d’un système unifié et universel, pour représenter toutes les écritures présentes ou du passé, et les travaux en ce sens furent initiés en 1987 par Joe Becker de Xerox et Lee Collins et Mark Davis d’Apple.

L’aboutissement de ces efforts est la norme Unicode, qui établit une méthode pour représenter à l’heure actuelle près de 100 000 caractères appropriés à toutes les écritures de la terre, qu’elles soient alphabétiques, syllabiques ou idéographiques, et qu’elles s’écrivent de gauche à droite, de droite à gauche, de haut en bas ou de bas en haut. Pour mémoire, les deux tiers des caractères Unicode sont dévolus au chinois ! Les jeunes générations, qui trouveront cela tout naturel, auront sans doute du mal à imaginer le chemin parcouru.

Noms de domaines internationalisés

C’est une chose de pouvoir écrire et lire sur le Web des contenus dans sa langue et avec son écriture, c’en est une autre de pouvoir en faire autant pour désigner les objets même de l’Internet, les serveurs et les adresses électroniques notamment. Aujourd’hui, même si je peux écrire un message électronique en arabe ou en chinois, je dois rédiger l’adresse de mon correspondant en me restreignant à l’alphabet latin, sans accents ni cédilles, aux chiffres arabes et au tiret. Il en va de même pour les adresses de sites Web.

Il serait hautement souhaitable que chacun puisse utiliser le système scriptural de sa langue maternelle pour composer des adresses électroniques, mais les problèmes techniques soulevés par cette aspiration légitime sont également redoutables, et nous ne faisons qu’entr’apercevoir les idées de solutions qui pourraient en venir à bout.

Les adresses électroniques, de personnes ou de sites Web, données sous forme littérale, correspondent à des numéros analogues dans leur fonction aux numéros de téléphone, appelés numéros (ou adresses) IP, pour Internet Protocol. Ces numéros doivent bien sûr être uniques mondialement, ce qui permet d’atteindre tout correspondant ou tout serveur n’importe où dans le monde. La correspondance entre les adresses littérales et les adresses numérique est donnée, comme pour le téléphone, par un système d’annuaire ; cet annuaire est électronique, mondial et automatique et s’appelle Domain Name System (DNS), ou système de noms de domaine.

Comme le remarque Vinton Cerf, l’un des inventeurs de l’Internet, « l’un de aspects les plus importants de l’Internet est la capacité de chaque utilisateur de faire référence sans ambiguïté aucune à un nom de domaine enregistré. ... Les noms doivent être uniques et ceux enregistrés dans les prochaines années quelques soient les nouveaux caractères ajoutés dans Unicode pour supporter l’expression d’encore plus de langages écrites doivent l’être aussi. » (Opening Remarks at Internet Governance Forum, Athènes, Grèce 30 octobre – 2 novembre 2006). Un faux pas dans la définition des règles qui seront adoptées pour permettre des noms de domaine dans différents systèmes d’écriture risquerait de balkaniser l’Internet en le scindant en îlots qui ne seraient plus capables de communiquer entre eux.

Gouvernement de l’Internet

Comme nous venons de le voir, toute une série de questions techniques en apparence ont pour les sujets qui nous occupent, le dialogue des civilisations et la diversité culturelle, des implications lourdes de conséquences. Qui prend les décisions dans ce domaine ? L’analyse politique de cette question est un domaine de recherche de plein droit.

L’Internet n’a pas à proprement parler de personnalité juridique. Ses organes de décision sont informels et fonctionnent par cooptation et consensus. Voyons rapidement quels sont-ils.

L’Internet Architecture Board (IAB) est le comité qui supervise le développement technique et l’ingénierie de l’Internet. Il a été formé en 1979 sous le nom de Internet Configuration Control Board.

L’Internet Society (ISOC) est un organisme de discussion qui regroupe 80 organisations et 28 000 adhérents individuels, et qui peut avoir une influence importante dans certains débats.

L’Internet Engineering Task Force (IETF) est un forum technique qui élabore et valide les normes techniques de l’Internet, supervisé par l’IAB. L’IETF fonctionne sur la base du volontariat, les industriels du secteur des réseaux y délèguent éventuellement des ingénieurs. Entre 1 000 et 2 000 personnes assistent aux réunions plénières, mais beaucoup de travail est accompli par le réseau. L’IETF a été créé en 1986 et était à l’époque constitué de 21 chercheurs sous contrat du gouvernement américain. C’est la cheville ouvrière de l’Internet.

L’Internet Corporation for Assigned Names and Numbers (ICANN) est une organisation à but non lucratif créée en 1998 pour prendre en charge un certain nombre de tâches de gestion de l’Internet, notamment les mission stratégiques que sont la réglementation et l’attribution des adresses et des noms, objets du présent exposé.

Tous ces organes étaient à leur origine purement américains, et ignoraient superbement l’existence d’autres pays. Cette situation a évolué progressivement au fur et à mesure que l’Internet se répandait hors des États-Unis, principalement en Europe, dans les universités et les centres de recherche. C’est ainsi que le Français Christian Huitema fut le premier président non-américain de l’IAB d’avril 1993 à juillet 1995. Mais dans la mesure où les États-Unis sont les principaux contributeurs techniques et financiers aux infrastructures qui sous-tendent le fonctionnement de l’Internet, leur poids reste largement dominant.

Celui de ces organes qui suscite le plus de débats, parce que son action a le plus de conséquences politiques et économiques directement observables, est l’ICANN. En effet, l’ICANN supervise l’attribution des numéros IP et des noms de domaine, notamment en édictant les règles qui s’y appliquent et en délivrant les délégations qui permettent à d’autres organismes, en général commerciaux, de les vendre au détail. Au fur et à mesure que les noms de domaine devenaient des actifs commerciaux de grande valeur et les numéros IP une ressource rare, comme nous le verrons plus loin, cette position de monopole de l’ICANN appelait la contestation.

La position de l’ICANN a aussi des implications politiques : ainsi, pour des raisons que le lecteur pourra imaginer, la création d’un domaine .PS pour la Palestine s’est fait attendre beaucoup plus longtemps que celle des domaines .AQ pour l’Antarctique ou .BV pour l’île inhabitée Bouvet dans l’Atlantique sud, sans doute utiles à moins de gens.

Au départ l’ICANN était une simple émanation du Department of Commerce américain, avec pour mission de transférer le gouvernement de l’Internet à l’industrie privée (sous- entendue : américaine) sous un régime de concurrence.

Ce projet d’évolution de l’ICANN a suscité des réactions négatives qui se sont notamment exprimées au Sommet mondial de la société de l’information à Tunis en novembre 2005. Ce sommet mondial, dont la première session a eu lieu à Genève en décembre 2003, était organisé par l’Union internationale des télécommunications (UIT), une agence de l’ONU basée à Genève et où le poids des grands opérateurs européens de télécommunications contrebalance celui des américains. Il a été suivi, du 30 octobre au 2 novembre 2006 à Athènes, par le Forum sur la gouvernance de l’Internet, chargé de faire progresser dans les faits les résolutions formulées à Tunis, qui portaient principalement sur l’accroissement des possibilités d’accès à l’Internet dans les pays en développement et la garantie de la neutralité des réseaux.

Les revendications du sommet de Tunis n’ont pas été vraiment prises en considération, mais l’ICANN a admis au moins en principe l’idée que la gestion l’Internet devrait s’internationaliser. Néanmoins, le Department of Commerce a en juillet 2008 réitéré sa position de ne pas abandonner la gestion de la racine du DNS. Malgré l’internationalisation (toute relative) des instances de l’Internet, restent totalement sous le contrôle des États-Unis les points stratégiques : attribution des numéros IP et des noms de domaine, gestion de la racine du DNS, délégation de la distribution des numéros et des noms.

En fait, les opérateurs et les industriels européens qui tiennent la tribune à l’UIT ont pris en marche le train de l’Internet, et ils sont aujourd’hui en position de faiblesse. Ainsi, en 1996 Alcatel était le leader mondial de l’industrie des Télécoms, et à la même date Lucent, une entreprise juste créée à partir du démantèlement d’American Telegraph & Telephon et qui partageait avec ses collègues européens une vision traditionnelle des télécommunications, était sans doute son second ; lorsque ces deux entreprises fusionneront en décembre 2006, leur réunion n’atteindra pas, avec un chiffre d’affaires de 25 milliards de dollars, celui (28 milliards) du nouveau leader Cisco, une entreprise « pur Internet », qui dix ans plus tôt faisait figure de grosse PME. Par un bizarre cécité, les meilleurs titres de la presse française ont alors salué la naissance d’un nouveau leader, en occultant la présence de Cisco et le fait qu’aujourd’hui les télécommunications ont leur avenir dans les technologies de l’Internet.

Comment peut-on résumer le contraste entre ce que nous avons appelé « la vision traditionnelle des télécommunications », partagée par Alcatel et Lucent, et la vision nouvelle tournée vers l’Internet, illustrée par Cisco ? Par cette différence : dans le système téléphonique ancien, le fonctionnement et le contrôle du réseau sont entièrement assurés par les équipements centraux qui constituent les infrastructures des opérateurs, ce qui permet notamment la facturation précise du trafic des abonnés, tandis que pour l’Internet les infrastructures centrales sont de simples postes d’aiguillage, toute la gestion des communications est aux extrémités, dans les ordinateurs des utilisateurs.

Le leadership et l’innovation dans les technologies de l’Internet appartiennent de façon très majoritaire aux Américains, il est donc difficile d’imaginer qu’ils en abandonnent le gouvernement juste pour obéir aux objurgations de l’UIT, qui apparaît comme un syndicat de gouvernements dirigistes et monopolistes, et d’industriels en déclin.

Le marché de l’interconnexion

L’Internet, comme son nom l’indique, est un réseau de réseaux. Chaque utilisateur de l’Internet accède au réseau de l’opérateur dont il est le client. Si l’éditeur du site Web qu’il veut consulter est le client d’un autre opérateur, le succès de la consultation suppose que les réseaux de ces deux opérateurs puissent communiquer entre eux. Cela suppose des règles de nommage et des protocoles de communication normalisés, nous l’avons vu, c’est nécessaire mais ne suffit pas : il faut en outre que les réseaux soient physiquement interconnectés. Comment cela se passe-t-il ?

À l’époque de l’Internet non-marchand à l’usage d’une communauté de chercheurs, l’interconnexion reposait sur une coopération internationale bénévole. Il en va désormais autrement, bien entendu. Les opérateurs qui ont une stature internationale négocient avec leurs pairs des accords de peering, aux termes desquels ils échangent leurs trafics respectifs de l’un vers l’autre et acceptent éventuellement du trafic en transit vers d’autres réseaux. Ces accords sont confidentiels, leurs principes et leur économie sont mal connus. Les petits opérateurs n’ont guère d’autre ressource que d’acheter à un de ces grands opérateurs leur accès au réseau mondial, leur connectivité, si l’on me pardonne ce néologisme. Ils apparaîtront finalement comme des revendeurs de la connectivité de leur grossiste.

De ce nouvel état de fait, qui a commencé à se manifester au milieu des années 1990, découle la disparition d’une administration collective des infrastructures de l’Internet, si ce n’est, implicitement, par le marché. Cela introduit un risque de balkanisation.

L’administration de l’Internet purement par le marché ne suffit pas. Ainsi, la pénurie imminente de numéros IP imposera bientôt un changement de système de numérotation, exactement pour les mêmes raisons qu’en France nous sommes passés des numéros de téléphone à six ou sept chiffres aux numéros actuels à dix chiffres. Le nouveau plan de numérotation à venir fait partie d’une norme appelée IPv6 (Internet Protocol version 6), la norme actuelle (IPv4) repose sur des numéros à 32 chiffres binaires, ce qui autorise un maximum théorique de quelques quatre milliards de numéros(4 294 967 296 précisément), mais en pratique moins, parce que, comme pour les numéros de téléphone, la structure des numéros fait que certains intervalles ne sont pas utilisés.

Ce stock de numéros semblait pléthorique lorsqu’il fut créé en 1981. Il est aujourd’hui d’autant plus insuffisant que les premiers arrivés se sont servis avec profusion : les réseaux américains ont « gaspillé » des adresses, les Européens ont consommé ce qui restait, et n’ont laissé que des miettes aux Asiatiques et aux Africains, plus tard venus.

Le changement de plan de numérotation du téléphone était une opération lourde et coûteuse, mais qui du point de vue technique ne concernait que l’opérateur, pour modifier ses autocommutateurs et éditer un nouvel annuaire. Pour l’Internet il en va autrement, parce que, et c’est un de ses points forts, l’« intelligence » du réseau réside dans ses extrémités, c’est-à-dire dans des logiciels installés dans l’ordinateur de chaque utilisateur. Il y a donc potentiellement quelques centaines de millions de systèmes à modifier ! On conçoit que cela incline à l’hésitation.

Si chaque opérateur ou fournisseur d’accès voit ce que la migration lui coûterait, le coût de l’immobilisme est bien plus élevé, mais équitablement réparti entre tous les acteurs, et seulement à venir, du coup personne ne fait le premier pas et on va au-devant de graves dysfonctionnements, dont les principales victimes seront les pays où le développement de l’Internet est le plus récent, soit en Asie et en Afrique. Ceci bien sûr n’est pas sans rapport avec notre propos.

Conclusion

L’Internet, plus que jamais, reste un système technique merveilleux disponible pour la communication entre les hommes, et ce, de plus en plus, quelles que soient leurs langues et leurs nations. Il ne faut pourtant pas se dissimuler les difficultés qui risquent de se manifester à l’avenir.

Le système technique conçu à la fin des années 1960 pour faciliter les échanges entre quelques centaines de chercheurs connectés à quelques dizaines d’ordinateurs a merveilleusement évolué pour abriter aujourd’hui près de 100 millions de serveurs consultés par bientôt deux milliards d’internautes : c’est une performance remarquable.

Source : Netcraft

Le système organisationnel et politique mis en place pour administrer le système technique fait preuve de moins de pérennité. La gestion par consensus, qui convenait tant que l’usage de l’Internet était restreint à une communauté de chercheurs sans objectifs économiques, n’est plus possible dès lors que l’Internet est devenu l’axe autour duquel s’organise l’économie mondiale, et que de ce fait les noms de domaines ou les blocs de numéros IP deviennent des actifs commerciaux de grande valeur, objets d’une concurrence acharnée.

Le modèle économique de l’Internet est aujourd’hui opaque, son système de gouvernement présente des risques de dérive anarchique et d’appropriation abusive, voire prédatrice, la balkanisation n’est pas impossible. La seule protection contre ces dangers réside dans le fait que ce ne serait l’intérêt de personne, ce qui n’est qu’à moitié rassurant.

© 2008 Laurent Bloch