Depuis l’écriture de cet article en 2010 des choses ont changé, par exemple les échanges pair à pair ont beaucoup reculé et le téléchargement d’œuvres protégées par le droit d’auteur passe plus souvent par d’autres canaux, mais les idées restent vraies.
Le grand schisme de l’Internet,
L’Internet bouleverse la culture et les relations inter-culturelles,
L’Internet favorise-t-il le dialogue des civilisations et la diversité culturelle ?
Écrire à l’auteur
Le 26 janvier j’ai participé à un atelier consacré au routage dans l’Internet, organisé par Louis Pouzin et animé par Kavé Salamatian, professeur d’informatique à l’université de Savoie et à l’École polytechnique fédérale de Zurich, dans le cadre du programme de recherche Vox Internet. Les lignes qui suivent sont un compte-rendu personnel de l’exposé de Kavé Salamatian, dont j’espère ne pas avoir trop trahi la pensée.
Rappels techniques pour les profanes
En bref, il s’agit de ceci : chaque ordinateur connecté à l’Internet (ou « nœud » du réseau) est doté d’une adresse IP, ou numéro IP, qui, comme le numéro de téléphone dans le réseau téléphonique, est unique et permet de l’atteindre depuis n’importe quel autre nœud du réseau, n’importe où dans le monde.
Les internautes qui veulent visiter un site n’en connaissent généralement pas l’adresse IP, mais le nom, comme par exemple laurentbloch.net
. L’adresse leur est fournie (ou plutôt est fournie à leur navigateur) par le DNS (Domain Name System), qui est l’annuaire de l’Internet ; comme celui du téléphone il fait correspondre un numéro IP à un nom. Cet annuaire est réparti sur des milliers d’ordinateurs de par le monde et il est bien sûr mis à jour de façon permanente.
Pour faire circuler des données entre deux nœuds de l’Internet, il faut calculer un itinéraire (en anglais route) entre eux, ce calcul est appelé routage ; si ces nœuds ne sont pas situés sur le même réseau local, l’itinéraire passera par d’autres nœuds, constitués d’ordinateurs spécialisés appelés routeurs. Un routeur est un ordinateur connecté à deux ou plusieurs réseaux, il possède donc plusieurs adresses IP, comme la maison de Balzac qui avait une porte de derrière sur une autre rue, et il est capable de faire passer des données d’un réseau à un autre, en fonction de règles inscrites dans ses tables de routage. Un algorithme de routage calcule des tables de routage.
Alternatives au routage IP
Actuellement le routage est effectué sur la base des adresses IP, fournies par le DNS, mais ce n’est pas une loi de la nature. On pourrait imaginer de tout autres solutions, et d’ailleurs elles existent. 80% du volume de données échangé sur l’Internet est le fait de réseaux d’échanges d’œuvres musicales et vidéographiques pair à pair (peer-to-peer), tels Edonkey, eMule ou BitTorrent, qui n’utilisent pas le DNS. Et l’on peut imaginer des systèmes d’adressage par le contenu, d’ailleurs Google, Facebook et LinkedIn sont là pour suppléer l’absence d’un tel système (et l’insuffisance du DNS) en nous permettant de retrouver une information par une partie de sa teneur.
Interconnexion de réseaux
L’Internet n’est pas un réseau unique, mais, comme son nom l’indique, un réseau de réseaux. Chacun de ces réseaux est la propriété d’un opérateur (ou ISP, Internet Service Provider) différent, qui l’administre à sa façon. Un réseau administré de façon unique par un ISP est un AS (Autonomous System) ; si l’on compare l’Internet à un continent, les AS en sont les pays, séparés par des frontières, avec chacun sa législation. Un grand ISP peut posséder plusieurs AS, à l’instar d’un état fédéral. Chaque AS est identifié par un numéro d’AS. L’Internet est constitué d’à peu près 35 000 AS (septembre 2010, près de 60 000 en 2017), dont le plus grand (AS 568) comporte 73 millions d’adresses IP, et le plus petit (AS 2111) un seul ordinateur.
À l’intérieur d’un AS les routeurs appartiennent à l’ISP ou à ses clients et sont administrés selon les règles qu’il a fixées. Pour que l’Internet existe et puisse fonctionner, il faut établir des communications entre AS d’ISPs différents : pour ce « passage de frontière », un ISP disposera des routeurs de frontière de système autonome, directement reliés aux routeurs de frontière des ISPs avec qui il veut établir une liaison. Le point auquel seront placés ces routeurs s’appelle selon les cas un Internet Exchange Point (IXP), ou NIX (Neutral Internet Exchange) ou GIX (Global Internet Exchange). Les règles qui régissent le transit par un IXP sont fixées par des accords de peering entre les ISPs. Ces accords sont généralement basés sur la réciprocité et postulent un certain équilibre, ils ne donnent pas lieu à facturation tant que l’équilibre est respecté, mais il y a des indemnités versées dès que la symétrie des échanges est trop fortement perturbée. On comprend que de tels accords, qui sont le plus souvent ultra-secrets, ne sont possibles qu’entre ISPs de tailles comparables, des pairs (peers).
Nécessité et difficulté des accords de peering
Les accords de peering sont indispensables, des accords de peering nombreux et judicieusement placés améliorent la fluidité du réseau et la qualité des communications, mais ils constituent un dilemme pour les ISPs. En effet, si les communications de l’ISP A avec l’ISP B sont trop bonnes, la qualité de son réseau risque de ne plus assez le distinguer de B, et par exemple une entreprise X cliente de A n’aura plus de raison d’imposer à ses filiales Y et Z d’être également clientes de A, puisqu’avec B cela marche aussi très bien.
D’autre part, les accords de peering et les liaisons qui en résultent ouvrent aux pairs mais aussi concurrents une fenêtre sur l’intérieur du réseau. Chacun tentera de maintenir cette fenêtre aussi étroite que possible, mais elle permettra non seulement de voir, mais aussi de « jeter » des choses à l’intérieur, du trafic intrusif ou inquisitif.
Kavé Salamatian nous a donné en exemple les réseaux d’AT&T et de Sprint sur le territoire américain : leurs topologies sont très voisines, ils ont donc un intérêt technique à avoir des points d’échange entre leurs points de concentration voisins, mais une telle stratégie facilitera aussi la mobilité de leur clientèle vers l’autre ISP, ce qui est risqué.
De ce fait, la politique commerciale des ISP n’est en général pas la même à l’intérieur de son réseau et à la frontière :
– À l’intérieur il installera une capacité sur-dimensionnée, afin que ses clients soient satisfaits. Typiquement un lien physique du réseau interne sera exploité à 20% de sa capacité nominale, atteindre le seuil de 40% déclenchera une alerte, 60% sera une situation d’urgence.
– Par contre en bordure de son AS l’ISP fera de la sur-réservation (de l’overbooking), avec des ratios de 5 à 25.
Réalité physique du réseau
Un point d’échange sera constitué, par exemple, de 25 étages dans une tour à New-York, divisés en appartements de 1 000 m2 où tous les ISP de la place installeront des routeurs et des commutateurs (switches) dans des emplacements privatifs cloisonnés par des grillages afin de laisser passer les câbles. Cliquez ici pour voir un des plus beaux. Une connexion entre deux ISP pourra être un câble réseau de 50 cm qui relie deux routeurs ou deux switches de chaque côté d’un grillage. La principale difficulté à résoudre pour établir un tel IXP est l’approvisionnement en électricité.
Dans les pays à tradition de monopole, comme la France, les locaux des points d’échange sont souvent la propriété de l’opérateur historique, qui en use pour gêner le développement de ses concurrents.
Outre des IXP (points d’échange), le réseau d’un ISP comporte des POP (Points Of Presence) auxquels ses clients peuvent se connecter. La nomenclature des points de présence est établie en fonction du débit de leur lien d’accès au réseau, selon une codification assez ésotérique. Ainsi un POP OC 192 (OC comme Optical Carrier) typique aura un accès à 10 gigabits par seconde, il consommera une puissance électrique de 10 mégawatts, il abritera trois millions de dollars de matériel et sa note d’électricité sera de 20 000 dollars par mois.
Réalité économique du réseau
La construction de réseaux fait intervenir cinq catégories d’entreprises :
- Les entreprises qui posent et louent la fibre noire, c’est-à-dire des faisceaux de fibre optique qui traversent continents et océans. Les exploitants d’autres types de réseaux déjà déployés, compagnies ferroviaires, distribution électrique, canaux, autoroutes, sont bien sûr très bien placés pour ce faire, parce qu’ils n’ont pas à négocier avec des milliers de propriétaires de terrains ni à creuser des tunnels sous chaque route départementale. En France, seule la protection étatique sur le monopole de l’opérateur historique empêche la SNCF et EDF de jouer pleinement ce rôle, mais la RATP le fait très bien (remarque de LB, pas de Kavé Salamatian). Alcatel exploite plusieurs bateaux poseurs de fibre sous-marine. Sur la terre ferme, la pose d’un kilomètre de fibre coûte en moyenne 8 000 euros.
- Les entreprises qui aménagent et louent les locaux des points d’échange (IXP) et y amènent électricité et réseau.
- Les opérateurs d’interconnexion, qui exploitent les IXP.
- Les ISP, qui recrutent les clients finals et fournissent ainsi le trafic du réseau, on dit qu’ils « allument » la fibre qui sinon resterait « noire ».
- Les fournisseurs de contenus, journaux, radios et télévisions en ligne, réseaux sociaux, moteurs de recherche, qui attirent l’internaute et sont le plus souvent rémunérés par la publicité.
De tous ces opérateurs, ceux qui dégagent la plus forte valeur ajoutée sont les premiers, les entrepreneurs de fibre noire, ceux pour qui elle est la plus faible sont les quatrièmes, les FAI (ISP).
Un économiste présent dans la salle a posé la question de savoir pourquoi cette segmentation du marché persistait, si elle était si défavorable aux ISP. Kavé Salamatian a répondu qu’il y avait à cela deux raisons : le volume considérable de l’investissement initial, et la régulation (remarque de LB : en France on n’est pas impunément concurrent de France Télécom, Rafi Haladjian et Xavier Niel l’ont appris à leurs dépens en passant quelques jours en prison sans aucun motif valable dans leur dossier).
Qui finance l’Internet ?
Il doit être clair, à la lecture de ce qui précède, que ce ne sont pas les trente euros par mois de l’abonné ADSL moyen qui suffisent à financer ces investissements considérables : ce sont les fournisseurs de contenu, par le truchement de la publicité, qui en assurent la plus grande part.
Les ISP ont une marge très faible, essentiellement acquise par les coefficients de sur-réservation (overbooking) sur les communications vers l’extérieur de leurs réseaux, coefficients usuellement compris entre 5 et 25 (c’est bien sûr très approximatif, d’autres sources disent entre 10 et 50).
Si ce sont bien les fournisseurs de contenu qui financent le fonctionnement de l’Internet en grande partie grâce à la publicité, il y a peut-être de quoi s’inquiéter pour son avenir. Le numéro de février 2010 de Linux Journal contient un article de Doc Searls intitulé « The Google Exposure » qui commence par les phrases : Advertising is a bubble. If that’s a true statement, Google is a bubble too. And if that’s true, many of the goods we take for granted on the Web are at risk. Il s’agit quand même d’une bulle de 24 milliards de dollars en 2009 (111 milliards en 2017), or les annonceurs sont en train de constater que la publicité sur le Net n’est pas si intéressante que cela ; selon l’étude Natural Born Clickers réalisée par ComScore et Starcomas, au cours des deux dernières années écoulées le nombre d’internautes qui cliquent sur les liens publicitaires a chuté de 50%, en plus ce sont toujours les mêmes et ils ne sont pas très solvables [1].
Il y a une hiérarchie parmi les ISP, ceux du premier rang (Tier 1) se considèrent comme des pairs et échangent du trafic entre eux sans facturation, comme expliqué ci-dessus, tandis que ceux des rangs inférieurs (Tiers 2, 3, 4) ne sont que de simples clients qui achètent des droits de transit à ceux du rang supérieur. Google est dans le Tier 1 et y occupe la troisième place, c’est dire le volume de trafic engendré pas ses serveurs, dont le nombre a dépassé le million depuis pas mal de temps. C’est dire aussi l’ampleur de la catastrophe si la bulle éclate, sans parler des entreprises et des particuliers dont le courrier électronique et tous les documents sont confiés à Google.
Routage entre Autonomous Systems
Comme mentionné ci-dessus, les protocoles de routage au sein d’un AS (Interior Gateway Protocol) et entre AS (Exterior Gateway Protocol) ne sont pas les mêmes. Le protocole aujourd’hui universellement utilisé pour le routage entre AS est BGP (Border Gateway Protocol).
Comme le nom l’indique, un AS aura un ou plusieurs routeurs BGP en bordure de son réseau. Les routeurs BGP au sein d’un même AS synchroniseront leurs informations par la variante iBGP du protocole (internal BGP).
Vers l’extérieur de l’AS, un routeur BGP publie des annonces d’itinéraires (l’anglicisme « route » est entré dans l’usage). Une telle annonce, en substance, délivre un message du genre :
« Si tu veux établir une communication avec un réseau dont les adresses comportent tel préfixe, tu peux passer par chez moi, le coût (en fait une métrique conventionnelle) aura telle valeur, et tu passeras par tel et tel autre AS. »
À qui cette information est-elle communiquée ? Les connexions entre deux voisins BGP (neighbours ou peers) sont configurées manuellement entre deux routeurs. La connexion est authentifiée par un échange de certificats électroniques.
Ce protocole n’est pas sans dangers : on comprend que l’annonce d’informations erronées peut avoir des conséquences graves pour le fonctionnement du réseau. Ainsi en février 2008 le gouvernement du Pakistan ordonna à la Pakistan Telecommunication Authority de bloquer l’accès à YouTube pour l’ensemble des internautes pakistanais : pour ce faire Pakistan Telecommunication Authority fit émettre par les ISP pakistanais des annonces BGP qui publiaient une fausse route pour YouTube, qui ne menait nulle part mais à un coût imbattable. Le résultat fut que YouTube fut inaccessible aux deux tiers des internautes de la planète pendant plusieurs heures, parce que les annonces BGP sont propagées dans l’ensemble de l’Internet. Un second résultat fut une énorme avalanche de trafic vers les routeurs pakistanais, qui s’effondrèrent sous la charge, en provoquant l’effondrement du réseau téléphonique (assuré par réseau IP), ce qui fait qu’il n’était même plus possible de prévenir les opérateurs pakistanais de leur fausse manœuvre, qu’ils n’avaient pas diagnostiquée.
Cette anecdote illustre les possibilités de sabotage offertes à quiconque réussit à contrefaire une annonce BGP. Il suffit d’un administrateur d’AS négligent, et parmi les 12 000 AS il y a sans doute des dizaines de milliers d’administrateurs, pour qu’une faille soit exploitable.
Incidemment, certaines autorités françaises envisagent l’injection d’annonces BGP offensives comme moyen de bloquer les sites Web illégaux. Il est clair que le recours à de telles méthodes ne va pas sans risque, ne serait-ce que parce qu’en bloquant un groupe d’adresses IP on risque de neutraliser, outre le site visé, bien d’autres serveurs légitimes, dont les exploitants ne manqueront pas de porter plainte contre les auteurs de l’attaque.
La leçon tirée par Kavé Salamatian de ces considérations et analyses tant économiques que techniques, c’est que l’Internet souffre d’un manque de régulation explicite, qui se traduit en fait par une régulation implicite, en partie par des accords de peering occultes, en partie par la domination des entreprises les plus importantes du secteur et du gouvernement américain. Sur ce même site un article précédent atteignait la même conclusion.