Site WWW de Laurent Bloch
Slogan du site

ISSN 2271-3905
Cliquez ici si vous voulez visiter mon autre site, orienté vers des sujets moins techniques.

Pour recevoir (au plus une fois par semaine) les nouveautés de ce site, indiquez ici votre adresse électronique :

À qui obéit votre ordinateur ?
Le texte présenté ici a été repris dans le livre que j’ai écrit avec Christophe Wolfhugel, Sécurité informatique, principes et méthode, aux Éditions Eyrolles.

Cet article a fait l’objet d’une réponse de Marcel Moiroud.

Article mis en ligne le 21 octobre 2006
dernière modification le 10 août 2022

par Laurent Bloch

Cet article a fait l’objet d’une réponse de Marcel Moiroud.

En ce début de siècle obsédé par d’éventuelles menaces contre la sécurité et l’ordre public se manifestent des tendances au renforcement du contrôle social, qui, dans le domaine qui nous intéresse ici, se traduisent par de vastes projets de surveillance des usages des ordinateurs et des réseaux, et d’interdiction de ceux de ces usages qui ne reçoivent pas l’assentiment des puissances à l’œuvre dans l’industrie des médias. Ces tendances constituent un danger, parce que, comme toutes les mesures excessives et abusives, elles se retournent contre leur objectif initial : elles se révèlent nuisibles à la disponibilité et à la liberté d’usage légitime des systèmes d’information, tout en concentrant un pouvoir excessif dans les mains d’un petit nombre d’entreprises privées.

Un conflit de civilisation

L’ubiquité de l’informatique et de l’Internet jusque dans les habitudes domestiques et culturelles a engendré de nouveaux comportements dans la vie privée des citoyens, au nombre desquels la publication de sites WWW privés tels que les blogs, l’échange de conversations et de documents de toute sorte par le réseau, qu’il s’agisse de textes, d’images ou de sons, ainsi que de nouvelles formes de créativité, puisque tel qui était mauvais dessinateur au fusain et au canson peut se révéler brillant graphiste électronique, et tel autre qui souffrait du symptôme de la page blanche avec un stylo frise la graphomanie avec un clavier et un écran. Ces nouvelles pratiques culturelles sont souvent associées à l’usage de logiciels libres, ou fécondées par eux. Elles ont considérablement élargi le champ de la liberté d’expression, et apparaissent comme une évolution majeure de la civilisation et de la culture.

Cette véritable révolution culturelle rencontre l’hostilité des industriels de la culture ; rappelons ici quelles sont les grandes puissances de cette industrie : le marché mondial de l’édition numérique (CD et DVD) est contrôlé par quatre géants, les « majors », EMI, Sony, TimeWarner et Universal. Ces industriels de la culture, au lieu de s’adapter à ces évolutions en imaginant de nouvelles formes de commerce, comme Amazon a bien su le faire, ont préféré s’engager dans un combat conservateur (perdu d’avance) pour préserver leurs rentes actuelles, assises sur des technologies vieillissantes vendues à des tarifs surévalués, et faire interdire les nouvelles pratiques culturelles évoquées ci-dessus. À cette fin ils se sont engagés dans un combat juridico-technique planétaire afin de faire adopter par les États des législations prohibitionnistes à l’encontre des nouvelles pratiques de création et d’échange, qui reposent sur les ordinateurs et le réseau.

Le combat juridique se double d’un combat technique. En fait, l’offensive des majors avance sur deux fronts :

 créer des dispositifs techniques destinés à empêcher ou à surveiller les pratiques jugées indésirables par les majors ; nous avons eu l’occasion de décrire un de ces procédés, le rootkit de Sony ; dans cette entreprise ils reçoivent le soutien de certains industriels de l’informatique, notamment Intel et Microsoft ;
 faire adopter par les États des législations qui interdisent le contournement de ces dispositifs techniques, et qui permettraient de punir les pratiques désapprouvées par les majors.

Cette combinaison de dispositions techniques et légales devrait être verrouillée, si les rêves des majors se réalisent, par l’adoption en Europe d’une législation sur la brevetabilité du logiciel, inspirée de celle qui a cours aux États-Unis, et qui pourrait empêcher la création de logiciels libres, notamment dans ce domaine de la création et de la diffusion d’oeuvres de l’esprit. Dans ce combat des brevets logiciels, les majors ont reçu le renfort de Siemens, Nokia, Philips et Alcatel. Autant dire que les forces hostiles aux nouvelles pratiques culturelles disposent de moyens économiques et de pouvoirs d’influence considérables.

Dispositifs techniques de prohibition

Gestion des droits numériques (DRM)

Nous avons déjà évoqué le protocole de gestion des droits numériques DRM, en l’occurrence pour en signaler une réalisation fautive et frauduleuse. DRM vise à protéger des données numériques enregistrées sur CD ou DVD, ou diffusées par le réseau, au moyen d’un système de chiffrement et de signature. Le fichier numérique qui contient, par exemple, le film ou la musique est chiffré et compressé. Il ne pourra être lu qu’au moyen d’un logiciel spécial, qui sera éventuellement fourni avec le fichier et installé sur le même support. Pour lire le fichier, c’est-à-dire voir le film ou écouter la musique, l’acheteur devra fournir une clé secrète qui lui aura été remise au moment du paiement. Le logiciel DRM pourra également, au gré du vendeur, limiter le nombre de copies possibles du fichier, ou le nombre de lectures, ou la date limite de lecture.

Un des multiples inconvénients du protocole DRM, c’est qu’il limite l’usage légitime des données qu’il protège : si le logiciel de lecture ne fonctionne que sur tel ou tel modèle de lecteur de DVD ou avec tel ou tel système d’exploitation, les propriétaires de systèmes différents ne pourront pas utiliser le DVD en question, quand bien même ils l’auront payé, et la loi sur les brevets logiciel leur interdira de créer un logiciel libre destiné à résoudre ce problème. La situation décrite ici n’est pas du tout un cas d’école, elle s’est effectivement produite ; ainsi le Norvégien Jon Johansen a été poursuivi en 2000 par les tribunaux de son pays, à la demande de l’Association américaine pour le contrôle de la copie de DVD (DVD-CAA), pour le simple fait d’avoir tenté de lire ses propres DVD, et d’avoir écrit pour ce faire le logiciel DeCSS pour le décodage des DVD sous Linux ; il a finalement été acquitté en 2003. Et on ne compte plus les acheteurs dépités de ne pas pouvoir lire leur CD tout neuf sur leur lecteur tout neuf, grâce à DRM.

Trusted Computing Platform Alliance (TCPA)

Trusted Computing Platform Alliance est une association d’entreprises d’informatique (HP, IBM, Intel, Microsoft...) qui se donne pour objectif la sécurité des équipements et des réseaux informatiques, et qui dans ce but développe des dispositifs matériels et logiciels qu’elle souhaite incorporer au cœur des ordinateurs et des systèmes d’exploitation de demain. Ce qui est à noter, c’est que les dispositifs envisagés par TCPA sont destinés à être implantés dans des couches basses du matériel et du logiciel, de telle sorte que l’utilisateur ne pourra pas intervenir pour modifier leur comportement.

Le principe des dispositifs TCPA consiste à attribuer une signature à chaque élément de système informatique (logiciel, document), et à déléguer à un tiers de confiance la possibilité de vérifier si l’objet considéré peut être légitimement utilisé sur le système informatique local.

Tout élément non signé ou dont la signature n’est pas agréée par le tiers de confiance sera rejeté. On imagine les applications d’un tel dispositif à la lutte contre les virus. Mais aussi, si par exemple le « tiers de confiance » est le fournisseur du système (et qui pourra l’empêcher de s’arroger cette prérogative ?), il lui sera possible de vérifier que les applications utilisées sont bien conformes au contrat de licence concédé à l’utilisateur. Un des problèmes soulevés par cette technique est que l’utilisateur final perd ainsi toute maîtrise de ce qui peut ou ne peut pas être fait avec son propre ordinateur. C’est par ce procédé, notamment, qu’Apple s’assure que son système d’exploitation Mac OS X ne peut être exécuté que sur les ordinateurs à processeur Intel de sa fabrication. Mais on pourrait imaginer que cette méthode soit utilisée pour empêcher l’usage de certains logiciels libres.

Les spécifications émises par TCPA formulent la définition du Trusted Platform Module (TPM), destiné à procurer des primitives de sécurité dans un environnement sûr. Par « primitives » on entend : signature électronique, génération de nombres pseudo-aléatoires, protection de la mémoire, accès à un état garanti de l’information contenue par le TPM. L’intégrité et l’authenticité de ces primitives et de leur exécution sont assurées par des dispositifs matériels. Le TPM doit être un composant discret, identifiable de façon distincte sur la carte-mère de l’ordinateur, mis en oeuvre au moyen d’un pilote activé par le BIOS. Ces dispositions assurent l’indépendance du fonctionnement du TPM à l’égard de ce qui se passe dans le système accessible à l’utilisateur. Par exemple, l’utilisation du TPM peut garantir qu’un dispositif de DRM n’aura pas été modifié ou contourné par un utilisateur, opération triviale avec les dispositifs de DRM actuels, implantés purement en logiciel.

Next-generation secure computing base

(NGSCB)

Next-generation secure computing base est le nom d’un projet Microsoft antérieurement baptisé Palladium. NGSCB devait être utilisé par Microsoft pour implanter une architecture de confiance dans son système le plus récent, Vista, mais cette installation est différée sine die, sans doute à cause des réticences suscitées par les aspects Big Brother prêtés au système.

Avec NGSCB, qui fonctionne à l’aide d’un processeur cryptographique, le système d’exploitation Vista travaillera dans un environnement de sécurité. Les principes en sont d’incorporer la cryptographie au système d’exploitation pour garantir l’intégrité des échanges entre processus, entre les processus et la mémoire, entre les processus et les disques, et entre les processus et les dispositifs d’entrée-sortie (clavier, souris, écran...).

Ce mode de fonctionnement permettrait de vérifier que des fichiers créés par une application ne peuvent être lus ou modifiés que par cette même application ou par une autre application autorisée, de protéger le système contre l’exécution de codes non autorisés tels que les virus et tout programme non autorisé par l’utilisateur ou l’administrateur, et de mener à bien l’édification de systèmes informatiques vraiment distribués dont chaque composant puisse faire confiance aux autres parties du système (logicielles ou matérielles) même si celles-ci font partie d’un système distant.

Les détracteurs du projet ne manquent pas d’observer qu’avec NGSCB Microsoft aura les moyens d’exercer un contrôle total sur les ordinateurs de ses clients, et notamment d’y persécuter les logiciels libres qu’il estimerait contraires à ses intérêts. Un tel dispositif sera aussi de nature à accroître l’efficacité des systèmes de DRM... et à aggraver les abus qui en découlent, signalés ci-dessus.

Les développements récents de cette politique de contrôle des usages sont évoqués par la revue Microprocessor Report :
les industriels prévoient de lancer une offre de diffusion vidéo à la demande haute définition par Internet, qui sera encadrée par des mesures techniques de protection drastique, en l’occurrence les plates-formes matérielles Viiv d’Intel ou Live ! d’AMD, le procédé de chiffrement HDCP (High-bandwith Digital Content Protection) et le dispositif de connexion HDMI (High-Definition Multi-media Interface). Tout ceci signifie qu’il faudra, pour accéder à cette offre, faire l’emplette d’un nouvel ordinateur et d’un nouveau système d’exploitation, et que les systèmes libres tels que Linux ou OpenBSD en seront probablement exclus.

Informatique de confiance, ou informatique déloyale ?

Richard M. Stallman a écrit un article de critique de ces projets qui prétendent nous mener vers une informatique « de confiance », où il la qualifie, au contraire, d’informatique déloyale. La déloyauté réside dans les possibilités que NGSCB offre au « tiers de confiance » pour agir sur les données stockées par l’ordinateur, à l’insu de l’utilisateur légitime et sans que celui-ci puisse rien faire pour l’empêcher. R.M. Stallman donne des exemples d’actions déloyales rendues possibles par de telles techniques :

« Rendre impossible le partage des fichiers vidéos et musicaux est une mauvaise chose, mais cela pourrait être pire. Il existe des projets pour généraliser ce dispositif aux messages électroniques et aux documents — ayant pour résultat un e-mail qui disparaîtrait au bout de deux semaines, ou des documents qui pourront seulement être lus sur les ordinateurs d’une société mais pas sur ceux d’une autre.

...

Les logiciels de traitement de texte tels que Word de Microsoft pourraient employer « l’informatique déloyale » quand ils enregistrent vos documents, pour s’assurer qu’aucun autre traitement de texte concurrent ne puisse les lire.

...

Les programmes qui utilisent « l’informatique déloyale » téléchargeront régulièrement de nouvelles règles par Internet, et imposeront ces règles automatiquement à votre travail. »

Nous trouvons sur le site de l’Adullact une analyse comparative des licences logicielles qui corrobore les craintes que l’on peut avoir à l’égard des mesures techniques de protection associées à la gestion des droits numériques :

« L’intégration de la gestion des droits numériques (DRM) dans Windows implique que la société Microsoft peut à tout moment révoquer votre droit d’accés aux contenus sécurisés si elle considère votre logiciel compatible-DRM compromis. Une liste de logiciels révoqués est automatiquement installée sur votre ordinateur à chaque téléchargement de contenus sécurisés. Une mise à jour de votre logiciel compatible-DRM est alors nécessaire pour continuer à accéder à vos fichiers sécurisés. Cette révocation n’empêche cependant pas l’accès à des contenus non protégés par les DRM. »

L’existence réelle de tels projets constitue effectivement une menace contre la liberté d’expression, et contre les libertés publiques en général. Les entreprises qui les fomentent ont exploité abusivement pour leur promotion la psychose de sécurité consécutive au 11 septembre 2001. La puissance de ces entreprises semble considérable, mais nous pensons qu’elles seront néanmoins impuissantes à endiguer les nouvelles pratiques culturelles, parce que celles-ci sont déjà le fait de plusieurs dizaines de millions d’internautes de par le monde, qu’il s’agisse de la publication et de l’échange sur Internet ou du recours aux logiciels libres.

Mesures de rétorsion

Le gouvernement français a demandé à Antoine Brugidou, d’Accenture, et Gilles Kahn, alors président de l’INRIA, un rapport disponible en ligne sur les échanges de fichiers musicaux par Internet et sur les moyens éventuels de les contrôler ou de les bloquer par des dispositifs techniques. Ce rapport est destiné notamment à répondre aux préoccupations des syndicats français des entreprises de l’édition phonographique et cinématographique, qui ne pensent qu’à bloquer, interdire, détecter et punir les échanges en question.

La réponse donnée par le rapport est que les mesures techniques de contrôle et d’interdiction dont rêvent les éditeurs seront difficiles à mettre en oeuvre, très coûteuses, et d’une efficacité limitée dans le temps. En effet les systèmes de filtrage de flux sur l’Internet, pour être réellement efficaces, devraient être installés dans les locaux des fournisseurs d’accès à l’Internet (FAI) ; or les FAI ne manifestent aucun enthousiasme à l’idée d’encombrer leurs infrastructures avec ces matériels onéreux, qui vont ralentir le débit de leurs réseaux, et dont l’objectif est d’empêcher leurs clients de se livrer aux activités pour lesquelles justement ils ont souscrit un abonnement à haut débit.

Les principes de fonctionnement des dispositifs de filtrage ne sont pas déterministes, mais heuristiques : en effet rien ne permet de distinguer de façon sûre un échange poste à poste « suspect » d’un autre type de trafic, comme nous l’avons vu ici. Le filtrage des adresses IP, des numéros de ports ou d’autres données de protocole, notamment, sont totalement inefficaces contre ce type de trafic. Les systèmes de détection doivent donc reconnaître la « signature » d’un échange, puis ouvrir les paquets pour en investiguer le contenu et mettre en évidence le « délit ». Chaque fois que le protocole (non public) du système poste à poste sera modifié, les systèmes de détection seront mis en échec.

Les sociétés Allot et Cisco (gamme P_Cube) proposent des solutions de filtrage de protocole basés sur la reconnaissance de signature. Les sociétés Audible Magic (boîtier CopySense) et Advestigo proposent du filtrage de contenu. Il y a aussi des systèmes de filtrage sur le poste client, qui supposent la collaboration de l’utilisateur, par exemple dans le cas de parents qui souhaitent empêcher leurs enfants de s’adonner au téléchargement ; cet état de fait pourrait changer avec des dispostifs tels que TCPA et NGSCB, susceptibles d’être utilisés pour surveiller un ordinateur sans le consentement de son propriétaire légitime, mais nous voulons croire que des situations aussi iniques ne pourront pas voir le jour.

MM. Brugidou et Kahn envisagent dans leur rapport plusieurs scénarios de déploiement d’outils de filtrage sur les infrastructures des FAI. Ces équipements, pour jouer leur rôle, devront être installés en coupure, ce qui signifie qu’ils devront être adaptés au débit des infrastructures, soit aujourd’hui généralement 1 gigabit/s, mais bientôt 10 Gb/s, c’est-à-dire qu’ils seront coûteux. Ainsi, le rapport envisage une solution suggérée par un syndicat professionnel et adaptée au réseau de France-Télécom : elle consisterait à implanter un boîtier Allot à 1 Gb/s en coupure derrière chaque BAS (Broadband Access Server) du réseau ADSL de l’opérateur [1], soit à l’époque de l’étude 143 boîtiers. Le prix de chaque boîtier est de quelques dizaines de milliers d’Euros. Les fournisseurs d’accès à l’Internet n’ont guère d’attrait pour ce type d’investissement, qui pénalisera surtout leurs clients en termes de performances du réseau et de liberté d’usage de leurs ordinateurs, et ce pour une efficacité très discutable.