Site WWW de Laurent Bloch
Slogan du site

ISSN 2271-3905
Cliquez ici si vous voulez visiter mon autre site, orienté vers des sujets moins techniques.

Pour recevoir (au plus une fois par semaine) les nouveautés de ce site, indiquez ici votre adresse électronique :

Un autre article de Microprocessor Report
Comment Intel devint hégémonique
Article mis en ligne le 27 avril 2009
dernière modification le 4 juillet 2018

L’article de Tom R. Halfhill dont le compte-rendu suit est paru dans le numéro de février 2009 de Microprocessor Report. Il reprend des éléments d’une conférence de Richard S. Tedlow, professeur à Harvard Business School.

Quand les microprocesseurs étaient du bricolage

En 1968 Robert Noyce et Gordon Moore quittent Fairchild, l’entreprise qu’ils avaient créée et où Noyce avait inventé le circuit intégré, pour créer une nouvelle entreprise, Intel, et y inventer le microprocesseur. Cette date est historique parce qu’elle clôt l’ère
industrielle entamée au XVIIIe siècle et décrite par l’œuvre d’Adam Smith, et qu’elle inaugure une époque nouvelle, dont Michel Volle ne manque pas de nous rappeler qu’elle est gouvernée par des lois économiques différentes et qu’il lui faudra un système éducatif, une organisation du travail et un encadrement législatif différents, qui lui manquent aujourd’hui, avec
les troubles qui en résultent pour l’éducation, pour l’emploi et pour le droit des affaires.

Sur le moment personne ne perçoit l’importance de l’événement [1]. La conception d’un nouveau processeur ne demande alors que quelques semaines de travail à une dizaine d’ingénieurs, parce que
l’architecture n’en est pas très complexe : le 4004 ne comporte que 2 300 transistors, son successeur le 8008 en aura 3 300, le 8080, lancé en 1974, à peu près 6 000. Ces chiffres sont à comparer aux 731 millions de transistors sur une puce de 263 mm2 de l’Intel Core i7 de 2008, dont la conception a représenté une charge de l’ordre de 1 000 années-hommes (et en 2015 l’Intel Core i3/i5/i7, architecture Skylake, a 1 750 000 000 transistors en 14nm) ; à propos de cette évolution, cf. un article sur la loi de Moore, qui en rend compte.

En bref, les premiers microprocesseurs sont perçus comme des objets simples, bon marché, faciles à concevoir, pratiques, mais bassement utilitaires. Jusqu’au début des années 1980 d’ailleurs l’essentiel du chiffre d’affaires d’Intel provient des mémoires et d’autres types de composants.

Accords de seconde source et offensive japonaise

Une caractéristique intéressante du marché des microprocesseurs dans sa première décennie était la présence systématique d’accords de seconde source. Les donneurs d’ordres, qui étaient en général des entreprises de beaucoup plus grande taille que les fournisseurs, voulaient des garanties de régularité des approvisionnements, et
aussi faire pression sur les prix, et pour ce faire ils imposaient à Intel et aux autres fabricants de microprocesseurs, tels Zilog ou Motorola, de céder à d’autres sociétés la licence qui leur permettrait de fabriquer leurs produits. Ainsi le 8086 d’Intel,
lancé en 1978 (29 000 transistors, dessiné en 3µm) était fabriqué en seconde source par AMD, Fujitsu, Harris Semiconductor et quelques autres. Le dessin du microprocesseur n’était pas considéré comme un actif de grande valeur, et le céder à un
concurrent ne soulevait pas d’objection.

Le lancement en 1981 du micro-ordinateur IBM PC, basé sur un processeur Intel 8088, version dégradée du 8086, allait bouleverser les conditions économiques de ce marché, en transformant la micro-informatique, jusque là destinée à un public de hobbyistes, en
industrie d’importance mondiale.

On aurait pu penser que cette évolution allait faire la fortune d’Intel : elle a failli causer sa ruine et sa disparition. En effet la croissance rapide du marché des microprocesseurs avait attiré de grandes entreprises japonaises telles que NEC, Fujitsu et Hitachi, ou américaines comme Texas Instruments ou National Semiconductors, lesquelles disposaient de capacités d’investissement sans commune mesure avec celles d’Intel, ce qui provoqua une baisse des prix et une diminution importante de la profitabilité
de cette activité. En 1983 Intel n’était plus que le dixième producteur mondial de circuits intégrés et son déclin semblait inéluctable.

Un des facteurs de la supériorité des Japonais, outre leur capacité supérieure d’investissement, résidait dans leurs meilleures performances en production : le taux de microprocesseurs défectueux en sortie de leurs usines était de deux ordres de grandeur inférieur à celui d’Intel. Pour dessiner des processeurs sur une galette de silicium (le wafer), on utilise une machine très complexe et onéreuse, le stepper, dont à l’époque le premier fabricant mondial était Nikon au Japon, et Nikon collaborait directement avec les fabricants de semi-conducteurs japonais, qui avaient ainsi accès en priorité aux innovations. Aujourd’hui le marché mondial du stepper se partage entre Nikon, Canon, l’américain Ultratech, le néerlandais ASML et quelques autres.

Comment l’industrie américaine fit face au Japon

Il faut se rappeler d’autre part qu’à cette époque le marché des grands systèmes IBM représentait les trois quarts du marché informatique mondial, et que les industriels japonais s’en étaient approprié une part très significative. Encore en 1989, Fujitsu était
le numéro 2 du marché derrière IBM, NEC le numéro 4 derrière Digital Equipment alors à son apogée, Hitachi le numéro 6. L’emprise japonaise se renforçait aux deux extrémités du marché, semi-conducteurs et gros ordinateurs, et elle semblait invincible. Un autre article de ce site donne des chiffres et émet quelques hypothèses sur les
facteurs qui ont permis que l’industrie américaine redresse sa position. Ici nous allons plus précisément examiner comment Intel est redevenu le leader mondial d’une industrie qu’il avait créée.

Parmi les facteurs du redressement, il faut noter que les industriels américains des semi-conducteurs ont évité une attitude qui fut fatale à de nombreuses entreprises informatiques : la suffisance. Très tôt ils ont reconnu la force de la menace japonaise et ils ont su surmonter leurs rivalités et, jusqu’à un certain point, unir leurs forces pour
la juguler. Dès 1977 avait été créée la Semiconductor Industry Association, qui elle-même créa en 1982, à l’initiative de Bob Noyce, une filiale destinée à organiser et à financer la recherche pré-compétitive, Semiconductor Research Corp. (SRC). Les statuts de SRC prévoyaient explicitement le refus d’accepter des membres non-américains.

La SIA et SRC ne furent en aucun cas des organisations potiches. Elles reçurent des financements importants en provenance des industriels et des pouvoirs publics, notamment du Department of Defense (DoD), et s’engagèrent dans une politique de collaboration active avec les Universités ; ces actions eurent pour fruits de nombreuses innovations techniques et le redressement de la courbe de progrès de l’industrie
américaine, innovations et progrès dont les bénéfices étaient explicitement réservés aux entreprises américaines.

Le tournant du 386

La création de la SIA et de SRC ont contribué à rétablir la position de l’industrie américaine des semi-conducteurs en général, mais il reste à expliquer le redressement particulier d’Intel, qui en ce début des années 1980 était en grand péril, et c’est là que l’analyse du professeur Tedlow nous éclaire.

En 1982 Intel lança le 286 (134 000 transistors, 1,5µm), sur la base duquel IBM lança le PC AT, dont Tedlow nous fait observer qu’il est le premier signe du transfert du leadership technologique d’IBM à Intel, dans la mesure où les seules innovations apportées par le PC AT proviennent du 286. Le 286 fait l’objet d’accords de seconde
source avec IBM, AMD, Harris (Intersil), Siemens et Fujitsu.

Pour succéder au 286, Intel voulait produire un processeur à architecture 32 bits, et non plus 16 bits comme le 8086 et le 286, ou a fortiori 8 bits comme le vieux 8080 [2]. Une architecture 32 bits serait de nature à abolir les limitations techniques gênantes des systèmes 16 bits, notamment en termes de
taille de la mémoire adressable, mais un impératif était donné aux ingénieurs de l’équipe de conception : il fallait que le nouveau processeur, le 386, soit compatible avec ses prédécesseurs, c’est-à-dire que les logiciels qui fonctionnaient avec le 8086 ou avec le 286 soient encore utilisables.

Pour atteindre cet objectif ambitieux, Intel réunit une équipe brillante et dépensa 100 millions de dollars, le double de ce qu’avait coûté le design du 286. La définition de l’architecture prit un an : cet investissement devait s’avérer durable, puisque selon toute
vraissemblance le processeur de l’ordinateur avec lequel vous lisez cet article, Mac ou PC, est un descendant direct du 386, c’est-à-dire qu’il exécute les mêmes instructions élémentaires.

Le 80386 (275 000 transistors, 1,5µm) fut commercialisé en 1986 et fut un immense succès technique, mais pas seulement. Comme IBM restait fixé au 286, pour lequel il avait développé un système d’exploitation spécialement adapté, OS/2, d’autres industriels furent les premiers à produire des ordinateurs à base de 386, au premier rang desquels Compaq. Et Microsoft lança la première version de Windows pour ces ordinateurs, qui se révélèrent rapidement plus puissants et plus faciles à utiliser que ceux d’IBM : le couple Windows-386 sonnait le glas de l’hégémonie d’IBM sur le marché du PC.

Fin des accords de seconde source

Microsoft, IBM et Compaq ne furent pas les seuls à être affectés par les innovations du 386 : Intel aussi, bien sûr.

Pour protéger ses investissements et permettre aux prix de remonter, Intel (en la personne de son Chief executive officer Andy Grove) décida de ne pas accorder de licence de seconde source pour le 386. Cette décision révolutionnaire, mal comprise à l’époque, était accompagnée de mesures de réorganisation interne, notamment pour
améliorer la qualité de la production. Une autre décision fut prise, qui prit à rebrousse-poil beaucoup d’ingénieurs d’Intel : abandonner la production des mémoires, qui représentait alors la principale source de profit de l’entreprise.

Andy Grove avait compris que le centre de gravité de l’industrie micro-électronique s’était déplacé des États-Unis au Japon, et il suscita une initiative destinée à gagner pour Intel des clients japonais, qui représentaient le critérium de l’exigence technique. Pour gagner le marché international des microprocesseurs, il fallait battre les concurrents japonais sur leur propre terrain, afin de convaincre la clientèle internationale de la supériorité des produits Intel.

La décision de garder le monopole du 386 fut prise à un moment où Intel était en train de regagner le leadership qu’il avait perdu tant dans la technologie que pour la qualité et la capacité de production. Cette décision fut à l’origine de la remontée d’Intel vers la première place dans l’industrie des semi-conducteurs, qu’il occupe aujourd’hui solidement avec un chiffre d’affaires 2008 de 33,767 milliards de dollars, double de celui du second, Samsung avec 16,902 milliards de dollars.

Fin de l’intégration verticale

Un effet collatéral de la nouvelle orientation d’Intel, de son renouveau et du succès du 386 fut la fin du modèle alors en vigueur dans l’industrie informatique : l’intégration verticale. Jusqu’alors, tant IBM que Control Data ou Digital Equipment concevaient et fabriquaient les éléments électroniques de l’unité arithmétique et logique de leurs ordinateurs, de sa mémoire et de ses périphériques tels que disques, dérouleurs de bande et autres imprimantes, et ils en produisaient le logiciel, depuis le système d’exploitation jusqu’au traitement de texte. À partir de 1986, l’industrie informatique devint essentiellement une industrie d’assemblage, et même IBM achète la plus grande partie de ses processeurs, de ses mémoires et de ses disques, sans parler du logiciel. Intel et Microsoft tiennent en main les cartes maîtresses de ce jeu, ils en tirent les ficelles, parce que leur technologie incorpore bien plus de valeur ajoutée que les usines d’assemblage, au demeurant fort bien conçues, de Dell (cf. article sur ce site).