Site WWW de Laurent Bloch
Slogan du site

ISSN 2271-3905
Cliquez ici si vous voulez visiter mon autre site, orienté vers des sujets moins techniques.

Pour recevoir (au plus une fois par semaine) les nouveautés de ce site, indiquez ici votre adresse électronique :

Industrie électronique et informatique américaine
À propos de son évolution
Article mis en ligne le 6 octobre 2005
dernière modification le 6 août 2014

par Laurent Bloch
logo imprimer
Licence : CC by-nd
D’autres articles sur l’industrie informatique et son évolution :
L’industrie micro-électronique arrive-t-elle à maturité ?,
Comment Intel devint hégémonique.

L’évolution et l’avenir de l’industrie américaine font l’objet d’analyses nombreuses et contradictoires ; certains auteurs, comme Emmanuel Todd dans Après l’Empire : Essai sur la décomposition du système américain, en infèrent le déclin de phénomènes tels que le déficit commercial abyssal des États-Unis, le déplacement vers l’Asie des grands centres de production industrielle et la baisse du niveau de formation des jeunes générations. Des études comme celle de la Task Force on the Future of American Innovation, par exemple, qui regroupe de grandes entreprises (Microsoft, Intel...) et des sociétés savantes (AMS, ACM) , apportent des arguments à l’appui de cette thèse.
Sans me prononcer sur ce sujet en général, pour lequel je n’aurais guère de compétence, je voudrais donner quelques éléments de réflexion au sujet des industries électronique et informatique américaines, que je connais mieux.

Mes archives ont restitué quelques chiffres [1]
relatifs aux industries informatique (logiciel et services compris) et électronique à la fin des années 1980 et au début des années 1990 :

L’évolution de Hewlett-Packard est impressionnante, mais il faut préciser que HP a racheté Compaq, qui lui-même venait d’acheter Digital Equipment...

 La vague japonaise des années 1980

Que nous suggèrent les chiffres de 1989 (à l’époque c’était bien cela que j’en pensais, et je n’étais pas le seul) ? L’ascension irrésistible de l’industrie électronique et informatique japonaise, dont la vague submergeait tout sauf IBM, qui lui-même vacillait encore en 1993. Intel, l’inventeur du micro-processeur, devenait une entreprise marginale qui s’enfonçait dans les profondeurs du classement. L’ordinateur que j’avais alors sur mon bureau était une station de travail Sony sous un excellent Unix BSD.

 Le sursaut américain des années 1990 dans l’électronique

Que nous montre 1995 ? L’industrie américaine s’est ressaisie, et cette remontée n’a fait que se confirmer depuis dix ans. En fait, l’événement le plus significatif apparaît sur le second tableau, c’est la remontée d’Intel.

Comment l’expliquer ? Il faut pour cela remonter un peu dans l’histoire de l’industrie des semi-conducteurs, de l’industrie informatique, et de leurs relations mutuelles.

Naissance de la micro-informatique

C’est en 1981 qu’IBM a créé une nouvelle industrie en lançant son micro-ordinateur PC, pour lequel il avait fait le choix du micro-processeur Intel 8088, au détriment du Motorola 68000, techniquement bien supérieur. On aurait donc pu s’attendre à une croissance d’Intel plus importante à partir de cette date. Mais au début de la décennie 1980 les firmes de semi-conducteurs sont petites et faibles face à leurs clients de l’industrie informatique, qui dépendent moins d’elles qu’aujourd’hui. En effet, si un ordinateur de l’an 2005 est fondamentalement un micro-processeur entouré de mémoire et de périphériques, en 1981 ce n’était le cas que pour les tout petits ordinateurs, les machines sérieuses, gros IBM ou VAX de chez Digital Equipment, étaient réalisées en logique discrète, c’est-à-dire que des composants élémentaires étaient disposés sur des cartes logiques et câblés. Ces composants étaient déjà relativement intégrés, mais ils n’étaient pas des processeurs complets. L’architecte du système était donc IBM ou Digital Equipment, et pas le fabricant de composants. Ainsi en 1978, l’unité centrale du VAX/11-780 de Digital Equipment se composait de 27 cartes au format 7U x 9U, soit 31cm sur 40 cm (merci à Daniel Clar de Supelec pour ces précisions), remplies de composants plus ou moins complexes ; sa puissance de calcul était à peu près celle d’un Palm Pilot d’aujourd’hui. De fait IBM et Digital Equipment fabriquaient eux-mêmes leurs composants, qui étaient beaucoup moins complexes qu’aujourd’hui, et ces firmes, ainsi que Hewlett-Packard, deviendront d’ailleurs dès la fin des années 1980 d’excellents concepteurs de micro-processeurs [2].

Naissance et abandon de la politique de seconde source

Bref, en 1981 les fabricants de semi-conducteurs étaient à la merci de leurs clients fabricants d’ordinateurs, et justement IBM exigea qu’Intel ne soit pas le seul fabricant du microprocesseur 8088, pièce maîtresse du PC. Intel concéda donc des accords dits de seconde source à d’autres industriels, notamment AMD, NEC, etc. Ces accords de seconde source furent à l’origine d’une concurrence fructueuse et Intel ne fut de loin pas le seul à bénéficier de la propagation de sa technologie, ce qui lui causa une certaine amertume. Aussi lors du lancement de son modèle 386 en 1986 Intel annonça-t-il la fin des accords de seconde source, ce qui provoqua quelques procès, dont un gagné en 1989 par AMD. Ces procès ne furent que des combats d’arrière-garde, et quelques années plus tard Intel avait repris le contrôle de sa propriété industrielle.

Si Intel a pu abandonner sa politique de seconde source, c’est qu’entre temps le rapport de forces s’était déplacé en sa faveur, puisqu’il disposait désormais d’une position de monopole dans le domaine de la conception de processeurs de PC.

Comment l’industrie américaine a-t-elle repris le contrôle ?

Outre l’abandon évoqué ci-dessus de la politique de seconde source, qui coupait pour les entreprises japonaises le robinet de l’innovation en conception de processeurs, l’industrie américaine avait pris d’autres mesures pour enrayer son déclin. Les principaux industriels du secteur avaient créé dès 1977 la
Semiconductor Industry Association, qui elle-même créa en 1982, à l’initiative de Bob Noyce, une filiale destinée à organiser et à financer la recherche pré-compétitive, Semiconductor Research Corp. (SRC). Les statuts de SRC prévoyaient explicitement le refus d’accepter des membres non-américains.

La SIA et SRC ne furent en aucun cas des organisations potiches. Elles reçurent des financements importants en provenance des industriels et des pouvoirs publics, notamment du Department of Defense (DoD), et s’engagèrent dans une politique de collaboration active avec les Universités ; ces actions eurent pour fruit de nombreuses innovations techniques et le redressement de la courbe de progrès de l’industrie américaine, innovations et progrès dont le bénéfice était explicitement réservé aux entreprises américaines.

La leçon que l’on peut tirer du redressement américain et du coup d’arrêt porté à la vague japonaise qui semblait irrésistible, c’est que les Japonais ne furent pas capables de développer leur industrie avec leurs propres facteurs d’innovation, ce qui révélait leur dépendance à l’égard de la propriété intellectuelle américaine.

Mais de quoi au juste se compose la propriété intellectuelle incorporée à un micro-processeur ?

 Embryogenèse et anatomie d’un micro-processeur

Pour fabriquer un micro-processeur utilisable il faut disposer des éléments suivants :

- la conception du circuit ;
- l’infrastructure de fabrication ;
- un système d’exploitation qui permette sa mise en œuvre.

Examinons successivement la teneur de chacun.

  1. Conception du circuit : au début des années 1980, le processeur 68000 de Motorola était nommé ainsi parce qu’il comportait à peu près 68000 portes logiques. La porte est l’élément de base du processeur, vous pourrez en lire ici l’explication.
    Le processeur est réalisé par projection d’électrons sur un support de silicium, ou par un procédé optique, par un faisceau de rayons ultra-violets (ici un document, et là un autre qui expliquent cela). Les machines qui les fabriquent opèrent comme des tables à dessin automatiques qui produiraient des dessins microscopiques : une porte d’un processeur moderne a une dimension de l’ordre de 0,065 microns (mise à jour 2011 : 32 nanomètres). Les processeurs contemporains ont de l’ordre de 50 millions de portes, l’Itanium 2 d’Intel comporte 410 millions de transistors (mise à jour 2011 : 1 milliard de portes). Concevoir à la main un tel circuit n’est pas envisageable : on utilise un langage de description (le plus connu s’appelle VHDL), dont les instructions sont traduites par le logiciel d’aide à la conception vers une base de données de dessins. Les entreprises qui réalisent de tels logiciels se comptent sur les doigts de la main. La conception d’un processeur entièrement nouveau, comme l’Itanium, représente sept à huit ans de travail pour 100 à 200 ingénieurs. Maîtriser un tel processus ne s’improvise pas du jour au lendemain.
  2. Infrastructure de fabrication : une usine qui fabrique des processeurs coûte 4 milliards de dollars (en 2011 : 8) ; la machine de base de cette usine (nommée stepper) est un appareil photo-lithographique qui transfère l’image du masque du circuit, issu de l’étape de conception, sur une petite portion de la surface du wafer, ou galette, de silicium. Les progrès dans la miniaturisation des processeurs dépendent pour une grande part des progrès dans la réalisation de lentilles en verre de très grande qualité pour ce type d’appareil. Cet engin coûte 15 millions de dollars. La conception même de telles machines n’est maîtrisée que par un tout petit nombre d’entreprises.
  3. Système d’exploitation : sans système d’exploitation, un processeur est aussi inutilisable qu’un bout de ferraille. J’ai écrit sur le sujet un livre disponible en ligne ici. Qu’il suffise ici de dire qu’un système d’exploitation muni de son interface graphique et de tous les accessoires convenables comporte de l’ordre de 30 millions d’instructions de programme, et qu’il faut, là aussi, sept à huit ans à 100 à 200 ingénieurs pour le concevoir et le réaliser. Il n’y a plus en Europe d’activité de conception de système d’exploitation général, hormis chez les membres de la communauté des systèmes d’exploitation libres (Linux, xBSD).

De ce qui précède on voit que la maîtrise industrielle dans le domaine des industries électronique et informatique repose sur l’appropriation de démarches technologiques extrêmement complexes et très peu répandues. Il s’agit bien de technologie, et pas seulement de technique, parce que la réalisation industrielle est étroitement liée à la démarche théorique et au progrès de la recherche fondamentale et appliquée.

 Le sursaut américain des années 1990 dans l’informatique

Tout au long des années 1970 et 1980 le monde de la construction d’ordinateurs, dominé par IBM, vivait une concurrence acharnée stimulée par les fabricants d’ordinateurs compatibles avec les grands systèmes IBM (série 370 et 390). Ce marché ouvert était né d’une décision de la cour suprême des États-Unis, qui imposa à IBM de facturer à part logiciel et matériel (ce fut l’unbundling, voir ici les détails, et là une analyse économique de Michel Volle). D’autres procès contraignirent IBM à publier les spécifications des interfaces de ses systèmes, afin de permettre à ses concurrents d’y connecter leurs propres sous-systèmes, comme par exemple des disques ou des imprimantes.

Grâce à cet arsenal juridique, un industriel pouvait construire un ordinateur compatible IBM et le vendre en indiquant à son client d’acheter le système d’exploitation, c’est-à-dire la partie la plus longue à développer et la plus complexe, chez IBM. Il était aussi possible de vendre des périphériques (disques, dérouleurs de bandes, imprimantes) compatibles à des clients d’IBM.

Sur ce marché du compatible (plug to plug) beaucoup de sociétés étaient soit des sociétés japonaises, soit de petites sociétés américaines adossées à l’infrastructure industrielle de leur associé japonais. L’exemple emblématique de cette situation était celui d’Amdahl, fondée par Gene Amdahl, le créateur de l’architecture matérielle de l’IBM 360, dont la société est maintenant un département de Fujitsu.

IBM avait essuyé un échec sur le terrain de la législation anti-trust, mais ne s’avouait pas vaincu. Petit à petit, ses ingénieurs et ses avocats élaborèrent des moyens subtils de contourner les décisions juridiques défavorables sans donner prise aux avocats de la partie adverse, mais en empêchant ses ingénieurs de profiter de son système d’exploitation et de ses interfaces. Aujourd’hui l’industrie du compatible IBM est réduite à la portion congrue... non sans avoir entraîné dans sa chute les tarifs d’IBM, qui a dû aligner ses prix sur ceux de la concurrence. C’est en l’an 2000 qu’Amdahl/Fujitsu et Hitachi ont abandonné le terrain, rendant à IBM son monopole sur un marché encore très lucratif, et qui n’est pas près de s’éteindre.

 La loi Sarbanes-Oxley va-t-elle abattre le dynamisme américain ?

Vous pourrez lire sur le site de VLSI Research un article où son président G. Dan Hutcheson fait une analyse très pessimiste des perspectives de l’économie américaine postérieures à l’affaire Enron. On sait qu’après la succession de scandales financiers qui ont suivi l’éclatement de la bulle Internet le Congrès américain a promulgué en 2002 une loi dite loi Sarbanes-Oxley
qui impose aux entreprises qui font appel au capital public (c’est-à-dire cotées en bourse) toute une série de règles comptables et administratives destinées à assurer la traçabilité de leurs opérations financières, afin que les actionnaires ne courent plus le risque de voir leurs actions partir en fumée après une déconfiture que des comptes truqués n’auraient pas permis de prévoir, cependant que les dirigeants initiés auraient revendu à temps leurs stock-options pour se retirer sur leur yacht aux îles Cayman... Notons que tous les grands pays occidentaux se sont rapidement dotés de lois analogues, en France c’est la loi sur la sécurité financière (LSF) du 1er août 2003, qui ne concerne pas seulement les sociétés cotées, mais toutes les sociétés anonymes, complétée par le dispositif réglementaire européen « Bâle 2 » de 2004.

Hutcheson retient les points suivants :

  1. la quasi-disparition des stock-options prive les entreprises émergentes du moyen de motiver leur personnel ;
  2. la lourdeur et le coût considérables de l’adaptation à la loi Sarbanes-Oxley empêcheront pratiquement les entreprises émergentes d’entrer en bourse, c’est-à-dire d’accéder aux sources de capital (notons que les éventuelles entreprises émergentes françaises n’auront pas à souffrir un tel dommage, puisque l’accès au marché boursier leur est déjà pratiquement impossible) ;
  3. cette fermeture du marché boursier aux entreprises émergentes casse le modèle américain de capital-risque, sur lequel reposait la créativité industrielle du pays ;
  4. les analystes financiers optimistes, accusés d’entraîner les épargnants dans des aventures dangereuses, risquent désormais la prison : on peut s’attendre à une flambée de pessimisme ;
  5. l’orientation des entreprises selon les nouveaux impératifs de réduction des coûts et d’optimisation des achats coupe court à toute tentation d’innover.

Hutcheson est d’autant plus sévère à l’égard de la nouvelle législation que, selon lui, les lois existantes étaient tout-à-fait suffisantes pour assurer la transparence et lutter contre la fraude.

J’ajouterais que ces différentes législations souffrent (à mon humble avis) d’un vice de conception : elles suggèrent que la comptabilité des entreprises pourrait résulter de l’observation neutre et objective de phénomènes naturels, un peu comme les sciences de la nature, alors qu’un système comptable est construit avec des objectifs et des intentions.

Sans se prononcer sur le bien-fondé de l’analyse de Hutcheson, force est de constater l’expansion considérable de la bureaucratie dans l’activité économique contemporaine. Max Weber avait déjà analysé son caractère inéluctable (la bureaucratie serait un peu comme l’entropie, une quantité qui ne diminue jamais). La forme actuelle de cet essor bureaucratique est le pouvoir croissant des milieux financiers.

 Conclusion (hypothétique)

Qu’a-t-il manqué à l’industrie japonaise pour consolider sa position dominante de la fin des années 1980 ? Les entrepreneurs japonais maîtrisaient, et maîtrisent encore, tous les aspects techniques des processus décrits ci-dessus, sans doute mieux que leurs concurrents américains d’ailleurs.
Des entreprises géantes comme NEC, Fujitsu ou Hitachi ne pouvaient être arrêtées ni par des obstacles financiers, ni par des obstacles techniques. Elles avaient sans aucun doute la capacité de concevoir de nouveaux types de processeurs, mais pas celle de les imposer sur le marché, et ce, en tout cas c’est mon hypothèse, parce qu’elles n’étaient pas en situation de produire et d’imposer sur le marché le système d’exploitation qui aurait permis de les mettre en œuvre. Si elles savaient concevoir des processeurs conformes à l’état de l’art du moment (et elles en sont toujours capables), elles ne connaissaient le succès qu’en restant dans la ligne en cours de cet état de l’art, cependant que dans ce domaine les conceptions novatrices couronnées de succès ont presque toutes été américaines.

Dans le domaine du logiciel la créativité demande une certaine anarchie, de la liberté d’idées, elle est incompatible avec une organisation sociale autoritaire et hiérarchique. La création d’un logiciel aussi complexe et aussi gros qu’un système d’exploitation demande qu’au sein de cette anarchie il y ait de l’organisation, que la liberté d’idées accepte un but commun. Bref, le mariage de l’expression et de l’abnégation est un équilibre difficile, pour l’analyse duquel l’étude de l’exemple Linux serait d’ailleurs un exercice éclairant ; chaque cas est particulier, se prononcer sur les cas japonais ne m’est pas possible. Ce qui est sûr c’est que l’obstacle n’était ni technique ni financier.

La proximité géographique, sociale et intellectuelle entre les équipes qui développent le matériel et celles qui développent le système peut être importante : quand Gary Kildall a commencé à développer CP/M, il faisait son service militaire à quelques kilomètres des labos. d’Intel. Bill Joy a créé Sun à côté de Berkeley où il avait été un des auteurs de BSD. Multics s’est créé au MIT, tout près de GE.

Les Japonais ont créé ou adapté à leurs propres architectures matérielles (NEC notamment) des systèmes complexes, de même que des équipes françaises ont pu créer d’excellents systèmes (GCOS 7, Prologue), sans oublier les Britanniques d’ICL (aujourd’hui rachetés par Fujitsu). Ces systèmes n’ont jamais vraiment percé en dehors de leur pays d’origine. Lorsqu’une entreprise cliente s’engage sur la voie d’un système d’exploitation, si ce n’est pas pour des décennies, cela ne vaut pas la peine : alors il faut que l’auteur du système soit crédible pour des décennies, et la meilleure preuve, c’est encore qu’il fasse cela depuis des décennies. Les Japonais (comme les Français) n’apparaissaient pas comme des gens vraiment enracinés dans un terreau culturel comparable à celui du MIT ou de Berkeley.

En conclusion, les industries américaines dans les domaines des semi-conducteurs et des systèmes informatiques détiennent le monopole de la conception et de l’innovation, et rien ne permet de prédire la fin de ce monopole dans les prochaines années. Cette maîtrise repose sur toute une culture scientifique et technique qui s’est élaborée au long de décennies, dans des dizaines d’universités et de laboratoires, c’est-à-dire que de nouveaux entrants ne peuvent pas espérer se l’approprier rapidement. Comme ces activités sont aussi celles qui conduisent l’économie mondiale, on peut dire que les États-Unis détiennent ainsi une arme décisive pour faire face à la menace du déclin.

L’Europe ne peut pas en dire autant, malgré les résultats très honorables de son industrie des semi-conducteurs représentée par Infineon, STMicroelectronics et Philips. En effet, si ces firmes sont bien placées du point de vue du volume, on ne peut pas en dire autant si l’on examine les conceptions novatrices de pointe dans le domaine des processeurs destinés à l’informatique.

Notes :

[1C’est à dessein que je donne des chiffres relatifs aux principales entreprises du secteur, plutôt que des statistiques sectorielles, qui seraient ici moins pertinentes, pour des raisons dont on trouvera un exposé sous la plume de Michel Volle : « quand on observe une population d’effectif réduit, comme celle des grandes entreprises qui représentent dans certains secteurs l’essentiel de la valeur ajoutée, ce n’est plus la statistique qui s’impose (car ni les totaux, ni les moyennes ne sont alors interprétables, même s’ils sont exhaustifs), mais la monographie. »

[2Depuis que l’Itanium se révèle une déception, il ne fait plus guère de doute que l’Alpha de Digital Equipment ait été une des plus belles architectures jamais conçue et réalisée.

Forum
Répondre à cet article
Industrie électronique et informatique américaine
Marcel Moiroud - le 14 octobre 2005

Paris le 14 octobre 2005

Cher Laurent,

Ton historique de l’industrie électronique et informatique est un
raccourci intéressant, et j’ai particulièrement apprécié la clarté du
§ Embryogenèse et anatomie d’un microprocesseur. L’aboutissement cet
historique est le constat - auquel j’adhère, nonobstant mon
incompétence en ce domaine - du monopole de la conception et de
l’innovation des industries américaines des semi-conducteurs et des
systèmes informatiques.

Tu prolonges ce constat en affirmant que « rien ne permet de prédire
la fin de ce monopole dans les prochaines années ». Compte-tenu des 7
à 8 ans requis pour la conception d’un circuit, des 7 à 8 autres
années nécessaires à la conception et réalisation d’un système
d’exploitation, les « prochaines années » évoquent un futur
indéterminé (et sans doute indéterminable) dans le temps qui obscurcit
toute prédiction. Reste : « rien ne permet de prédire la fin de ce
monopole ». Je ne peux que faire mienne cette opinion...et aussi
l’opinion contraire.

C’est qu’un historique ne fait pas histoire. D’ailleurs ne situes-tu
pas ton historique de l’ industrie électronique et informatique, tant
japonaise qu’américaine, hors de ce qui est le « sujet » du livre de
Todd ? Renoncer à se prononcer sur un tel sujet n’est aucunement
critiquable, mais s’abstenir de le prendre en considération revient à
croire que l’on peut comprendre l’évolution d’un secteur d’activités
en l’isolant de son contexte historique. Écrire que les entrepreneurs
japonais de la fin des années 1980 « avaient sans doute la capacité de
concevoir de nouveaux types de processeurs, mais pas celle de les
imposer sur le marché, [...], parce qu’ils n’étaient pas en situation
de produire et d’imposer sur le le marché le système d’exploitation qui
aurait permis de les mettre en oeuvre » n’apporte aucun éclairage sur
les questions seulement suscitées quant à l’histoire de cette
situation - histoire dont on peut penser qu’elle inclut la seconde guerre
mondiale, qui stimula les technologies et les industries américaines
et qui laissa au Japon une économie à reconstruire (sous tutelle
militaro-politique américaine jusqu’en 1952). Une culture
scientifique et technique, « élaborée au long de décennies » a
certainement été un facteur essentiel de l’accession des industries
américaine considérées à leur actuelle situation monopolistique, mais
il n’a pas été suffisant, et il a lui-même résulté de facteurs
multiples et complexes.. Le marché n’est pas un « lieu » donné et
stable sur lequel un produit parvient ou non à s’imposer. Il est
interactions incessantes et fluctuantes d’offres et de demandes. La
survie de l’offre est conditionnée par l’existence d’une demande. Par
ses innovations, notamment, l’offre peut créer et étendre la
demande. Mais la solvabilité de celle-ci- vitale pour l’offre - est
fonction d’une situation économique, et souvent d’une situation
politico-économique. Par ailleurs, pour parvenir à une offre initiale
l’industrie doit trouver des financements de ses investissements. En
ce qui concerne l’industrie électronique et informatique américaine,
on ne peut pas passer sous silence, ni la prospérité de l’économie
américaine, ni le rôle très actif de l’État dans le financement des
recherches fondamentales et appliquées, ainsi que dans la formation de
demandes.

L’insularisation n’affecte pas la validité et la pertinence de
l’historique par lequel tu identifies et analyses les caractéristiques
techniques spécifiques des industries américaines de l’électronique et
de l’informatique. Par contre, elle constitue un socle trop lacunaire
pour toute ébauche de prédiction de l’évolution de ces industries, et
de leur situation mondiale dans 30, 20 et même seulement 10 ans.

La prospective est un art souvent ingrat. Plus que de calculs
statistiques et probabilistes ou de modélisations et de simulations,
elle est oeuvre d’imagination. D’où sa difficulté, car notre capacité
d’imagination est constamment bornée par nos connaissances - y compris
les connaissances scientifiques, accoutumés que nous sommes à oublier
qu’elles sont paramétriques et délimitées, que l’objet de chaque
connaissances est abstrait d’un système concret, complexe et actif, et
hors duquel la représentation se substitue à la réalité.

Anticiper la situation de l’électronique et de l’informatique
américaines suppose imaginer l’évolution de l’économie mondiale - et,
pour commencer, évacuer les « bien-pensers » contemporains, qui le plus
souvent nous paraissent n’être que simples perceptions, opinions de
bon sens, constats évidents ou démonstrations rationnelles.

Cependant, la visée principale de ton article n’est pas cantonnée à
l’électronique et à l’informatique. Plus important est que tu
considères que, les États-Unis ayant la maîtrise, le monopole
d’activités « qui conduisent l’économie mondiale », on peut penser que
« les États-Unis détiennent ainsi une arme décisive pour faire face à
la menace du déclin ». Ta déclaration liminaire d’incompétence importe
peu : tel est, me semble-t-il, le C.Q.F.D., poursuivi en opposition aux
(hypo)thèses pessimistes de Todd et de la Task Force on the Future
American Innovation
.

Quand tu parles d’activités « qui conduisent l’économie mondiale », je
ne sais pas s’il s’agit des « industries américaines dans les domaines
des semi-conducteurs et des systèmes informatiques », ou de « la
culture scientifique et technique qui s’est élaborées aux long de
décennies, dans des dizaines d’universités et de laboratoires », ou de
l’ensemble. De toute manière, je ne pense pas que « ces activités »
(ou d’autres) « conduisent l’économie mondiale », parce que, bien
qu’influentes, elles ne sont que des éléments du gigantesque, complexe
et super-actif système que nous sommes encore incapables de nommer,
aussi bien que de parvenir à une représentation, même grossière, de
l’ensemble des interactions physiques, biologiques, techniques et
sociales qui le constituent.

D’autres éléments du même système - et non des moindres - sont ces
« milieux financiers » que tu réduis à un « essor bureaucratique ». Ces
« milieux », omniprésents dans maints discours à contenu économique et
obstinément non-identifiables et non localisables, sont des flux
informationnels qui, régulés par une logique ne relevant d’aucune
instance décisionnelle instituée, imprègnent toutes les activités
économiques. Ce sont peut-être même la seule réalité spécifiquement
économique.

Je te remercie d’avoir provoqué l ’écriture de ce texte car, si je
suis convaincu de la nécessité de renouveler nos modes de penser, les
approches (les miennes et quelques autres) ne sont présentement que
balbutiantes, et je ne peux guère en parler qu’en termes confus.

Encore quelques mots pour éclairer quelque peu ma démarche.

Le système, que j’évoque, n’est pas une innovation de notre temps ; il
est consubstantiel à l’univers. Pendant des siècles, le hommes ont pu
se satisfaire de connaissances parcellaires, superficielles et,
jusqu’à presque maintenant, le plus souvent isolées. Ils se sont
satisfaits d’accroître, d’étendre ces modes de connaissance, car leurs
actions n’avaient que des effets de faibles portées spatiales et
temporelles, aux conséquences diffuses et diluées pour le système
global.

Au cours des derniers siècles, grâce aux progrès des sciences et des
technologies et aux expansions de leurs applications, le gain des
actions des hommes a été considérable, en efficacité et en
puissance. De plus en plus, l’agir des hommes, dans la plupart de
leurs domaines d’activité, a un impact sur le système global, plus ou
moins fort, plus ou moins étendu, plus ou moins rapide, mais avec des
conséquences de plus en plus souvent irrévocables.

Or, notre pensée est très en retard par rapport à notre action. Dans
bien des cas et dans des domaines divers, nous sommes impuissants à
imaginer l’ampleur et la durée des conséquences de notre action, et,
surtout, nous nous refusons à croire à la possibilité de ce que nous
imaginons, de ce dont nous pouvons dire que, grosso modo, nous le
savons.

Mettre notre penser au niveau de notre agir : telle la tâche la plus
impérieuse. Il s’agit, certes, d’accroître et d’affiner nos
connaissances, mais avec intégration de la connaissance de notre agir
et de la connaissance de l’agir incessant et omnipotent du monde.

Très amicalement.

Marcel.

Industrie électronique et informatique américaine
Michel Volle - le 10 octobre 2005

Cher Laurent,

Merci pour ce texte intéressant.
Je crois en effet que l’avance américaine dans les technologies de base de l’informatique est telle que l’Europe ne pourra pas la rattraper de sitôt - et que le déclin américain n’est pas pour demain, si cela dépend du seul secteur informatique.
Mais l’économie des TIC comporte trois couches :
1) les technologies fondamentales, les seules dont tu parles ici ;
2) les équipements (ordinateurs, routeurs, commutateurs etc.) qui utilisent ces technologies fondamentales ;
3) l’informatisation des entreprises, qui utilise ces équipements, mais suppose surtout un savoir faire en organisation et en conception du système d’information. .
C’est sur le point 3 que se joue l’essentiel de l’effet des TIC sur la compétitivité (cf. le lien vers "Effets économiques des TIC"). Or rien n’empêche nos entreprises d’être des utilisateurs intelligents de l’informatique. Rien, ai-je dit ?...

Amitiés,
Michel



pucePlan du site puceContact puceMentions légales puceEspace rédacteurs puce

RSS

2004-2017 © Site WWW de Laurent Bloch - Tous droits réservés
Site réalisé sous SPIP
avec le squelette ESCAL-V3
Version : 3.86.44