RECHERCHE :
Bienvenue sur le site de Michel VOLLE
Powered by picosearch  


Vous êtes libre de copier, distribuer et/ou modifier les documents de ce site, à la seule condition de citer la source.
 GNU Free Documentation License.

De la « loi de Moore » à l’ordinateur individuel

15 novembre 2002

Le silicium (Si) est, après l’oxygène, le constituant le plus massif et donc le plus répandu de la Terre. Le silex, constitué de silice pure (ou dioxyde de silicium SiO2 ), a servi il y a 2,5 millions d'années de matière première aux premiers outils, armes et parures fabriqués par Homo habilis en Afrique de l'Est[1]. Par la suite l’être humain a abondamment utilisé le silicium sous forme de céramique, de brique, puis de verre et de porcelaine. Aujourd'hui le silicium pur cristallisé, produit par l’industrie chimique à partir de verres de silice (« quartz »), sert de matière première aux « puces » de la microélectronique.

Il se trouve que le silicium, peu coûteux en raison de son abondance, possède des propriétés électroniques très particulières. Elles expliquent à la fois le tranchant des arêtes du silex, la diversité de ses utilisations, enfin les performances des circuits intégrés. Le silicium est ainsi intimement lié à l’histoire de notre espèce.

Du processeur au microprocesseur

Le processeur est la partie centrale et aussi la partie la plus complexe d’un ordinateur. Il comprend les registres (mémoire de travail) et la machine qui exécute les opérations commandées par le programme[2]. Les ingénieurs qui conçoivent un processeur doivent arbitrer en fonction d’un grand nombre de facteurs économiques et techniques : il en est résulté une diversité de solutions qui a rendu les premiers ordinateurs mutuellement incompatibles. Pour un utilisateur, il était alors coûteux de changer de fournisseur car il aurait fallu réécrire les programmes pour les adapter à une autre machine.

Le microprocesseur, processeur intégré sur une seule puce, a introduit un standard de fait : Intel vend ses microprocesseurs comme de simples composants qui dispensent le constructeur des études les plus complexes et les plus coûteuses[3].

La mise en exploitation des possibilités des circuits intégrés requiert la maîtrise de plusieurs techniques délicates ; elle a donc été progressive. Cette progressivité explique la « loi de Moore » (doublement des performances tous les 18 mois), qui  explique elle-même la montée des performances et la baisse du prix des ordinateurs, donc l’émergence de l’ordinateur individuel, puis la pénétration et la généralisation de l’ordinateur dans les entreprises et la société.

Du transistor au microprocesseur

En 1947, trois chercheurs des Bell Labs d’AT&T (John Bardeen, Walter Brattain et Robert Shockley) découvrent le « transistor » (« transfer resistor »). Leur invention s’appuie sur le fait qu’il est possible de contrôler sélectivement le flux d’électricité dans le germanium (qui sera remplacé ensuite par le silicium) en faisant en sorte que certaines zones soient conductrices et d’autres isolantes, d’où le terme « semi-conducteur ». Comparé au tube à vide, technologie auparavant dominante, le transistor se révéla plus fiable, moins consommateur d’énergie et susceptible de miniaturisation.

Les premiers transistors étaient faits à la main dans des conditions rustiques si on les compare aux « salles blanches » actuelles. Les rendements étaient bas (20 à 30 %) et les performances variables. Les progrès techniques ont donc d’abord concerné la maîtrise du processus de production.

Pendant les années 50 une nouvelle industrie se crée. La fabrication des semi-conducteurs fait d’importants progrès : le processus de diffusion consiste à diffuser des impuretés (« dopants ») directement sur la surface du semi-conducteur, ce qui supprime le processus fastidieux d'ajout de diverses couches de matériaux isolants et conducteurs sur le substrat. Des techniques photographiques permettent de projeter le dessin de masques compliqués sur le semi-conducteur de telle sorte que la diffusion ne se fasse que sur les surfaces souhaitées.

Ces deux techniques permirent de passer de la production manuelle à la production industrielle de série avec une meilleure qualité. Elle permirent aussi l’invention du circuit intégré (circuit électronique comportant plusieurs transistors sur une même pièce de matériau semi-conducteur) en 1958 par Jack Kilby[4]. 

Jean Hoerni introduisit en 1959 une troisième innovation essentielle : il observa que les techniques de diffusion et de photographie permettaient de se libérer des complications du transistor à trois dimensions en dessinant des transistors plans (« planars »). Il devenait ainsi possible de faire les connections électriques non plus à la main, mais en déposant un film par condensation de vapeur métallique sur les parties appropriées du semi-conducteur.

Fairchild Semiconductor produisit le premier transistor plan en 1959, puis  le premier circuit intégré utilisant cette technique en 1961. Moore a fait de l’invention du transistor plan en 1959 le point de départ de la « loi de Moore ».

Les progrès des processus de production et des techniques se sont ensuite poursuivis. Les méthodes photographiques sont devenues de plus en plus précises, grâce notamment à l’emprunt de techniques de photolithographie conçues pour l’imprimerie.

Les premiers circuits intégrés étaient des mémoires. Le microprocesseur, qui est avec l’ampoule électrique et le téléphone l’une des plus grandes inventions de la technique américaine, est créé en 1971 par Intel.

Origines et évolution du microprocesseur

Intel a été créée en 1968 à Santa Clara, dans la Silicon Valley, par Robert Noyce, Gordon Moore et Andy Grove. Ces trois ingénieurs de Fairchild Semiconductor venaient de quitter cette entreprise en raison d’un désaccord avec sa stratégie. Sur la base d’un business plan d’une page tapé à la machine par Robert Noyce, (ci-dessous), Art Rock, le « venture capitalist » de San Francisco qui avait financé le démarrage de Fairchild et qui connaissait les qualités professionnelles de ces trois ingénieurs, avança les 2,5 millions de dollars nécessaires[5].

Business Plan d’Intel en 1968[6]

The company will engage in research, development, and manufacture and sales of integrated electronic structures in order to fulfill the needs of electronic systems manufacturers.  This will include thin films, thick
films, semiconductors devices, and other solid states components used in
hybrid and monolithic integrated structures.
       A variety of processes wil be established, both at a laboratory
and production level.  These include crystal growth, slicing, lapping,
polishing, solid state diffusion, photolithographic masking and etching,
vacuum evaporation, film deposition, assembly, packaging, and testing,
as well as the development and manufacture of special processing and
testing equipment required to carry out these processes.
       Products may include diodes, transistors, field effect devices,
photo sensitive devices,  photo emitting devices, integrated circuits,
and subsystems commonly referred to by the phrase large scale integration.
Principle customers for these products are expected to be the manufac-
turers of advanced electronic systems for communications, radar, control
and data processing.  It is anticipated that many of these customers
will be located outside California.

Intel a d'abord produit des mémoires. Busicom, fabricant japonais de machines à calculer, lui demande en 1969 de mettre au point douze circuits intégrés pour ses machines. Un ingénieur d’Intel, Ted Hoff, propose de concevoir un circuit intégré programmable unique. Noyce et Grove approuvent cette solution, ainsi que Busicom. Le travail est réalisé en neuf mois sous la direction de Federico Faggin. Le 4004 est annoncé en novembre 1971 : c’est le premier microprocesseur. Il comprend 2300 transistors, tourne à 108 kHz et a autant de puissance de calcul que l’ENIAC. Il utilise un « chemin de données à 4 bits » (4 chiffres binaires sont traités en parallèle), ce qui le rend utilisable pour des automatismes ou des calculettes mais non pour construire un ordinateur.

Intel rachète pour 60 000 $ les droits de Busicom sur le 4004 (peu après, Busicom fit faillite). Il faut trouver d’autres clients. Intel lance une communication active pour convaincre la profession d’écrire des logiciels pour le 4004 et de l’utiliser pour des automatismes comme le contrôle des feux de circulation.

En avril 1972 Intel produit le 8008. C’est un processeur à 8 bits, ce qui permettra à quelques pionniers de construire un ordinateur autour du microprocesseur. En 1973 sort le Micral de R2E ; Byte le baptise en juin 1973 du terme « microcomputer » : le micro-ordinateur est né, mais il ne rencontrera le succès commercial qu’avec l’Altair (1974) qui utilisera le 8080 d’Intel sorti en 1974 et surtout avec l’Apple II (1977) qui utilise le 6502 de MOS Technologies, sorti en 1976.

En 1974, Motorola, entreprise d’électronique créée en 1928 à Chicago et qui s’est spécialisée dans les circuits intégrés, produit son premier microprocesseur, le MC6800 à 8 bits. Il comporte 4 000 transistors. Apple adoptera le processeur 16 bits 68000 de Motorola, sorti en 1979, pour le Lisa (1983), puis pour le Macintosh (1984).

Intel et Motorola produisent des microprocesseurs, mais ils ne sont pas les seuls : on peut aussi citer AMD (Advanced Micro Devices, Sunnyvale, Californie) qui produit depuis 1991 des clones de microprocesseurs Intel, ainsi qu’IBM qui produit des PowerPC. Certaines entreprises dites « fabless » (sans fabrication) conçoivent des microprocesseurs qu'elles font ensuite fabriquer sur plan par un « fondeur » : c'est le cas de Sun qui fait fabriquer le SPARC par Texas Instruments, de Silicon Graphics avec le MIPS etc.

Le Pentium 4 de 2000 possède 42 millions de transistors et tourne à 1,5 GHz. Il permet à l’utilisateur de produire des films, diffuser de la télévision sur l’Internet, communiquer par la voix et l’image, afficher des graphiques 3D en temps réel, coder de la musique au format MP3, et faire tourner simultanément plusieurs applications multimédia tout en restant connecté à l’Internet[7]. 

La loi de Moore

En 1965, Gordon E. Moore était directeur de la R&D à Fairchild Semiconductor. Préparant un exposé sur l’évolution des performances des mémoires, il constata que la capacité des « puces » avait doublé à peu près chaque année de 1959 à 1965. Il fit l'hypothèse que cette tendance allait se poursuivre : c’est cette hypothèse que l’on appelle « loi de Moore ». Elle était hardie puisque Moore ne disposait que de cinq observations pour l’étayer.

Moore publia sa découverte dans son article « Cramming more components into integrated circuits », Electronics, 19 avril 1965. Cet article devenu célèbre  a encouragé les chercheurs à anticiper la croissance des performances, et donc à concevoir des systèmes utilisant une puissance très supérieure à celle disponible lors de leurs recherches[8]. Il a ainsi suscité une forte accélération de l’innovation.

Voici la phrase essentielle de cet article : « The complexity for minimum components costs has increased at a rate of roughly a factor of two per year. Certainly over the short term this rate can be expected to continue, if not to increase. Over the long term, the rate of increase is a bit more uncertain, although there is no reason to believe it will not remain nearly constant for at least 10 years. That means by 1975, the number of components per integrated circuit for minimal cost will be 65,000. » : « La complexité (des circuits intégrés) qui correspond au coût moyen minimal d'un composant a été approximativement multipliée par deux chaque année. On peut avec certitude prévoir que cette croissance se poursuivrz à court terme. A long terme, le taux de croissance est un peu plus incertain mais il n'y a aucune raison de penser qu'il ne restera pas à peu près constant pendant les dix prochaines années. Cela signifie que vers 1975 le nombre de composants qui minimise le coût moyen (par composant) sera de 65 000 par circuit intégré. »

Le raisonnement de Moore comporte deux étapes. Il examine d’abord l'évolution de la fonction de coût des circuits intégrés, plus précisément la relation entre le coût moyen de production par composant et la complexité du circuit. Cette fonction est d'abord décroissante, puis croissante : il existe donc un niveau de complexité pour lequel le coût moyen d'un composant intégré sur le circuit est minimal. C'est ce niveau que des producteurs rationnels choisiront car il procure le meilleur rapport efficacité/coût. Ensuite, Moore constate que ce niveau optimal de complexité est multiplié chaque année par deux. 

Moore ne dit pas que le coût de production des circuits intégrés restera stable dans le temps malgré l’augmentation de sa complexité. Rien, dans la loi de Moore, ne le garantit. Mais le coût de production des circuits intégrés dépend peu de la quantité produite : c’est une production à coût fixe[9]. Le coût de mise en production croît avec le niveau de complexité (la conception de l’Itanium a coûté à Intel 2 milliards de dollars[10], et pour le mettre en production il faut encore construire une usine coûteuse). Le coût moyen de production résulte de la division de ce coût fixe par le nombre d’unités vendues ; le prix est égal au coût moyen augmenté d’une marge que le fournisseur peut s’attribuer puisqu’il est en situation de monopole (ou de duopole si l’on suppose que le consommateur peut choisir entre Intel et Motorola).

La stratégie des fabricants de microprocesseurs sera alors subtile : ils doivent dégager assez de profit pour financer la recherche et la croissance, mais aussi pratiquer des prix assez bas pour que le débouché de leurs produits puisse croître. Or le marché des ordinateurs est capricieux : formé de l’addition d’un marché de premier équipement et d’un marché de renouvellement, il est sensible à la mode dans sa première composante et à la conjoncture dans la deuxième[11]. Il faut donc cadencer l’innovation pour le relancer périodiquement. On pourra vendre cher les premiers microprocesseurs d’une nouvelle série, puisqu’ils procurent un gain de compétitivité (physique ou symbolique, peu importe ici) aux ordinateurs qui les utilisent ; puis il faut baisser leur prix pour élargir leur pénétration. L’évolution du prix des microprocesseurs résulte de l’ensemble de ces phénomènes ; si sa modélisation comporte la loi de Moore, elle ne s’y résume pas. 

  Étapes de la production d’un microprocesseur[12]

La production des cristaux de silicium, matière première de base, suit un processus chimique dont le coût de revient est minime.

A partir d'un germe de cristal, la silice hautement purifiée croît en un long cylindre à l'intérieur d'un creuset à haute température. Puis ce cylindre est découpé en tranches fines par une scie au diamant.

Les tranches de silicium sont ensuite soumises à des manipulations de type photographique qui gravent les couches incorporant la logique et la physique du circuit intégré. Le coût de production des circuits intégré est donc essentiellement composé (a) du coût de conception des « masques » qui permettent le dessin des circuits, (b) du coût des équipements automatiques et hautement protégés (notamment contre les poussières) qui assurent la production. Il ne dépend pratiquement pas du nombre de circuits intégrés produits (production « à coût fixe »).

1) Chaque tranche est nettoyée à l'acide, puis placée dans un four à haute température où sa surface est oxydée.

2) La tranche est recouverte d'un produit photosensible, et le dessin du premier niveau du circuit est projeté à travers un masque par un faisceau de rayons ultraviolets. Puis les surfaces impressionnées par ce faisceau sont enlevées par de l'acide. Le processus est répété pour chaque niveau du circuit. La tranche est traitée avec des impuretés chimiques positives ou négatives qui créent les zones conductrices. Finalement, elle est revêtue d'un enduit qui protège sa surface et empêche les fuites de charges électriques.

3) Les puces comportant des fautes sont repérées sur la tranche par inspection visuelle et test informatique. Puis les puces sont découpées, collées sur un support, de minuscules fils sont soudés pour connecter le support aux points de contact de la puce, un couvercle est placé sur la puce et scellé pour la protéger.

4) Le microprocesseur est mis pendant plusieurs jours dans un four à basse température pour simuler son utilisation à long terme. Il est ensuite testé et les microprocesseurs à basse performance sont éliminés.

En 1975, Moore réévalua le rythme de croissance : désormais elle procédait par doublement tous les 18 mois et non tous les ans. Néanmoins elle restait exponentielle. Elle s’écrit donc, en notant ct le nombre de composants sur une puce l’année t :

ct = c1975 2 ( t - 1975 ) / 1,5

L’accroissement de la densité des composants permet d’augmenter les performances : lorsque la distance entre transistors se réduit la vitesse de traitement s’accroît, et on peut introduire sur la puce des fonctions auparavant remplies par d’autres équipements comme la carte graphique, le modem ou le contrôle de la mémoire.

Moore's Law Graph

Illustration de la loi de Moore[13]

En 1995, Moore vérifia que la progression prévue avait bien été respectée. Cependant lors du forum des développeurs d’Intel de septembre 1997 il a déclaré que l’accroissement de la densité des microprocesseurs pourrait atteindre en 2017 une limite physique : celle de la taille des atomes.

L’évolution des performances que décrit la loi de Moore résulte de la mise en exploitation progressive d’un phénomène naturel : il s'agit d’utiliser les possibilités que recèle le silicium. Lorsque la croissance s'arrêtera vers 2017 nous disposerons de processeurs et de mémoires 215/1,5 = 1024 fois plus puissants qu’en 2002. L'informatique sera qualitativement différente de celle que nous connaissons aujourd’hui. Aurons-nous alors répondu à toutes les questions que pose l’utilisation de cette ressource ? C’est peu probable. Ces questions relevant de l’organisation des entreprises et de la vie en société, elles concernent tout le monde et ne pourront donc pas se régler aussi vite que ne le font les questions techniques qui sont traitées par des ingénieurs « pointus ». 

L'utilisation de la « ressource naturelle» que constitue le silicium, matière peu coûteuse et riche en potentialités, nous occupera pendant tout le XXIe siècle et sans doute encore par la suite.
 


[1] Bertrand Gille, Histoire des techniques, Gallimard, collection La Pléiade 1978.

[2] Chargement dans un registre d’une valeur contenue dans une mémoire, stockage en mémoire de la valeur contenue dans un registre, opérations arithmétiques sur les registres, calculs sur les adresses, comparaison entre une valeur en mémoire et une valeur dans un registre, sauts d’instructions etc.

[3] Jean-Pierre Brulé, L’informatique malade de l’Etat, Les Belles Lettres 1993, p. 282.

[4] Le premier circuit intégré, présenté le 12 septembre 1958, comportait deux transistors montés sur une même barre de germanium.

[5] Cet épisode est caractéristique des relations entre capital risque et ingénieurs dans la Silicon Valley. L’investisseur n’est pas seulement un financier : c’est un entrepreneur, un expert qui connaît les personnes et les techniques, raisonne sur le marché des produits et anticipe leur évolution (voir Masahiko Aoki, « Information and Governance in the Silicon Valley Model », Stanford University 1999). Pour un contraste avec le cas de la France, on peut lire les aventures de Guillaume Portes (un « Bill Gates français ») qu’a imaginées Jean-Pierre Brulé dans L’informatique malade de l’Etat, Les Belles Lettres 1993, p. 307.

[6] Source : www.intel.com ; les fautes d’orthographe figurent dans l’original.

[8] Alan C. Kay, « The Early History of Smalltalk », History of Programming Languages II, Addison-Wesley 1996, p. 515.

[9] Michel Volle, e-conomie, Economica 2000.

[11] Tout marché de renouvellement (automobiles, équipement ménagers etc.) est le théâtre d’une amplification du mouvement conjoncturel, le consommateur retardant l’achat de quelques mois ou années en basse conjoncture, et achetant en masse en haute conjoncture.

[12] Michael S. Malone, The Microprocessor, a Biography, Springer-Verlag 1995.