RECHERCHE :
Bienvenue sur le site de Michel VOLLE
Powered by picosearch  


Vous êtes libre de copier, distribuer et/ou modifier les documents de ce site, à la seule condition de citer la source.
 GNU Free Documentation License.

La loi de Moore

26 mars 2001

La "loi de Moore" a joué un rôle important dans l'histoire de l'informatique. Formulée pour la première fois par Gordon E. Moore dans un article de 1965, elle postule le doublement annuel des performances des circuits intégrés (mémoires et processeurs). Cette annonce a incité les ingénieurs à concevoir des systèmes très en avance sur les possibilités du jour de leur conception. Elle a ainsi contribué à accélérer le rythme de l'innovation. 

Moore a revu son estimation en 1975 : le doublement aurait lieu tous les 18 mois et non tous les ans, ce qui correspond tout de même à une croissance très rapide. Cette "loi", fondée sur un constat empirique, a été vérifiée par la suite. Moore estime qu'elle se poursuivra jusqu'en 2017, date à laquelle elle devrait rencontrer des contraintes physiques. 

__________

En 1947, trois chercheurs des Bell Labs d’AT&T (John Bardeen, Walter Brattain et Robert Shockley) découvrent le " transistor " (" transfer resistor "). Leur invention s’appuie sur le fait qu’il est possible de contrôler sélectivement le flux d’électricité dans le silicium en faisant en sorte que certaines zones soient conductrices et d’autres isolantes (d’où le terme " semi-conducteur "). Comparé au tube à vide, technologie auparavant dominante, le transistor se révéla plus fiable, moins consommateur d’énergie et susceptible de miniaturisation. C’est ce dernier point qui fonde la " loi de Moore ".

Les premiers transistors étaient faits à la main dans des conditions rustiques si on les compare aux " salles blanches " actuelles. Les rendements étaient bas (de 20 à 30 %) et les performances étaient très variables. Les progrès techniques ont donc concerné surtout la maîtrise du processus de production. Pendant les années 50, la technologie des semi-conducteurs fait d’importants progrès, et une nouvelle industrie se crée :

  • Le processus de diffusion consiste à diffuser des impuretés (" dopants ") directement sur la surface du semi-conducteur, ce qui a permis d’éliminer le processus fastidieux d'ajout de diverses couches de matériaux isolants et conducteurs sur le substrat.

  • Des techniques photographiques ont permis de projeter le dessin de masques compliqués sur le semi-conducteur de sorte que la diffusion ne se produise que sur les surfaces souhaitées.

Ces deux techniques permirent de passer de la production manuelle à la production industrielle de série avec une bien meilleure qualité. Elle permirent également l’invention du circuit intégré en 1958 par Jack Kilby.

Jean Hoerni leur ajouta en 1959 une troisième innovation essentielle : il observa que les techniques de diffusion et de photographie permettaient de se libérer des complications du transistor conventionnel à trois dimensions en dessinant des transistors plans (" planars "). Il devenait possible de faire les connections électriques non plus à la main, mais en déposant un film par condensation de vapeur métallique sur les parties appropriées du semi-conducteur.

Fairchild produisit le premier transistor plan en 1959, et le premier circuit intégré utilisant cette technique en 1961. Moore a fait de l’invention du transistor plan en 1959 le point de départ de sa " loi de Moore ".

Les progrès des processus de production et des techniques se sont ensuite poursuivis. Les méthodes photographiques sont devenues de plus en plus précises, notamment par l’emprunt de techniques de photolithographie initialement conçues pour l’imprimerie.

L’article de Moore en 1965

En 1965, Gordon E. Moore était directeur de la recherche et du développement à Fairchild Semiconductor (il est maintenant président d’Intel).

Préparant un graphique pour un exposé sur l’évolution des performances des mémoires, il constata une tendance frappante : la capacité des " puces " avait doublé à peu près chaque année de 1959 à 1965. Il en déduisit une hypothèse : la puissance des ordinateurs croîtrait de façon exponentielle (et très rapide). Elle était hardie, puisqu'il ne disposait pour l’étayer que de cinq observations.

Moore publia cette découverte dans un article devenu célèbre de la revue " Electronics " : Gordon E. Moore, " Cramming more components into integrated circuits ", Electronics, 19 avril 1965. Cet article a encouragé les chercheurs à anticiper sur la croissance des performances et à concevoir des systèmes utilisant une puissance très supérieure à celle disponible lors de leurs recherches. Il a ainsi suscité une forte accélération de l’innovation.

Voici la phrase essentielle de cet article : " La complexité permettant de minimiser le coût des composants a été multipliée chaque année à peu près par un facteur deux. On peut prévoir qu’à court terme ce taux de croissance se maintiendra, ou même que la croissance sera plus rapide encore. A long terme, le taux de croissance est un peu plus incertain, mais il n’y a aucune raison de croire qu’il ne se maintiendra pas pendant au moins dix ans. Cela signifie qu’en 1975 le nombre de composants par circuit intégré permettant de minimiser le coût sera de 65 000. " (" The complexity for minimum components costs has increased at a rate of roughly a factor of two per year. Certainly over the short term this rate can be expected to continue, if not to increase. Over the long term, the rate of increase is a bit more uncertain, although there is no reason to believe it will not remain nearly constant for at least 10 years. That means by 1975, the number of components per integrated circuit for minimal cost will be 65,000. ") 

Le raisonnement de Moore est subtil. Il examine l'évolution de la fonction de coût des circuits intégrés, et considère la relation entre coût moyen de production par composant et complexité du circuit. Cette fonction est d'abord décroissante, puis croissante : il existe donc un niveau de complexité pour lequel le coût moyen d'un composant intégré sur le circuit est minimal. C'est ce niveau que des producteurs rationnels choisiront, car c'est celui qui permet le meilleur rapport efficacité/coût. Ensuite, Moore constate que ce niveau optimal de complexité est multiplié chaque année par deux. 

Moore ne dit pas que le prix de vente des circuits intégrés restera stable dans le temps. Il ne traite pas ce problème, qui est différent, puisque s'agissant d'une production à coût fixe le prix auquel on peut vendre un composant résulte de la division du coût fixe par le nombre de composants vendus, qui n'est pas un argument de la fonction de coût. 

En 1975, Moore réévalua le rythme de croissance : désormais, disait-il, elle procèderait par doublement tous les 18 mois et non tous les ans ; néanmoins elle restait exponentielle. Elle se transcrit, en notant ct le nombre de composants sur une puce l’année t :

ct = c1975 2 ( t - 1975 ) / 1,5

L’accroissement de la densité des composants permet d’augmenter les performances parce que la vitesse de traitement s’accroît lorsque la distance entre transistors se réduit, et aussi parce que cela permet d’introduire davantage de fonctionnalités sur la puce : on peut y introduire des fonctions auparavant remplies par d’autres équipements comme la carte graphique, le modem ou le contrôle de la mémoire.

Illustration de la loi de Moore (source : http://www.intel.com/research/silicon/mooreslaw.htm )

En 1995, Moore vérifia que la progression prévue avait bien été respectée. Cependant, lors du forum des développeurs d’Intel en septembre 1997, il a déclaré que l’accroissement de la densité des microprocesseur pourrait atteindre en 2017 une limite physique : celle de la taille des atomes. On pourra trouver sa déclaration à l'URL suivant : http://news.cnet.com/news/0-1003-200-322592.html?tag= .

On peut assimiler cette croissance des performances à un phénomène naturel : il s'agit de mettre en exploitation, de façon progressive, les possibilités que recèle le silicium. Lorsqu'elle s'arrêtera en 2017, nous devrions disposer de processeurs et de mémoires 216/1,5 ~ 1500 fois plus puissants qu'aujourd'hui. L'informatique et les systèmes d'information seront donc qualitativement différents. Aurons-nous répondu aux questions que pose la bonne utilisation de ces ressources ? Sans doute que non car comme elles relèvent de l'organisation elles concernent tout le monde et ne peuvent se régler aussi vite que les questions techniques que traitent des ingénieurs "pointus". 

L'utilisation de la "ressource naturelle" apportée par le silicium, matière peu coûteuse, nous occupera pendant le XXIème siècle et sans doute encore après. Observons que les pierres taillées de nos lointains ancêtres étaient, elles aussi, en silicium (le "silex" ; cf. Bertrand Gille). Les propriétés électroniques exceptionnelles du silicium permettaient de tailler des pierres aux arêtes fines et précises ; elles permettent aujourd'hui de produire les circuits intégrés. 

Dans la diversité des minéraux, végétaux et espèces animales, d'autres ressources attendent notre attention. Elles révèleront leurs potentialités à ceux qui ont l'esprit assez disponible pour regarder la nature avec curiosité et respect. Lisez le "Zhong Yong" !