RECHERCHE :
Bienvenue sur le site de Michel VOLLE
Powered by picosearch  


Vous êtes libre de copier, distribuer et/ou modifier les documents de ce site, à la seule condition de citer la source.
 GNU Free Documentation License.

Éclairage historique

19 décembre 2003

Introduction

« Do not be encumbered by history. Go off and do something wonderful »
(Robert Noyce, co-fondateur d’Intel, source : http://www.intel.com/intel/)
 
« Une « révolution technologique » offre-t-elle l’occasion de remettre en cause les situations établies (…) ? Certains dirigeants français l’espéraient dès 1950, lorsque les premiers ordinateurs apparurent en Angleterre et aux Etats-Unis. Pourtant, les efforts accomplis (…) n’ont abouti qu’à faire de Bull, jadis quatrième constructeur mondial, une firme reléguée au treizième rang et dépendant des technologies américaines et japonaises [alors même que] la France réussissait à s’imposer dans (…) les télécommunications et le logiciel.
Expliquer ce paradoxe conduit à analyser à la fois :
- des caractères de longue durée : le purisme de l’école mathématique française, la rareté des compétences, la faiblesse de la recherche industrielle, la priorité des projets militaires sur les logiques de marché limitaient l’aptitude de la France à profiter de la « révolution informatique » (…) ;
- et les aspects contingents de cette histoire : échecs locaux et fautes stratégiques ont dépassé les étroites marges d’erreur permises (…) »
(Pierre Mounier-Kuhn, L'Informatique en France de la Deuxième Guerre mondiale au Plan Calcul : science, industrie, politiques publiques, thèse de doctorat, CNAM 1999).

L’histoire de l’informatique intéresse un nombre croissant de chercheurs. Le champ ainsi ouvert à la réflexion est immense. L’histoire de l’informatique ne peut en effet se comprendre que si l’on étudie et relie entre eux ses aspects logique, technique, philosophique, économique, sémantique, sociologique, industriel etc. ; il faut décrire à la fois ce qu’elle est, ce que ses promoteurs auraient voulu qu’elle fût, ce que ses utilisateurs en ont fait. Il faudra, pour venir à bout de ce programme, lui appliquer la même attention minutieuse que celle que Donald Knuth a consacrée aux algorithmes.

Parmi les chercheurs, on doit citer en France Pierre Mounier-Kuhn. Après avoir soutenu une thèse intitulée L’informatique en France de la Deuxième guerre mondiale au Plan Calcul, il anime un séminaire sur l’histoire de l’informatique à l’École pratique des hautes études. Un colloque international sur l’informatique et les réseaux s'est tenu à Grenoble en novembre 2002 [1]. En utilisant un moteur de recherche, on trouvera par ailleurs sur la Toile de nombreux sites dédiés à l’histoire de l’informatique.


Commentaire de Paul E. Ceruzzi, A History of Modern Computing, MIT 1998

Il est devenu nécessaire de voir l'informatique avec le recul que permet l'approche historique. Cependant les historiens ne se sont pas encore attelés à la tâche : sans doute parce qu'il faut, pour l'aborder, maîtriser à la fois les méthodes de l'histoire et celles de l'informatique, double compétence peu répandue ; aussi parce que le domaine effraie par sa complexité.

Il existe des ouvrages partiels comme celui de Paul Carroll sur IBM, mais aucun ne donne une vue d'ensemble. C'est cette vue d'ensemble que Paul Ceruzzi a tenté de construire.

Il n'y arrive qu'en partie. D'une part, comme souvent en histoire, il s'arrête au seuil de l'époque actuelle : s'il décrit l'histoire de l'Internet, il ne décrit pas celle des langages orientés objet, ni des langages de modélisation, ni les « brokers » comme Corba, ni les changements apportés par l'Intranet dans les entreprises, ni même l'intelligence artificielle qui est pourtant une aventure déjà ancienne.

On souhaiterait par ailleurs qu'il abordât son sujet non seulement sur les plans technique et historique, mais aussi sur le plan philosophique. Comment exprimer autrement que dans le langage de la philosophie des projets visant à construire, relier et utiliser des concepts ? ce qui distingue tel langage de tel autre, ce qui fait la force ou la faiblesse d'outils bureautiques comme le tableur, la messagerie, la documentation électronique etc. ?

La lecture de ce livre est cependant utile.  Il apporte des informations jusqu'ici inédites ou difficiles à trouver sur les origines des choix techniques, du vocabulaire, ainsi que sur les mécanismes de la réussite sur ce marché très concurrentiel.

Il nous faudrait aussi un livre sur l'histoire du logiciel ; il devrait certes faire référence au matériel, puisque les progrès du matériel sont indispensables à l'éclosion des langages, mais aussi montrer ce que chaque langage a de spécifique, ses apports et ses limites.
 

La plupart des travaux érudits sont consacrés aux origines de l’informatique : certains partent des calculs gravés sur les tablettes mésopotamiennes, puis décrivent l’histoire des systèmes de numération[2], les abaques des calculateurs de l’antiquité, la machine à calculer de Pascal (1623-1662), la machine programmable de Charles Babbage (1791-1871), enfin la machine mécanographique de Herman Hollerith[3] (1860-1929).

Nous n’avons pas la prétention de rivaliser avec ces travaux spécialisés mais nous nous efforcerons de situer dans l’histoire les questions techniques, sociologiques ou économiques que pose l’informatique. Cette démarche aide à délimiter ses concepts essentiels et à identifier les ressorts de sa dynamique. Il ne s’agit pas de collectionner des faits dont le souvenir inspirerait la nostalgie, ni de se repaître de l’image de machines désuètes, mais de prendre un peu de hauteur pour s’affranchir du poids du présent[4]. L’analyse historique, prolongée jusqu’au passé récent, permet d’élucider le présent et d’éclairer le futur tout en laissant sa part à l’incertitude.

Le présent cours rassemble l’information sur trois thèmes historiques cruciaux : le micro-ordinateur ; les logiciels ; l’économie de l’informatique. Nous daterons les événements : la chronologie donne un point d’appui au raisonnement en situant les événements dans leur contexte ; elle aide aussi à identifier les innovations essentielles, celles qui en élargissant le domaine du possible ont suscité d’autres innovations. Certaines dates servent ainsi de pivot à l’intelligence des faits.


[1] Entre autres ouvrages, nous devons beaucoup aux suivants : Philippe Breton, Une histoire de l’informatique, La Découverte 1987 ; Robert Ligonnière, Préhistoire et histoire des ordinateurs, Robert Laffont 1987 ; Paul E. Ceruzzi, A History of Modern Computing, MIT 1998 ; D. Sjobbema, Ils ont inventé l’électronique, Publitronic/Elektor 1999.

[2] Georges Ifrah, Histoire universelle des chiffres, Robert Laffont 1994.

[4] Les travaux érudits, même quand ils se limitent à un empilage minutieux de documents, témoignages et références, ont pour but d’ouvrir la voie à la réflexion : l’érudition, tout aussi nécessaire que l’expérimentation, prépare comme elle son propre dépassement.