RECHERCHE :
Bienvenue sur le site de Michel VOLLE
Powered by picosearch  


Vous êtes libre de copier, distribuer et/ou modifier les documents de ce site, à la seule condition de citer la source.
 GNU Free Documentation License.

Histoire du micro-ordinateur

19 décembre 2003

Nous avons décrit les circonstances de l’invention du microprocesseur chez Intel en 1971[1]. Un micro-ordinateur, c’est un ordinateur équipé d’un microprocesseur. Le micro-ordinateur ne pouvait donc pas naître avant le microprocesseur. Mais il ne suffisait pas que le micro-ordinateur naquît : il fallait aussi qu’il rencontrât un terrain favorable au succès commercial. Ce terrain a été préparé par les « hackers », ces pionniers qui ont rêvé le micro-ordinateur et la dissémination de l’informatique longtemps avant qu’ils ne fussent possibles, et qui étaient ainsi prêts à tirer parti de l’innovation technique dès que celle-ci se produirait.

I - Les origines

Les « hackers » des années 60 et 70

L'informatique était dans les années 60 l'affaire de professionnels stylés par IBM. Ostensiblement « sérieux », ils portaient costume, cravate noire et chemise blanche. Les utilisateurs n'étaient pas autorisés à approcher la machine.

Mais les « hackers [2] » (que l’on a appelé aussi « hobbyists ») revendiquaient le droit de comprendre comment la machine fonctionne, d'y accéder, de travailler en temps réel et donc de modifier la façon dont on utilisait l'ordinateur. Avant eux, l’ordinateur était une grosse machine sans écran, sans carte sonore, sans traitement de texte, sans tableur, sans réseau etc. Ils ont inventé les procédés qui ont permis d'introduire ces perfectionnements. 

Un « good hack », c’est une astuce qui marche, un procédé qui permet de faire faire quelque chose de nouveau par l’automate – peu importe d’ailleurs si l’on ne sait pas exactement pourquoi ni comment cela fonctionne. La passion des hackers, c'était de créer de « good hacks », non de les vendre ni de « faire du business ». Ils copiaient sans vergogne les programmes, les modifiaient, les communiquaient. L'« open source » (ou « logiciel ouvert »), dont le programme source est fourni et modifiable à volonté, allait alors de soi.

La première équipe de hackers, la plus flamboyante, fut celle du MIT ; puis d'autres équipes de passionnés se sont créées ailleurs : aux Bell Labs d’AT&T, à l'université de Berkeley et, dans les années 70, au Palo Alto Research Centre (PARC) de Xerox. Les hackers du MIT estimaient avoir le droit et même le devoir d’accéder à la machine quelles que soient les interdictions et réglementations, même s’il fallait pour cela fabriquer de fausses clés pour pouvoir se faufiler de nuit dans un centre informatique. Mais ils n’étaient pas des pirates, des briseurs de sécurité, des fabricants de virus : le mot « hacker » n’a pris ce sens péjoratif que récemment. Les hackers des années 60 et 70 étaient des pionniers [3].

Ils ont mis au point des langages et des méthodes, inventé l'intelligence artificielle etc. Le système d’exploitation Unix (1969), le langage C (1972) mis au point aux Bell Labs ont été d’abord distribués gratuitement ou pour un paiement symbolique, ce qui a permis de les perfectionner rapidement. La souris a été inventée par Douglas Engelbart en 1968, les fenêtres et menus déroulants par Dan Ingals au PARC de Xerox en 1974[4]. Enfin les hackers ont cherché à mettre l'ordinateur à la disposition de tout le monde, d'abord en disséminant des terminaux, puis en mettant au point le micro-ordinateur.

Steven Levy a décrit les rêves et les ambitions de ces passionnés qui travaillaient parfois trente heures d'affilée et sacrifiaient leur santé et leur vie affective à l'exploration des possibilités de l'ordinateur, au développement d’outils qui permettraient de les concrétiser. Leur imprégnation par le langage informatique les coupait des modes de communications naturels et les isolait des autres êtres humains. Ils avaient une morale, « l'éthique des hackers ».

L'émergence du commerce des logiciels au milieu des années 70 a mis un terme à cette époque qui se prolonge cependant dans l’école du logiciel ouvert. La créativité des hackers a ouvert la voie d’une nouvelle informatique.

« The Hackers Ethic » [5]

1) L’accès aux ordinateurs – et à tout ce qui peut vous apprendre quelque chose sur la façon dont le monde fonctionne –doit être illimité et total. Respectez toujours le « Hands-On Imperative » !

« Hands-On Imperative », cela veut dire que quand on rencontre un obstacle, il faut « y mettre les mains » et résoudre le problème sans attendre que l'on vous y invite ou que l’on vous y autorise [6].

2) L’information doit être gratuite.

La gratuité de l'information et des logiciels est supposée plus efficace, par les synergies qu'elle permet, qu'une économie où les logiciels seraient vendus sur le marché et protégés par des copyrights. La transition entre la gratuité et le marché sera le « software flap » provoqué par Bill Gates lorsqu'il publia en février 1976 sa « Open Letter to Hobbyists » dans Computer Notes, « newsletter » des utilisateurs de l’Altair (voir ci-dessous).

3) Ne pas faire confiance à la hiérarchie, promouvoir la décentralisation.

Les hackers étaient, bien avant d’autres, partisans de l'organisation transverse qu'ils jugeaient seule efficace. Ils étaient par ailleurs insensibles aux prestiges de la hiérarchie, comme le montre la règle suivante :

4) Juger les Hackers selon la qualité de leurs hacks et non selon des critères farfelus comme le diplôme, l’âge, la race ou le grade.

Seule compte la compétence, le niveau atteint dans la maîtrise de la machine : il s'agit de contourner les obstacles que celle-ci oppose à ceux qui veulent la plier à leurs besoins.

5) Vous pouvez créer de l’art et de la beauté avec un ordinateur.

L'ordinateur n'est pas seulement fait pour calculer, comme le suggère le mot « computer », ni pour mettre de l'ordre, comme suggère le mot « ordinateur » : on doit pouvoir l'utiliser pour faire de la musique, dessiner, créer des mondes imaginaires qui donneront aux rêves un prolongement (presque) aussi vrai que le monde réel. C'est l'origine des mondes virtuels qui ont eu tant d'importance lors de l'explosion du marché des jeux. Il est significatif qu'une bonne part du progrès des ordinateurs en performance, convivialité et ergonomie provienne de leur utilisation ludique. Il est intéressant de noter que les « hackers de la troisième génération », qui ont grandi dans les années 70, sont venus à l'informatique par la pratique des jeux [7].

6) Les ordinateurs peuvent améliorer votre vie.

Les hackers n'ignorent pas les risques que comportent certains usages de l'ordinateur (en particulier ses utilisations militaires les effraient), mais ils affirment que des utilisations utiles, progressistes, constructives sont possibles.

Les hackers ont travaillé sur ce qui était à leur époque la « couche critique » de l’informatique, cette expression désignant l’ensemble des questions qui se trouvent sur le front de taille de la discipline.

Il s'agissait dans les années 60 de mettre au point les langages qui permettraient de diversifier les utilisations de l'ordinateur : la couche critique était alors celle du logiciel. Dans les années 70 il s'est agi de mettre l'ordinateur dans les mains de chacun en s'appuyant sur les nouveaux micro-processeurs : la couche critique fut alors celle du matériel ; une fois traitée, il a été possible de réaliser les développements qui ont conduit au micro-ordinateur en réseau d'aujourd'hui, avec ses interfaces graphiques, son équipement multimédia et l'Internet.

La couche critique est aujourd’hui celle de l'utilisation collective, organisée, du micro-ordinateur en réseau par les entreprises, la société et les individus. L'utilisation individuelle pose des questions qui relèvent de la psychologie ; l'utilisation collective pose des questions qui relèvent de la sociologie et de l'organisation. Sociologie et psychologie constituent deux couches, différentes mais solidaires, du même empilement. Les héritiers des « hackers », des pionniers des années 60 et 70, sont ainsi aujourd'hui les personnes qui travaillent sur le langage de l'entreprise, l'organisation transverse, l'articulation du système d'information avec la stratégie, la modélisation des processus, l’urbanisation des systèmes d’information etc.

Reprenons le chemin qui a conduit du premier micro-ordinateur aux réseaux de machines d’aujourd’hui.

Un précurseur : le Kenbak-1 (1971)

John V. Blankenbaker présente le Kenbak-1 au printemps de 1971 ; cette machine, dotée d’une RAM de 256 octets, était vendue en kit au prix de 750 $. Comme le 4004 d’Intel n’était pas encore commercialisé – il ne sera mis sur le marché qu’en novembre 1971 – l’unité centrale du Kenbak-1 comporte plusieurs composants MSI et LSI : il ne s’agit donc pas d’un micro-ordinateur au sens exact du terme, mais d’un ordinateur à circuits intégrés. Le Kenbak-1 avait pour but d’aider l’apprentissage de la programmation. Après en avoir vendu 40 exemplaires, la Kenbak Corporation a été supprimée en 1973.

Le premier micro-ordinateur : le Micral (1973)

En 1971 André Thi Truong, ingénieur français d’origine vietnamienne, fonde la société R2E (Réalisations Études Électroniques). En 1972 l’INRA (Institut national de la recherche agronomique) commande à R2E un système informatique transportable. R2E conçoit alors un ordinateur fondé sur le processeur 8 bits Intel 8008 [8]. Le Micral est créé en six mois. La machine a été conçue par André Thi Truong, le logiciel par Philippe Kahn.

Gros comme l’unité centrale d’un PC actuel, le Micral ne dispose ni d’écran ni de clavier. La saisie se fait en binaire, en manipulant des interrupteurs. On peut lui connecter un lecteur de bandes perforées. 500 Micrals sont produits la première année ; ils sont vendus 8 450 F pièce (1 750 $ de l’époque). En juin 1973 la revue américaine Byte invente le mot « microcomputer » pour baptiser le Micral : le micro-ordinateur est né.

Le Micral n’a pas connu le succès commercial ; il a été utilisé essentiellement pour automatiser des postes de péage des autoroutes [9].

Autres précurseurs

Le Scelbi (« Scientific, Electronic and Biological ») de la Scelbi Consulting Company (Milford, Connecticut) fut annoncé dans l’édition de mars 1974 de la revue QST. Construit autour du microprocesseur 8008 d’Intel, le Scelbi avait 1 Ko de mémoire programmable et il était vendu 565 $. 15 Ko de mémoire supplémentaire étaient fournis pour 2760 $.

Le Mark-8, conçu par Jonathan Titus, était lui aussi construit autour de l’Intel 8008. Il fut annoncé dans le numéro de juillet 1974 de Radio Electronics.

L’Altair 8800 (1974)

Intel sortit le microprocesseur 8080 en juillet 1974. Il était vingt fois plus rapide que le 4004 et son prix pouvait descendre jusqu’à 3 $ pour des commandes en quantité. Ce microprocesseur sera au cœur de la conception de l’Altair, la machine qui a enfin fait démarrer le marché du micro-ordinateur.

Popular Electronics

MITS (« Micro Instrumentation Telemetry System »), petite entreprise d’Albuquerque au Nouveau Mexique dirigée par Ed Roberts, a lancé l’Altair 8800 en décembre 1974. La photographie de ce micro-ordinateur paraît pour la première fois sur la couverture du numéro de janvier 1975 de la revue Popular Electronics. Dans les deux mois qui suivent des milliers de commandes arrivent à MITS.

L’Altair était commercialisé en kit et il fallait beaucoup d’habileté pour le monter. L’unité de base avait 256 octets de RAM et coûtait 395 $ : ainsi l’Altair était beaucoup moins cher que le Micral. Comme il n’existait pas de logiciel, les utilisateurs devaient écrire leurs propres programmes puis les saisir en binaire en appuyant sur des boutons. Le résultat était affiché en binaire sur des diodes.

On pouvait ajouter au système un bus et des cartes d’extension. En quelques mois les cartes qui permettaient d’accroître la mémoire ou de raccorder des terminaux furent disponibles. Le télétype ASR-33 fournit un clavier, une imprimante et un support de stockage sur bande de papier perforé. MITS commercialisa par la suite d’autres versions améliorées (8800a, 8800b).

L’Altair et la naissance de Microsoft

Les origines de Microsoft sont intimement liées à l’arrivée de l’Altair sur le marché. Suivons la chronologie telle qu’elle est décrite par Microsoft [10].

Paul Allen (né en 1953, alors employé par Honeywell) et Bill Gates (né le 28 octobre 1955, alors étudiant en deuxième année à Harvard) étaient des amis passionnés par l’informatique, des hackers. L’article de Popular Electronics les incita à programmer un interpréteur Basic pour l'Altair : ce sera le premier langage de programmation pour micro-ordinateur. Allen et Gates vendirent la licence de cet interpréteur à MITS  le 1er février 1975.

Le 1er mars 1975, Allen est embauché par MITS comme « Director of Software ». Le 7 avril 1975, Computer Notes, « newsletter » des utilisateurs de l’Altair, annonce que l’interpréteur Basic est opérationnel [11]. Le 1er juillet 1975, une version 2.0 est publiée. Le 22 juillet 1975, Allen et Gates signent avec MITS un accord de licence. Le 29 novembre 1975, Gates utilise dans une lettre à Allen le nom « Micro-Soft » : c’est la première mention écrite connue de ce nom.

Le 3 février 1976, Bill Gates publie dans Computer Notes sa « Open Letter to Hobbyists » (voir ci-dessous). Le 1er novembre 1976, Allen quitte MITS pour rejoindre Microsoft à plein temps.

Le 26 novembre 1976, la marque « Microsoft » est enregistrée auprès du bureau du secrétariat d’état du Nouveau Mexique pour « nommer des programmes informatiques, des systèmes d’exploitation et des services ». La déclaration mentionne que le nom de Microsoft a été utilisé depuis le 12 novembre 1975.

La lettre ouverte de Bill Gates aux « Hobbyistes »

Dans sa lettre ouverte, Bill Gates accuse de vol les « hobbyistes » qui ont piraté son interpréteur Basic. Il leur reproche d’empêcher la production de bon logiciels et termine par une phrase prophétique : « Rien ne me ferait plus plaisir que de pouvoir embaucher dix programmeurs pour inonder le marché avec de bons logiciels ».

Cette lettre est importante pour l’histoire de l’informatique : elle inaugure le modèle économique du « logiciel compilé marchand vendu en boîte » qui succédera au modèle du « programme source librement retouchable » des hackers. Bill Gates, né le 28 octobre 1955, avait vingt ans lors de sa publication.

Même si le modèle « open source », revitalisé par l'Internet, est revenu en force vingt ans après la publication de cet article, le modèle marchand a eu son utilité. Il était sans doute le seul dans les années 70 qui pût permettre la production rapide des logiciels nécessaires au succès du micro-ordinateur. Accessoirement, il fut aussi à l'origine de la croissance de Microsoft et de la fortune de Bill Gates (voir les statistiques sur l'évolution de Microsoft). 


February 3, 1976

An Open Letter to Hobbyists

To me, the most critical thing in the hobby market right now is the lack of good software courses, books and software itself. Without good software and an owner who understands programming, a hobby computer is wasted. Will quality software be written for the hobby market?

Almost a year ago, Paul Allen and myself, expecting the hobby market to expand, hired Monte Davidoff and developed Altair BASIC. Though the initial work took only two months, the three of us have spent most of the last year documenting, improving and adding features to BASIC. Now we have 4K, 8K, EXTENDED, ROM and DISK BASIC. The value of the computer time we have used exceeds $40,000.

The feedback we have gotten from the hundreds of people who say they are using BASIC has all been positive. Two surprising things are apparent, however. 1) Most of these "users" never bought BASIC (less than 10% of all Altair owners have bought BASIC), and 2) The amount of royalties we have received from sales to hobbyists makes the time spent of Altair BASIC worth less than $2 an hour.

Why is this? As the majority of hobbyists must be aware, most of you steal your software. Hardware must be paid for, but software is something to share. Who cares if the people who worked on it get paid?

Is this fair? One thing you don't do by steeling software is get back at MITS for some problem you may have had. MITS doesn't make money selling software. The royalty paid to us, the manual, the tape and the overhead make it a break-even operation. One thing you do is prevent good software from being written. Who can afford to do professional work for nothing? What hobbyist can put 3-man years into programming, finding all bugs, documenting his product and distribute for free? The fact is, no one besides us has invested a lot of money in hobby software. We have written 6800 BASIC, and are writing 8080 APL and 6800 APL, but there is very little incentive to make this software available to hobbyists. Most directly, the thing you do is theft.

What about the guy who re-sell Altair BASIC, aren't they making money on hobby software? Yes, but those who have been reported to us may lose in the end. They are the ones who give hobbyists a bad name, and should be kicked out of any club meeting they show up at.

I would appreciate letters from any one who wants to pay up, or has a suggestion or comment. Just write me at 1180 Alvarado SE, #114, Albuquerque, New Mexico, 87108. Nothing would please me more than being able to hire ten programmers and deluge the hobby market with good software.

Bill Gates

General Partner, Micro-Soft
 

L’apport du PARC de Xerox

Les dirigeants de Xerox, entreprise qui avait construit sa fortune sur le marché des photocopieurs avec la « xérographie », ont eu l’intuition du caractère porteur de la microélectronique et de l’informatique. Xerox avait acheté Scientific Data Systems en 1969 [12] ; elle décida alors de créer un centre de recherche.

Le  « Palo Alto Research Center » (PARC) de Xerox est créé en 1970. Il sera situé dans la Silicon Valley, tout près de l’Université de Stanford, afin de pouvoir bénéficier des apports de la recherche universitaire et de la force de travail des étudiants. Quelques-uns des hackers les plus créatifs se rassemblent au PARC. Ils vont apporter à l’informatique des innovations dont le micro-ordinateur tirera parti.

L’histoire du PARC comporte cependant un paradoxe : si Xerox a généreusement financé ce centre de recherche, elle n'a pratiquement pas tiré parti de ses découvertes qui toutes seront finalement commercialisées par d'autres entreprises [13]. Xerox a construit l'Alto, mais c'est IBM qui a lancé le PC en 1981. Xerox a inventé l'interface graphique avec fenêtres, souris et menus déroulants, mais c'est Apple qui a lancé le Macintosh et Microsoft qui a produit Windows. Xerox a conçu le traitement de texte Wysiwyg [14], mais c'est Microsoft qui a produit Word. Xerox a mis au point le protocole de réseau Ethernet, mais aujourd'hui le marché des réseaux locaux se partage entre Cisco et 3Com. Xerox a inventé l'imprimante à laser, mais il s'est fait précéder sur ce marché par IBM en 1975.

L’une des dates importantes de l’histoire de l’informatique est la visite de Steve Jobs et d’une équipe d’ingénieurs d’Apple [15] au PARC en décembre 1979. La démonstration à laquelle ils assisteront les incitera à introduire l'interface graphique dans le Lisa (1983) et dans le Macintosh (1984).

Les inventions du PARC dans les années 70

1971 : Alan Kay et son équipe mettent au point la première version de Smalltalk, langage de programmation orienté objet qui influencera C++ et Java ; Gary Starkweather met au point la première imprimante à laser. 

1973 : Chuck Thacker, Butler Lampson et Alan Kay mettent au point l'Alto, ordinateur qui ne sera jamais commercialisé. Bob Metcalfe crée le protocole de réseau local Ethernet

1974 : Dan Ingals invente un système qui offre l’interface avec fenêtres superposées et menus déroulants. Charles Simonyi, Tim Mott et Larry Tesler produisent le premier traitement de texte convivial. 

1979 : James Clark conçoit le microprocesseur graphique 3D qui fera par la suite la fortune de Silicon Graphics. 

30 septembre 1980 : les spécifications du réseau Ethernet sont publiées. C’est la première fois qu’une invention du PARC est commercialisée. 

27 avril 1981 : Xerox lance la station de travail Star (16 000 $), descendant commercial de l'Alto et des travaux du PARC. Mais le 24 août 1981 IBM lance le PC (2 000 $) qui rendra le Star obsolète. 

1983 : Après la démission forcée de Bob Taylor le 19 septembre 1983, plusieurs des ingénieurs du PARC démissionnent. Le style de travail du PARC ne sera plus le même. 

Janvier 1984 : Apple lance le Macintosh, incarnation réussie de l'ordinateur personnel conçu par le PARC. 

Pourquoi Xerox n'a-t-il pas utilisé les travaux du PARC ? Il est tentant mais trop facile d'expliquer cela par des comportements personnels, des conflits politiques dans l'entreprise ou la stupidité de bureaucrates incapables de percevoir le potentiel d'une innovation. Ces facteurs ont joué, mais ce ne sont pas les plus importants. En fait il n'était pas facile de réussir dans le domaine des ordinateurs personnels, comme l’ont bien montré les échecs rencontrés ensuite par IBM et même par Apple ; s’il était en 1981 possible pour Apple (40 personnes) de prendre de gros risques, c'était pratiquement impossible pour Xerox (125 000 personnes). 

Xerox s'était en effet spécialisée sur le marché des photocopieurs, grosses machines que l'on installe dans les secrétariats et que le fournisseur fait rémunérer à la copie. Le succès de la xérographie avait mis Xerox en situation de monopole et l'avait convaincue qu'il suffisait d'offrir de bons produits, mûrement conçus, pour que les clients se jettent dessus. Cela ne la préparait pas au marché de l'informatique personnelle où les acheteurs sont les directeurs informatiques, où il n'est pas question de facturer à la consommation et où la concurrence contraint à se battre pour chaque pourcentage de part de marché.

L'intérêt de Xerox pour l'innovation était sincère, mais affaire de principe plus que de réalité ; pour que Xerox puisse devenir un acteur sur ce marché, il aurait fallu que ce fût une entreprise nouvelle, sans histoire, sans habitudes, sans organisation, libre de se modifier comme le firent Apple et Microsoft. Mais ce n’était pas le cas. 

Toute grande entreprise, toute organisation structurée par l’histoire répugne à changer et a donc tendance à refuser l'innovation. Cela explique en partie les échecs de l'informatique française : celle-ci a été poussée par l'administration française que l'on peut considérer comme la plus grande entreprise du monde et qui, comme toute grande entreprise, est corsetée par son histoire. Pour concevoir le PC, IBM a dû créer en son sein une organisation indépendante que le président a protégée contre le reste de l'entreprise et cela n'a pas encore suffi : la culture d'entreprise ayant rejeté la greffe, IBM n'a pas pu profiter du PC pour dominer le marché de la micro-informatique. Ce sont Intel et Microsoft, structures minuscules en 1981, qui ont raflé la mise. 

IBM et le PC [16]

La relation entre IBM et le PC se déroule selon un déterminisme aussi implacable que celui d’une tragédie grecque : une entreprise dont la capitalisation boursière dépassait celle de l'ensemble des entreprises allemandes, dont la croissance avait apporté le bien-être à des vallées entières près de New-York et de Boston, fière de ses traditions de qualité et de sérieux, trébuche sur le micro-ordinateur en raison même de ces traditions et manque de s’effondrer.

En 1980, le micro-ordinateur est un défi pour IBM. Le PET (Personal Electronic Transactor) de Commodore, le TRS-80 de Radio Shack et l’Apple II, sortis tous les trois en 1977, séduisent des clients. Frank Cary, président d’IBM, estime que son entreprise doit être présente sur ce marché. Le micro-ordinateur étant une petite machine, sa réalisation ne devrait pas poser de problème à la plus grande entreprise informatique du monde ! Cependant IBM, habituée aux gros systèmes, n'arrive pas à s'intéresser au micro-ordinateur.

Le 4 juillet 1980, Frank Cary pique un coup de sang et décide de s’occuper directement du problème. Le micro-ordinateur d’IBM sera réalisé par une équipe installée à Boca Raton en Floride et séparée du reste de l’entreprise. Elle rapportera directement au président qui la financera lui-même et la protègera.

Le président veut son micro-ordinateur, il l’aura. IBM sort son premier PC (« Personal Computer ») en août 1981. C’est une réussite technique dont le succès commercial est immédiat. Certains clients étaient restés réticents devant le micro-ordinateur qu’ils croyaient peu « sérieux ». Ces réticences tombent lorsque IBM lui-même, modèle du « sérieux », cautionne le micro-ordinateur en produisant le PC. Il s’ensuit une avalanche de commandes.

Pour pouvoir sortir le PC rapidement IBM avait sous-traité des parties essentielles à d’autres entreprises : le microprocesseur à Intel, le système d’exploitation MS-DOS à Microsoft [17]. Le ver était dans le fruit. Le micro-ordinateur étant étranger à sa culture, IBM a manqué de flair et pris une disposition catastrophique au plan stratégique : elle n’a pas introduit de clause d’exclusivité dans les contrats avec Microsoft et Intel. Cela permettra à des fabricants de s’approvisionner auprès de ces entreprises et de produire à partir de 1986 des micro-ordinateurs « compatibles PC » des « clones », puis d’engager contre IBM une guerre des prix qui le contraindra à réduire sa marge.

Intel et Microsoft, en position de monopole sur un marché en croissance rapide, feront fortune. Le marché des mainframes, qui procurait à IBM l’essentiel de son profit, souffrira de l’arrivée des PC. Les PC dégageront peu de marge en raison de la pression de la concurrence. Les années 80 seront pour IBM la descente aux enfers : baisse des résultats et du cours de l’action, compression des effectifs etc.

Certains, comme Paul Carroll dans Big Blue, ont relevé avec une ironie mordante les dysfonctionnements d'IBM ; d'autres, comme Gérard Dréan ("Apple, Sun et ... IBM", Le Monde Informatique, 22 mars 1996) expliquent les difficultés qu'a rencontrées IBM par l'intensité des changements que nous venons de décrire. Il est certain que mieux une entreprise était adaptée à l'informatique du début des années 80, plus il lui était difficile de s'adapter à l'informatique de la fin des années 80 (voir "Evolution du marché de l'informatique"), d'autant plus qu'elle était plus grosse, la complexité et la rigidité de l'organisation étant fonction croissante de la taille de l'entreprise.

Il est futile d'ironiser sur les malheurs des grandes entreprises : le fait est qu'IBM, que l'on a pu croire presque morte en 1993, s'est redressée par la suite et s'est réorientée vers le secteur des services, ce qui prouve qu'elle n'avait pas perdu tout son potentiel.

II - Repères chronologiques

Voici les dates des principaux événements qui ont marqué la suite de l'histoire du micro-ordinateur :

1982 : Compaq commercialise le premier micro-ordinateur portable (il pèse 15 kg !).

1983 : Apple lance le Lisa, premier ordinateur ayant une interface graphique (menus déroulants, fenêtres, corbeille etc.) : le Lisa a été inspiré par les travaux du PARC (cf. ci-dessus). 
La norme IEEE 802.3 pour les réseaux locaux Ethernet est publiée : elle concrétise les spécifications produites par le PARC en 1980. C’est le début de la généralisation des réseaux locaux dans les entreprises.

1984 : Lotus sort le tableur Lotus 1-2-3 qui incitera les entreprises à acheter des PC. 
Apple commercialise le Macintosh, qui apparaîtra comme le grand concurrent du PC : les utilisateurs se partagent entre partisans de l’une ou l’autre des deux machines.

1985 : IBM lance le PC AT qui a un grand succès. 
IBM annonce en octobre le réseau Token Ring, qui concurrencera Ethernet dans les entreprises industrielles (voir protocoles d'accès aux réseaux de PC). 
Intel lance le même mois le processeur 80386 à 16 MHz qui améliore de façon significative la puissance du PC. Microsoft livre en novembre Windows 1.0 qui apporte l’interface graphique aux utilisateurs de PC.

1986 : les bases de données sur PC se développent avec dBASE d’Ashton et Tate. 
Microsoft lance le tableur Excel (d’abord connu sous le nom de Multiplan). 
DEC connaît sa meilleure année, mais ce sont les derniers feux du mini-ordinateur, dont le marché est coincé entre la gamme des mainframes et le micro-ordinateur. 
Compaq lance le marché des clones PC en produisant le premier PC 386. 
L’utilisation de la messagerie électronique se développe aux Etats-Unis : MCI et Compuserve offrent un lien entre leurs messageries respectives.

1987 : les PC 386 détrônent les PC AT. 
IBM lance la série PS/2 et le système d’exploitation OS/2. 
Apple lance le Mac II. 
Le 12 juillet 1987, Robert  Solow formule dans la New York Review of Books son célèbre paradoxe : « You can see the computer age everywhere but in the productivity statistics. »

1988 : Unix gagne en notoriété et érode la confiance dans les mini-ordinateurs et les mainframes.
Apple poursuit Microsoft et HP en justice à propos de l’interface PC. 
Compaq prend la tête d’un consortium de fournisseurs connu comme " gang des neuf ", et crée le standard EISA pour contrer le Micro Channel du PS/2 d’IBM. Quelques semaines après l’annonce de l’EISA, IBM ressuscite son bus AT avec le modèle PS/2 30-286. Il révèle aussi son offre de mini AS/400.

1989 : Ethernet 10BaseT démarre. C’est l’année des réseaux locaux de PC ; les hubs et adaptateurs de SynOptics et 3Com ont un grand succès. Cela prépare la voie des applications client / serveur des années 90.
En avril Intel annonce le processeur 486. 
OfficeVision d’IBM, sa première suite d’applications Systems Application Architecture. 
Lotus 1-2-3 Version 3.0.
Portable Macintosh d’Apple. 

1990 : C’est l’année des routeurs et des WAN ("Wide Area Network") interconnectant les réseaux locaux de l’entreprise.
Microsoft lance Windows 3.0. En septembre, IBM et Microsoft redéfinissent leur partenariat : IBM prend la responsabilité d’OS/1.x et 2.x, et Microsoft de l’OS/2 portable, DOS et Windows. 
Motorola lance le processeur 68040, Apple lance les Macs bas de gamme : Classic, LC et IIsi.

1991: Windows est en position de monopole, OS/2 disparaît de la scène.
Naissance du World Wide Web : Tim Berners-Lee, au CERN de Genève ("Conseil Européen pour la Recherche Nucléaire"), monte le premier serveur Web. 
Les dépenses des entreprises en informatique dépassent pour la première fois les dépenses en équipement industriel, agricole et en construction.
Apple lance sa première génération de Powerbooks.

1992 : C’est l’année des applications sur réseau local de PC et du groupware avec Lotus Notes. 
L’outsourcing émerge avec le gros contrat passé par Kodak.
IBM et Microsoft mettent fin à leur accord de coopération. 
Pour la première fois, les comptes annuels d’IBM font apparaître une perte de 564 millions de $. 
Le départ de son président Ken Olsen marque le début d’une ère nouvelle pour Digital. 
Intel annonce son " clock doubler " et lance le processeur 486DX2. 
IBM annonce le premier de ses notebooks : le ThinkPad. 

1993 : Début du déploiement du Pentium.
Les pertes d’IBM sont les pires de son histoire : 4,97 milliards de $ pour un chiffre d’affaires de 64,5 milliards. Lou Gerstner remplace John Akers à la tête d’IBM : c’est le premier " outsider " qui prenne le poste de CEO. 
Apple perd son procès contre Microsoft et HP. 
Intel lance le processeur 60 MHz Pentium, Apple sort le Newton, Novell annonce NetWare 4.0, Lotus Notes 3.0 démarre, et Microsoft lance Windows NT.

1994 : L’architecture client / serveur prend pied sur le marché.
L’erreur de calcul révélée sur la puce Pentium suscite un drame de relations publiques pour Intel, qui y met un terme en remplaçant toutes les puces. 
Microsoft annonce que Windows 95 ne serait pas livré avant août 1995, ce qui mécontente beaucoup d’utilisateurs contraints à revoir leurs plans de migration vers le 32 bits. 
La frénésie des fusions et acquisitions continue : Novell achète WordPerfect pour 1,14 milliard de $, Aldus et Adobe fusionnent pour 525 millions de $. 
Apple entre sur le marché de la vente en ligne avec eWorld, et Netscape, le chéri de Wall Street, fait ses débuts.

1995 : Les Notebooks deviennent une alternative au desktop avec les portables Pentium. Il en résulte un développement du télétravail.
IBM fait une offre de 3,5 milliards de $ pour acheter Lotus. 
En août, Microsoft livre Windows 95 et Intel lance le Pentium Pro à 150-200 MHz. 
Compuserve, AOL et Prodigy commencent à offrir des accès au Web, et Netscape lance la troisième plus importante augmentation de capital sur le Nasdaq. 

1996 : Windows 95 confirme son emprise sur le PC. Windows NT gagne du terrain contre NetWare comme plate-forme pour serveur.
Les Network Computers se concrétisent par de vrais produits. Les Intranet d’entreprise deviennent une réalité.
Java gagne en notoriété. Les entreprises commencent à développer des sites Web. Microsoft adopte finalement le Web. 

1997 : C’est l’année de l’Intranet. Le commerce électronique démarre.
La navigation sur le Web devient facile avec des browsers et des outils de recherche améliorés. La puissance de traitement s’accroît lorsque Intel annonce le Pentium 200 MHz avec la technologie MMX.

1998 : La perspective de l’an 2000 effraie tout le monde. Le manque de personnel en informatique devient aigu. L’outsourcing et les services s’épanouissent.
Le grand thème est le commerce sur l’Internet. Plusieurs événements importants non reliés au Web se produisent : achat de Digital par Compaq, durcissement de la bataille entre Microsoft et le ministère de la justice.

III - Histoire du PC : quelques technologies importantes

CD-ROM

Les CD-Rom ont été initialement conçus pour porter 74 minutes de son de haute qualité. Transformés en supports de donnée de grande taille (650 millions d'octets), ils épargnent aux utilisateurs les heures de travail qu'ils devaient consacrer à charger les applications disquette après disquette. 

Les CD-ROM ont pratiquement remplacé les disquettes, d'autant plus qu'il est possible de graver des CD. Cependant le CD-ROM est concurrencé par les DVD-ROM et par les disques optiques capables de contenir 4,7 milliards d'octets de données.

Cryptage

Sans les algorithmes de cryptage, le commerce électronique n’aurait pas pu se développer sur l’Internet : le cryptage est crucial pour identifier les parties impliquées dans une transaction et sécuriser les transactions.

PGP ("Pretty Good Privacy" ), créé par Philip Zimmermann, a suscité une accélération avec son architecture ouverte et ses techniques mathématiques robustes. Les autres leaders dans ce domaine sont RSA Data Security, qui teste les limites des techniques de cryptage, et Certicom, avec des innovations comme la courbe de protection elliptique (économe en largeur de bande) qui fait partie de l’offre PalmNet de 3Com.

Groupware

Les racines du groupware se trouvent dans les systèmes de messagerie "store and forward " des années 60 et 70 (à distinguer du "store and retrieve") et de conférence sur mainframe et mini, particulièrement dans les universités et la recherche.

Les années 80 et 90 ont été celles du groupware. La mise en réseau des PC et la normalisation des protocoles répandent la communication dans l’entreprise et entre entreprises. cc:Mail de Lotus et MHS ("Message Handling Service" ) de Novell aident à disséminer la messagerie alors que Lotus Notes fournit des outils de programmation personnalisée et le lien avec les applications externes.

Les années 90 et 2000 sont celles du temps réel :  le groupware a intégré les communications synchrones (conversation, visioconférence, partage d’applications), supprimé les barrières de temps et d’espace et permis des changements dans le travail et la vie quotidienne. Les fonctionnalités du groupware se retrouvent sur l'Intranet. 

Jeu de commandes Hayes

Plus de 125 millions de modems Hayes sont installés en Amérique du Nord. Même si l'entreprise Hayes a fermé en février 1999, les administrateurs de réseaux utiliseront pendant des années encore " ATDT " (" attention, dial, tone ") dans les scripts de dial-up. 

Les réseaux locaux de PC et Ethernet

Plus que tout autre produit, NetWare 2.11, Ethernet 10BaseT et 10Base2 ont apporté aux entreprises le partage des données et de la puissance de traitement. NetWare a transformé le micro-ordinateur en une machine analogue à un mainframe, et Ethernet permit de relier les ordinateurs entre eux.

Sans la synergie entre ces technologies, l’explosion de l’Internet n’aurait pas pu se produire car le réseau d’ordinateurs serait resté coûteux. Elles sont évolutives : Ethernet devient sans cesse plus rapide et s’étend aux nouveaux médias, les LAN s’interconnectent de plus en plus.

Macintosh

En 1984, Apple a lancé le Macintosh et transformé pour toujours les ordinateurs en introduisant trois avancées technologiques (déjà utilisées dans la ligne de produits Lisa) : interface graphique ; souris ; disquettes 3.5 pouces à haute capacité et très solides.

La conception du Mac doit beaucoup aux idées du centre de recherche de Xerox à Palo Alto, mais Apple les a retravaillées pour les rendre utilisables par un ordinateur produit en masse.

En refusant d’adapter le MacOS à d’autres processeurs que la famille 68000 ou d’en vendre la licence à d’autres entreprises, Apple a contraint les fabricants de clones à chercher un autre système d’exploitation. Microsoft s’est engouffré dans la brèche et, comme Apple perdait son temps à explorer trop de sentiers différents, Windows a fini par devenir le système d’exploitation préféré des entreprises et utilisateurs finals.

Toutefois, la migration d’Apple vers la puissante puce du Power-PC sur RISC d’IBM, puis la sortie de la ligne de produits iMac, ont maintenu Apple à flot.

Logiciel libre

Frustrée par les logiciels en boîtes chers qui ne tenaient pas les promesses annoncées, la communauté des informaticiens commença dans le milieu des années 90 à expérimenter le modèle du " logiciel libre " qui permet à l’utilisateur d’accéder aux parties intimes du système. Microsoft essayait de définir sa stratégie sur le Web et Solaris était trop cher : les entreprises commencèrent à utiliser des serveurs Web Apache sous Linux. Le logiciel libre est le modèle de développement le plus efficace car il permet aux exploitants de travailler comme une communauté de développeurs utilisant une machine qu’ils contrôlent.

RAD

Au début, la RAD ("Rapid Application Development" ) n’a fait que resserrer le processus d’" édition – compilation – débogage " qui fut longtemps l’essentiel de la programmation. Dans le milieu des années 80, des produits comme Turbo Pascal de Borland ont accéléré le développement d’applications pour PC DOS.

Visual Basic de Microsoft, lancé en 1991, a défini le standard auquel tout nouvel outil doit se conformer (au moins pour la commodité du développeur, si ce n’est en performance ou robustesse des applications). Avec la diffusion de composants logiciels divers, Visual Basic a accéléré une transition que des langages plus élégants avaient seulement promis, pavant la voie aux classes Java réutilisables.

RISC

La technologie RISC ("Reduced Instruction Set Computer" ) introduite par IBM sur les PC RT en 1986 a permis aux puces d’atteindre les sommets de la performance informatique. Elle était conçue pour faire plus vite les opérations habituelles et faciliter l’utilisation du microprocesseur. Mais ceux qui proposaient le RISC ont sous-estimé la progression de l’architecture X.86 d’Intel, ainsi que sa base installé en logiciels, outils et compétences.

Alpha de DEC, SPARC de Sun et PowerPC de Motorola ont tenté de prendre l’avantage sur Intel au plan de la vitesse de traitement, puis Intel introduisit les techniques RISC dans le cœur de sa ligne X86. Les puces Pentium, Advanced Micro Devices et autres appliquent les principes RISC à l’optimisation interne tout en restant compatibles avec les versions anciennes. Les utilisateurs y ont gagné.

SCSI

Au début des années 80, la plupart des gens ne se souciaient pas de l’interopérabilité entre disques durs. Mais Al Shugart a compris qu’il fallait un accès standard aux périphériques si l’on voulait que le PC soit largement accepté par le marché.

En 1986, le SCSI ("Small Computer System Interface") offrit un accès octet par octet aux données, ainsi qu’un adressage logique, supprimant le besoin d’un accès en série lourd et inefficace. Lorsque le " Common Command " fut ajouté un an après au SCSI il devint la base du langage de communication avec les périphériques, pavant la voie à d’importantes innovations comme RAID ("Redundant Array of Independent Disks" ).

VGA

On avait déjà fait de la couleur sur PC, mais l’inclusion du VGA ("Video Graphics Array") dans la ligne PS/2 par IBM en 1987 fut un événement important. Le PC passait de 16 à 256 couleurs avec une résolution de 320 pixels par 200. On pouvait aussi faire du 16 couleurs avec une résolution de 640 pixels par 480. Cela favorisa le lancement des GUI ("Graphical User Interface"), de l’édition et des jeux d’arcade sur PC. Même aujourd’hui, VGA est la base de tout adaptateur vidéo sur le marché.

Le Web

Quand Tim Berners-Lee appliqua pour la première fois l’hypertexte à l’Internet et forgea le terme " World Wide Web " en 1990, il cherchait à créer une collaboration facile dans les projets. En fait il a transformé l’Internet universitaire en un média de masse.

Dans les neuf années qui suivirent le premier browser et le premier serveur au CERN, le Web a acquis l’ubiquité. L’information et la publication furent ses premiers points forts, renforcés à la fin de 1993 par Mosaic et son utilisation graphique.

Enfin le milieu des affaires perçoit vers 1996 le potentiel du Web et cherche à en tirer parti. L’accroissement de la sécurité a réduit les réticences des clients envers l’achat sur le réseau, tandis que des techniques comme XML facilitent l’utilisation du Web pour les affaires.

Windows

Windows est un exemple de la méthode pragmatique qui a permis le succès de Microsoft. D’abord pale imitation de l’interface graphique du Macintosh, Windows était plein de bogues et handicapé par le DOS sous-jacent. Toutefois Microsoft a montré que la compatibilité ascendante, l’attention à des besoins peu intellectuels mais tirés par la productivité, le support aux développeurs et l’OEM ("Original Equipment Manufacturer") sont plus importants pour le succès d’un système d’exploitation que ses qualités purement techniques.

Il en résulta l’adoption massive de Windows sur les PC. Microsoft appliqua en 1993 la même formule pour faire adopter Windows NT par les serveurs et stations de travail, ce qui a mis Novell et Unix sur la défensive.

IV - Histoire du PC : quelques paris gagnés

Des projets a priori risqués ont réussi :

Federal Express

En 1984, FedEx a lancé " Supertracker ", fondé sur le " tracking " des paquets qu’il transporte Ce système permettait aux coursiers sur le terrain d’utiliser des outils communicants manuels et un réseau radio numérique pour saisir le statut et la position des paquets (40 000 outils aujourd’hui, 6 millions d’enregistrements quotidiens). Les clients peuvent connaître par appel téléphonique la localisation de leurs paquets et la date de livraison attendue. FedEx a gagné ainsi des parts de marché contre UPS.

Groupware

En 1989, les responsables du système d’information de Price Waterhouse ont fait un choix audacieux : ils ont supprimé la messagerie électronique qu’ils venaient d’installer sur 10 000 postes et l’ont remplacée par Lotus Notes, produit nouveau que personne ne comprenait et qu’ils déployaient sous OS/2. Price Waterhouse a ainsi été la première grande entreprise à déployer Lotus Notes au niveau mondial. Cela lui a permis de gérer ses projets globalement.

Le groupware a décollé, notamment dans les entreprises de service. Coopers & Lybrand – qui a fusionné avec Price Waterhouse en 1998 – a installé Notes en 1993, ce qui a facilité la fusion des deux entreprises. 

Interface graphique

En 1990, au milieu d’une grave crise du transport aérien, United Airlines a jugé rentable de remplacer ses terminaux " bêtes " par des PC dotés d’une interface graphique. Jugeant Windows trop instable, United a développé sa propre interface graphique. Le système, installé sur des PC 80206, a permis de réduire le délai de traitement d’une réservation de 10 %, la durée de la formation de 25 %, et d’économiser ainsi 9 millions de $ dès la première année.

Datawarehouse

Dans le milieu des années 80 Wal-Mart voulait s’étendre au delà du Middle West. Mais comment gérer plusieurs magasins en tenant compte des particularités de chaque marché local ? Les managers de Wal-Mart eurent l’idée de collecter les données sur les ventes et de les utiliser pour répondre rapidement à des changements de la tendance de la demande.

Il en résulta un des plus grands succès du datawarehouse. Le système grimpa rapidement à 700 milliards d'octets. Il permit au détaillant de partager l’information sur la demande avec ses fournisseurs et de leur faire gérer ses stocks. Wal-Mart surpassa ainsi Sears et Roebuck. Son datawarehouse, exploité sur du matériel NCR Teradata, a cru jusqu’à 24 Teraoctets (24 000 milliards d'octets).

Commerce électronique

En 1995, Barnes & Noble et Crown Books développaient leurs réseaux de librairies concurrents. Jeffrey Bezos, informaticien chez Bankers Trust à Chicago, se lança sur l’Internet pour créer Amazon.com, première réussite du commerce électronique.

Amazon a démontré que l’on peut faire du commerce électronique malgré les inquiétudes concernant la sécurité sur le réseau. Elle offre plusieurs millions de titres de livres en ligne, des CD, des livres audio, des DVD et des jeux pour ordinateur.

Par ailleurs Dell a prouvé qu’il est rentable d’intégrer le commerce électronique avec le traitement d’une chaîne d’approvisionnement. Lancé au début de 1997, le site de Dell donne aux clients des dates de livraison exactes en contrôlant les stocks de pièces détachées lors de la commande. Dell partage les informations sur la demande avec ses fournisseurs en temps réel, ce qui permet de réduire les coûts d’immobilisation et d’améliorer le service au client. 


[2] Steven Levy, Hackers, Delta Publishing 1994.

[4] Voir ci-dessous la chronologie des inventions des chercheurs du PARC.

[5] Extraits de Steven Levy, Hackers, pp. 38 et suivantes.

[6] C’est la même philosophie américaine que résume le slogan de Nike : « Just do it ».

[7] David S. Bennahum, Extra Life, Basic Books 1998.

[8] Sorti en avril 1972, le 8008 comportait 3500 transistors. Sa vitesse était de108 kHz, sa mémoire adressable de 16Ko.

[9] En 1978, R2E est absorbée par Bull. En 1982, la filiale américaine de Bull concevra son premier compatible PC, le Bull Micral. Truong quittera Bull en 1983.

[11] « Up and running ».

[12] L’année mème où l’Arpanet, précurseur de l’Internet, devint opérationnel.

[13] Michael Hiltzik, Dealers of Ligthning - Xerox PARC and the Dawn of the Computer Age, Harper Business 1999

[14] Le Wysiwyg (« What You See Is What You Get ») est le principe le plus important de l'interface graphique : chaque manipulation de l'image sur l'écran entraîne une modification prévisible de l'état du système. Les éléments de cette métaphore sont les fenêtres (Windows), menus, icônes, boutons, onglets ainsi que le pointeur. Les fenêtres permettent la représentation simultanée de plusieurs activités sur l'écran. Les menus permettent de choisir les prochaines actions. Les icônes, boutons, onglets etc. attribuent une forme concrète aux objets informatiques. L'outil de pointage, souris ou track-ball, sélectionne fenêtres, menus, icônes etc.

[15] Apple Computer avait été créé en avril 1976 par Steven  Wozniak et Steven Jobs. Leur Apple I (1976) n’a pas été pris au sérieux par les hobbyistes, mais l’Apple II (1977), premier ordinateur personnel carrossé en plastique et présentant une interface en couleur, a connu le succès. Le premier tableur, Visicalc (1979), a été réalisé pour l’Apple II. L’Apple III sortira en 1980.

[16] Paul Carroll, Big Blues, The Unmaking of IBM, Crown 1994.

[17] La coopération avec Microsoft fit apparaître quelques défauts chez IBM: « Les gens de Microsoft se plaignaient de la méthode de programmation d’IBM […] IBM mesurait le nombre de lignes produites par chaque programmeur, ce qui encourageait la production de code inefficace. Les gestionnaires d’IBM se plaignaient parce que, selon leur système de mesure, Microsoft ne faisait pas sa part du travail. Ils disaient que si l’on comptait le nombre de lignes, Microsoft faisait en fait un travail négatif, ce qui signifiait que Microsoft aurait dû payer IBM parce qu’il condensait le code » Cette façon de mesurer la production pousse à écrire de programmes lourds. IBM la jugeait efficace parce qu'elle induisait une forte utilisation des machines et incitait à terme les clients à acheter de nouveaux ordinateurs plus puissants. (Paul Carroll, Big Blues, The Unmaking of IBM, Crown Publishers 1994, p. 101.)