RECHERCHE :
Bienvenue sur le site de Michel VOLLE
Powered by picosearch  


Vous êtes libre de copier, distribuer et/ou modifier les documents de ce site, à la seule condition de citer la source.
 GNU Free Documentation License.

L’informatisation de l’entreprise

22 novembre 2003

Pour décrire l’évolution historique du rôle de l’informatique, nous allons d’abord présenter de façon schématique comment une entreprise travaille, puis montrer comment l’informatique a progressivement équipé les divers types de fonctions qui sont assumées au sein de l’entreprise.

Toute activité d’une entreprise débute par des événements externes à la production (ou « événements externes » tout court) : commandes des clients, livraisons des fournisseurs, et aussi mise de nouveaux produits  au catalogue. Lorsqu’il est initialisé par une commande d’un client, le cycle de l’activité se boucle par une livraison accompagnée d’une facturation, puis d’un paiement.

Le schéma ci-dessus s’applique à toute entreprise, qu’elle soit informatisée ou non : des « activités internes » font progresser le processus de production de la prise de commande à la livraison en fournissant des « livrables », produits intermédiaires documentaires ou physiques dont la mise à disposition est un « événement interne ». 

Organisation du travail de bureau : années 1880

L'organisation du travail de bureau a résulté d’un effort prolongé et méthodique. Les progrès essentiels ont été réalisés lors des dernières décennies du XIXe siècle dans le « loop » de Chicago, centre d’affaires en croissance rapide où furent mises au point les méthodes de standardisation et de classement documentaire ainsi que l’architecture des grands immeubles de bureau. C’est également aux États-Unis que débuta la mécanisation du travail de bureau avec les machines à écrire et les machines à calculer : la machine à écrire permit d’obtenir des documents plus lisibles que les manuscrits et de les dupliquer en quelques exemplaires grâce au papier carbone puis au stencil ; la machine à calculer facilite les opérations de vérification et de calcul.  

Les tâches remplies par les employés de l'entreprise dans la première moitié du XXème siècle se classent en deux catégories : celles effectuées au contact des clients ou des fournisseurs impliquent une part de dialogue et de négociation (« première ligne » ou encore « front office ») ; celles internes à l’entreprise (« middle office » et « back office »), qui peuvent être entièrement organisées. L'agent qui se trouve au contact de personnes extérieures doit laisser à l’interlocuteur sa part d’initiative : l’organisation ne peut pas maîtriser complètement le déroulement de ce dialogue.

Les tâches internes obéissaient toutes à un même schéma :

1) d’une part l’agent reçoit des commandes, des matières premières ou des produits intermédiaires ; son travail consiste à élaborer d’autres produits intermédiaires (« livrables ») qu'il oriente vers l'étape suivante du processus. Par exemple, pour les agents qui traitaient l’information dans les grandes banques ou compagnies d’assurance, le travail se faisait sur un bureau dans une salle où se trouvaient de nombreux employés ; à gauche de l’agent se trouvait la barquette arrivée, à droite la barquette départ, les dossiers étant apportés et emportés par des personnes équipées de caddies. 

2) d’autre part les personnes qui transportent les dossiers d’un bureau à l’autre, ainsi que le superviseur de la salle de travail, assurent une logistique qui entoure les tâches des agents d’un réseau de communication et de contrôle. La mesure du flux quotidien permet d’établir des normes de productivité. Les délais normaux de traitement d’une affaire peuvent être évalués.La pile de dossiers qui reste dans la barquette arrivée signale un agent qui travaille plus lentement que les autres.

Le travail que l’agent effectue sur un dossier consiste en calculs, vérifications et transcriptions, et aussi en expertises, classements, évaluations et décisions (ou formulation d'un avis pour préparer la décision). En même temps qu'il fait progresser le processus de traitement des affaires, ce travail alimente des fichiers manuels qui constituent la mémoire de masse de l'entreprise. Les éventuelles interrogations donnent occasion à des échanges de notes ou fiches que l’agent place dans la barquette « départ » en mentionnant le nom du destinataire, les réponses lui parvenant dans la barquette « arrivée » avec les dossiers à traiter. 

 Évolution des équipements de bureau

Les équipements du travail de bureau (fauteuils, bureaux, téléphones, photocopieurs, télécopieurs, calculateurs, machines à écrire, classeurs, trombones, post-its, sans même évoquer l'ordinateur et sa séquelle d'imprimantes, scanners etc.) sont tous d'origine récente : le brevet du trombone est déposé en 1901, celui du classeur mécanique en 1904. Les copieurs apparaissent en 1890, mais la photocopie ne se répandra vraiment qu'à partir de 1960 avec la xérographie. Le Post-it[1] sera lancé par 3M (après de longues hésitations) en 1980.

La machine à écrire[2], inventée en 1868 par l’Américain Christopher Latham Sholes, est commercialisée par Remington en 1874. Elle a déjà le clavier qwerty, mais elle écrit en majuscules et l’auteur ne peut pas voir le texte qu’il tape. 5 000 machines sont vendues en cinq ans. La Remington n° 2 de 1878 permet d’écrire en minuscules et majuscules. En 1895, Underwood commercialise une machine qui permet de voir ce que l’on tape. Dès lors la machine à écrire se répand rapidement dans les entreprises. La première école de dactylographie sera créée en 1911.

Dans les entreprises industrielles, le travail de bureau traitait les commandes, les factures et la comptabilité ; il émettait les ordres qui déclenchaient les opérations physiques de production, approvisionnement, stockage, transport et livraison. Les décisions concernant les opérations physiques étaient prises dans les bureaux, les décisions laissées aux agents de terrain étant celles qui accompagnent l’exécution des opérations.  

 
Processus de gestion dans une entreprise industrielle


 

Dans l'entreprise industrielles, les commandes sont satisfaites en puisant dans les stocks ; le suivi statistique du flux de commandes permet d'évaluer la demande anticipée et de déterminer le programme de production ; les facteurs de production (capital K, travail L, biens intermédiaires X) sont mobilisés chacun selon le cycle de vie qui lui est propre ; la fonction de production Y = f(K, L, X) est mise en oeuvre pour alimenter les stocks. 

La procédure du « front office » était plus souple, car il travaillait  au contact d’un client ou d’un fournisseur, que ce soit par contact « présentiel », par téléphone ou par courrier : il ne s’agissait plus de traiter des documents conformes aux formats types de l’entreprise mais de répondre à des demandes ou questions formulées dans la langue de personnes extérieures à l’entreprise et dans un ordre correspondant à leurs priorités (certes le courrier arrivée est toujours placé dans la barquette « arrivée », mais il n’est pas rédigé selon les normes de l’entreprise et son traitement peut nécessiter un dialogue par lettre avec le client). 

L’agent devait alors de transcrire les indications recueillies lors de la relation externe en un document susceptible d’alimenter le processus interne.  

Cette organisation comportait des articulations fragiles. Les documents posés en pile risquaient d’être traités sur le mode LIFO (« last in, first out ») qui induit des délais aléatoires ; la succession des transferts entre agents risquait de finir « dans les sables » en cas d’erreur d’aiguillage ; si pour une raison particulière on avait besoin de retrouver un dossier en cours de traitement, il n’était pas facile de le suivre à la trace le long de son parcours. Enfin, le schéma que nous avons décrit se dégradait en variantes artisanales dans les entreprises petites et moyennes, et il restait vulnérable à la négligence ou à l’étourderie.

Arrivée de l’informatique : années 1950

L’industrialisation du travail de bureau, avec les armoires de dossiers suspendus, classeurs, bibliothèques tournantes, la logistique du transport des dossiers, les longues opérations de calcul, appelait l’informatique. Mais l’informatisation n’a pris son essor que dans les années 1950, la guerre ayant pendant dix ans bloqué l'utilisation civile des techniques tout en accélérant leur conception (comme ce fut le cas pour l'agriculture : en Europe le tracteur ne se répandra pas avant les années 1950).

La mécanographie, fondée sur le traitement électromécanique de cartes perforées par des trieuses et tabulatrices, a été d'abord conçue pour réaliser des travaux statistiques. La première réalisation est celle du statisticien américain Herman Hollerith (1860-1829) pour le recensement de la population des États-Unis en 1890. Les entreprises créées par Hollerith sont à l'origine d’IBM[3]. Les premiers utilisateurs de la mécanographie furent les instituts statistiques, les armées et quelques administrations[4]. Les origines de plusieurs grands groupes informatiques remontent à l’ère de la mécanographie[5].

C’est avec l’ordinateur, plus puissant que la machine mécanographique et surtout plus souple grâce à la mise en oeuvre automatique de programmes enregistrés conformément à l'architecture de von Neumann[6], que l’informatique a pénétré les entreprises dans les années 50 et surtout les années 60. Elle a été d'abord utilisée pour automatiser la production physique : dès 1968, on a pensé à remplacer la commande numérique des machine-outils par la « commande numérique directe ». Dans le numéro spécial de « Science et Vie » sur l'automatisme en 1964, la gestion n'apparaît encore que comme un domaine relativement secondaire pour l'automatisation.

 
Partage du travail entre l'ordinateur et l'être humain

Les entreprises achètent les ordinateurs pour économiser le temps que les employés passent à des opérations répétitives de vérification, calcul et transcription, et aussi pour obtenir plus rapidement des informations de gestion d'une meilleure qualité. 

Elles utilisent la machine pour faire des traitements (puissance) ainsi que pour classer et trier les données (mémoire). 

Elles réservent à l’être humain les fonctions où il est supérieur à l’ordinateur : comprendre, expliquer, décider, concevoir.
 

Les premières entreprises de services à s’informatiser furent les banques et assurances ; dans les autres secteurs, les premières utilisations ont concerné la comptabilité, la paie et la gestion des stocks. Cela a modifié les conditions physiques du travail : les employés passaient dans les années 60 une partie de leur temps à perforer des cartes et dépouiller des « listings » ; puis dans les années 70 et 80 on installa des terminaux qui seront dans les années 90 remplacés par des micro-ordinateurs en réseau. A chaque étape, l’ergonomie s'est modifiée ainsi que les possibilités offertes à l'utilisateur.

 
Décalage de la pénétration des innovations

Lorsque l’on examine comment l’informatique a pénétré les entreprises, on constate un décalage temporel parfois important entre la disponibilité d'une innovations et sa mise en oeuvre. La chronologie des innovations est donc différente de celle de leur utilisation par les entreprises.

Ainsi, il était dès 1957 possible d’utiliser quatre terminaux en grappe sur l’IBM 305 ; mais les entreprises en sont restées pendant les années 60 au couple « carte perforée et listing » et la diffusion des terminaux date des années 70. De même, il était dès le début des années 80 possible de fournir aux utilisateurs des micro-ordinateurs en réseau ; mais de nombreuses entreprises ont continué à utiliser des terminaux « passifs » jusqu’au milieu des années 90. 

Ces décalages s'expliquent : la première version d'une solution innovante est coûteuse et demande des mises au point, sa mise en oeuvre implique des changements également coûteux de l'organisation de l'entreprise. Celle-ci prendra donc tout son temps avant de mettre en oeuvre une innovation.

L’espace de travail change alors d’allure. Même si le « bureau sans papier » reste rare, les archives et dossiers sur papier sont remplacés, dans une large mesure, par des informations stockées dans les mémoires électroniques. L’interface avec écran, clavier et souris s’installe sur tous les bureaux. Une part croissante du travail à faire arrive non plus dans une barquette, mais sur l’écran via le réseau.

Ce changement ne modifie pas fondamentalement la nature du travail : la différence entre événement interne et événement externe reste de même nature, même si l’écran-clavier s’impose désormais comme un tiers dans la relation avec les personnes extérieures à l’entreprise (au point parfois de gêner le dialogue).

 

Toutefois l’agent n’a plus, en principe, à recopier une information déjà introduite dans l’ordinateur ; la vérification de la saisie peut être automatique ; les calculs (de comptes, prix, taxes, salaires, ainsi que les totalisations etc.) sont eux aussi automatisés, ainsi que la mise en forme et l’édition des divers « états » (bulletins de paie, documents comptables, état des stocks, statistiques etc.) 

L'ordinateur remplit ainsi deux fonctions : d’une part il aide à traiter des dossiers individuels dont il facilite aussi le tri et la recherche ; d’autre part il permet de produire des indicateurs. L’être humain se spécialise dans les tâches qu’il fait mieux que l’ordinateur : il analyse l’information pour faire le tour d’un problème, l’interprète pour comprendre, la synthétise pour résumer et communiquer ce qu’il a compris ; enfin il décide ou même il conçoit. Ayant été soulagé des travaux qui exigeaient une utilisation répétitive de son cerveau, il est invité à se consacrer à des travaux auxquels le cerveau humain est le mieux adapté. On arrive ainsi à un partage des tâches où chacune des deux ressource (le « silicium », la « matière grise ») tend à être utilisée au mieux de ses aptitudes. Toutefois cette évolution n'est pas facile.


Une évolution difficile

L’évolution est pénible pour ceux des agents, souvent les plus intelligents, qui avaient pris l'habitude de travailler de façon mécanique et rapide tout en pensant à autre chose. Désormais le travail leur demande concentration, réflexion, responsabilité, prise de risque ; il leur impose soucis et angoisse. Même s'il est en principe devenu plus intéressant, il implique un effort psychologique accru.

Il faut aussi des changements dans l'organisation (transversalité etc.) : l'entreprise, qui doit accorder à l'employé un pouvoir de décision correspondant aux responsabilités qu'elle lui confie, doit aussi éviter de le harceler pour obtenir toujours plus de productivité, de qualité ou de profit unitaire. Les rapports entre personnes doivent devenir respectueux : dans une entreprise où la prise de décision est décentralisée, il faut en effet savoir écouter ce que dit l'autre. Les entreprises sont parfois tentées d'oublier que l’on ne peut pas demander à un salarié d’être à la fois un exécutant docile et un pionnier plein d'initiative et de créativité. 

Nous sommes là vers le milieu des années 80. Il faut compléter cette description en mentionnant des défauts souvent rencontrés. D’une part les « applications » informatiques ont été conçues séparément et communiquent mal : les agents doivent dans le cours d’une même tâche ouvrir une session, puis la fermer pour passer à une autre dont l’ergonomie sera différente, ressaisir des données, utiliser des codes divers dont la mémorisation demande un apprentissage. Si l’informatique est puissante, elle manque encore de cohérence et de « convivialité ».

L'automate n'est pas souple. Comme il ne s'adapte pas facilement aux utilisateurs, l’entreprise leur demande de s'adapter à lui. Ces défauts sont d'abord tolérés en raison des gains d'efficacité que l'informatique apporte. Mais ils deviennent de plus en plus insupportables. Le « système d’information » vise à les corriger. Les diverses applications doivent s’appuyer sur un référentiel unique, ce qui garantit leur cohérence sémantique ; elles doivent échanger les données et se tenir à jour mutuellement, ce qui assure la cohérence de leur contenu et supprime les ressaisies.

Toutefois cette mise en ordre reste souvent partielle et les défauts persistent en raison du poids de l'existant et de la pression d'autres priorités. 


Écart entre théorie et pratique


L'idée du système d'information n'est pas nouvelle : la théorie était déjà bien avancée avant la seconde guerre mondiale. Mais il faut, quand on examine la pratique des entreprises, tenir compte de l'écart chronologique entre l'émission d'une idée et sa mise en oeuvre. La lenteur du cycle de vie de l'organisation fait que des méthodes que chacun sait absurdes survivent alors que la mise en oeuvre de solutions simples et connues est ajournée. 

La bureautique communicante : à partir des années 1980[7]

L’arrivée du micro-ordinateur dans les années 80 fut un choc pour les informaticiens, qui ne reconnurent pas immédiatement sa légitimité ni son utilité. Le micro-ordinateur servit d'abord à diffuser les applications de bureautique personnelle qui avaient été mises au point auparavant sur des architectures de mini-ordinateurs en grappe (traitement de texte, tableur, grapheur). Il supplanta progressivement la machine à écrire et la machine à calculer. Cependant les applications bureautiques se sont d'abord déployées dans le désordre (versions différentes des applications, travaux locaux sans cohérence d'ensemble).

Au début des années 90 la mise en réseau des micro-ordinateurs a enfin confronté la bureautique aux exigences de cohérence du système d'information : pour toute donnée importante, seule doit exister sur le réseau une mesure définie et tenue à jour par le propriétaire de la donnée. 

Finalement le micro-ordinateur a cumulé deux rôles : d’une part il remplace les terminaux pour l’accès aux applications centrales, d’autre part il apporte à l’utilisateur la bureautique personnelle ainsi que la « bureautique communicante » (messagerie, documentation électronique, « groupware » puis Intranet). Le micro-ordinateur en réseau devient ainsi à la fois le terminal ergonomique des applications centrales, un outil de communication asynchrone entre agents, ainsi que la porte d’accès aux ressources documentaires de l’entreprise. 

On dirait alors que l’informatique a accompli tout ce qui lui était possible : elle fournit à l’utilisateur une interface qui, fédérant sous une ergonomie cohérente les accès aux diverses applications, lui évite les connexions-déconnexions et les doubles saisies tout en soulageant son effort de mémoire ; elle lui fournit aussi un média de communication.

Il lui reste cependant à assister les utilisateurs non seulement dans chacune de leurs tâches considérée séparément, mais dans la succession et l’articulation de leurs diverses tâches tout au long du processus de production.

En effet si l’informatique a libéré l’agent des tâches répétitives de calcul, vérification et transcription, les entreprises ne l’ont pas encore pleinement utilisée pour assurer les fonctions de logistique et de supervision remplies autrefois par les personnes qui transportaient les dossiers et par les superviseurs des salles de travail. Or le travail, devenu informatique (« virtuel »), a perdu la visibilité que lui conférait l’apparence physique des documents et dossiers sur papier. Il est devenu plus difficile de vérifier sa qualité, d'évaluer la productivité des agents et de maîtriser les délais de production.

Rien de tout cela n’est impossible pour l’informatique. Les outils existent depuis longtemps (les premiers « workflows » ont fonctionné dès l’époque des « mainframes »), mais pour qu’ils soient mis en oeuvre il faut que le besoin soit ressenti et que la possibilité de le satisfaire soit perçue. L'attention s'était d'abord focalisée sur la productivité de l'agent individuel ainsi que sur la maîtrise des concepts (composants, classes, attributs, fonctions) que l’informatique mettait à sa disposition. Il fallait maintenant utiliser celle-ci pour automatiser le processus de travail lui-même. 

L’informatique communicante apporte un élément de solution : s’il est possible aux utilisateurs de communiquer par messagerie, pourquoi ne pas utiliser ce média pour tisser une solidarité entre étapes d’un même processus ?

Du concept au processus : années 1990

Pour retrouver la maîtrise de la logistique que l'informatique avait dans un premier temps négligée, il faut introduire dans le système d’information les tables d’adressage qui balisent les transferts entre agents successifs, la traçabilité (possibilité retrouver et consulter un dossier en cours de traitement), des indicateurs de volume, de délai et (si possible) de qualité : ce sont là les fonctionnalités du workflow. Celui-ci améliore d'ailleurs notablement la logistique par rapport à l’époque du papier : il supprime le risque du « last in, first out », assure la traçabilité des dossiers et produit automatiquement des indicateurs de volume et de délai qui facilitent la maîtrise de la qualité.

Dès lors, le système d’information équipe les processus internes de l’entreprise au plus près de la pratique professionnelle en articulant, selon une frontière d'ailleurs délicate, les fonctionnalités de l’informatique de communication à celles du traitement des données structurées.

Pour concevoir le traitement des données structurées, il avait fallu concentrer l'attention sur les concepts à l’œuvre dans le système d’information et sur le processus des traitements informatiques. Pour concevoir un workflow, il faut concentrer l'attention sur l’enchaînement des tâches des agents et donc sur le processus opérationnel. Celui-ci se complique d'ailleurs avec l'arrivée du multimédia pour les événements externes (utilisation conjointe du courrier, du téléphone, du présentiel, de l'Internet, de la carte à puce) comme pour les événements internes (Intranet etc.), et aussi avec l'interopérabilité des systèmes d’information que nécessitent les partenariats. 

La hiérarchie des difficultés invite à examiner en priorité le processus opérationnel : cet examen dictera les concepts sur lesquels se fonde le traitement des données. Alors qu'auparavant la pratique professionnelle avait été invitée à se construire autour de l’informatique, désormais l’informatique est construite autour de la pratique professionnelle.

Ce changement de point de vue s'accompagne, en ce qui concerne l'organisation, de l’émergence dans les métiers de l'entreprise de la profession des maîtres d'ouvrage du système d’information . Pour prendre en compte de façon exacte le déroulement des processus au sein des métiers, il faut en effet à la fois une proximité quotidienne avec les agents et une rigueur intellectuelle dont le besoin n'avait pas jusqu'alors été ressenti. Ces professionnels mettent en forme les processus opérationnels en utilisant par exemple le langage UML [8].

De nouveaux problèmes apparaissent alors : comment choisir, si l'on veut un système d’information assez sobre pour pouvoir évoluer, entre les fonctionnalités que l'on fournira et celles sur lesquelles on fera l'impasse ? comment faire en sorte que le métier, ses dirigeants, s'approprient le système d’information, valident ses spécifications, participent à sa définition ? Par ailleurs, si la maîtrise du processus convient aux travaux internes, il est beaucoup plus difficile d’outiller l’agent du « front office », qui travaille au contact des clients ou des fournisseurs : on ne peut pas prévoir en effet l’ordre dans lequel il devra saisir les données et lancer les traitements. Tout au plus le système d’information peut-il lui fournir une aide contextuelle et la liste des tâches à accomplir, équipée de boutons indiquant pour chaque tâche le degré d’avancement ; le workflow ne débute qu’au moment où l’agent alimente les événement internes.

*  *

Le resserrement des relations entre l’informatique communicante et le traitement des données structurées amène à construire un système d’information « sur mesures », « près du corps », dont la définition et l’évolution adhèrent à la pratique professionnelle des agents. Il permet d'associer aux données leur commentaire, ce qui les rend compréhensibles, facilite leur transformation en « information » et modifie donc profondément leur rôle dans l'entreprise. Le système d’information assiste les diverses personnes de l’entreprise - opérationnels, managers locaux, concepteurs et stratèges de la DG - en fournissant à chacun la « vue » qui lui convient : ici les données pour le traitement opérationnel d'un dossier ; là les indicateurs utiles au pilotage opérationnel quotidien ; ailleurs les statistiques qui alimentent les études marketing et l'analyse stratégique.

Cette évolution rencontre cependant des obstacles. D'une part, comme l'informatique d'une entreprise résulte d'un empilage historique d'applications conçues dans l'urgence, elle est rarement conforme aux exigences de cohérence du système d’information : il s'en faut de beaucoup que les référentiels et l'administration des données répondent tous aux critères de qualité communément reconnus. D'autre part, l'histoire a habitué les esprits à une représentation étroite de ce que peut et doit être le rôle de l'informatique. Le choc éprouvé lors de l'arrivée des micro-ordinateurs se renouvelle, sous une autre forme, lorsque l'on met en place la documentation électronique, le multimédia et les workflows : personne ne pensait auparavant que l'informatique pouvait ou devait faire cela et il faut du temps pour que l'on réalise (aux deux sens du terme) ces nouvelles possibilités. Enfin, l’évolution de l’informatique confronte l’entreprise à des questions qui touchent à son identité même.


Le tracé des frontières dans l'entreprise, question philosophique

D'après le dictionnaire de Lalande[9], l'une des acceptions du mot « métaphysique » est « connaissance de ce que sont les choses en elles-mêmes par opposition aux apparences qu'elles présentent ». On peut utiliser ce terme pour désigner les idées (pertinentes ou non) concernant la nature de l'entreprise ou celle de l'informatique.

Ces idées influencent la façon dont on trace la frontière entre les activités que l'entreprise doit assurer elle-même et celles qu'elle doit sous-traiter. L'intuition des dirigeants étant déconcertée dans les périodes d'innovation, il peut leur arriver d'adopter des principes antiéconomiques. Certaines entreprises externalisent ainsi leurs centres d'appel (dont la compétence est alors gaspillée) ou encore la maîtrise d'œuvre de leur informatique (ce qui leur fait perdre la maîtrise de leur système d’information), alors qu'elles conservent l'exploitation des serveurs qu'il serait plus efficace de sous-traiter.
 

La frontière de l'automatisation est l'objet de convictions métaphysiques. Certains pensent qu'en équipant les processus opérationnels on dépasse une limite qui n'aurait pas dû être franchie. Ils éprouvent une horreur instinctive devant le multimédia ou le workflow, horreur qui paraît absurde tant que l'on n'en perçoit pas les raisons profondes. Ainsi s'explique que le même directeur qui lance d'un cœur léger des projets de plusieurs dizaines de millions d'euros refuse un projet de workflow de 100 000 euros qu'il considère comme une « usine à gaz ».

Il est vrai qu'il est impossible de tout informatiser : l’informatique doit donc rester en deçà d'une certaine frontière. Mais cette frontière ne passe pas entre le concept informatique (légitime) et le processus opérationnel (qu'il ne faudrait pas informatiser) : le traitement de texte, le tableur, la messagerie et la documentation électronique, ainsi que l'Internet et l'Intranet, ont montré que l'informatique pouvait se mettre efficacement au service de l'activité quotidienne de l'agent au travail. 

Tout système d'information implique une abstraction, un schématisme, donc le renoncement à la finesse sans limites de l'expérience au bénéfice d'une représentation grossière sans doute, mais efficace en pratique. La frontière de l'informatisation se définit par le degré de détail fonctionnel (et donc conceptuel) qu'il est raisonnable de retenir pour assister l'action des êtres humains et non par une conception normative (et tissée d'habitudes) du champ légitime de l’informatique. La frontière du système d’information ne se définit pas par la nature des opérations qu'on peut lui faire réaliser, mais par le degré de détail que l'on exige de lui. Le système d’information a été d'abord consacré à quelques fonctions qu'il remplissait en offrant un luxe de fonctionnalités parfois superflues ; il doit aujourd'hui devenir sobre en fonctionnalités, mais s’étendre pour fournir aux utilisateurs l'ensemble des fonctions automatisables.


[2] D. Rehr « The Typewriter », Popular Mechanics, août 1996

[3] Voir Donald E. Knuth, The Art of Computer Programming, Addison-Wesley 1998, volume 3 p. 383. Hollerith fonde en 1896 la « Tabulating Machine Company ». Cette compagnie fusionne en 1911 avec la « Computing Scale Company of America » (balances automatiques) et l’« International Time recording Company » (horloges enregistreuses) pour former la « Computing Tabulating Recording Company » (CTR) dont la direction est confiée à Thomas J. Watson (1874-1956). Ce dernier, devinant le potentiel de la mécanographie pour la gestion, change en 1917 le nom de la filiale canadienne de la CTR en « International Business Machines » (IBM). CTR adopte elle-même le nom d’IBM en 1924. Watson fonde en France en 1920 la « Société Internationale de Machines Commerciales » (système d’informationMC) qui est à l’origine d’IBM France.

[4] René Carmille, La mécanographie dans les administrations, Recueil Sirey 1942

[5] Le bureau du Census demanda à James Powers de fabriquer les machines pour le recensement de 1910. Powers fonda en 1911 l’« Accounting and Tabulating Machine Company »: Elle fusionna avec la « Remington Typewriter Company », présidée par James Rand, pour devenir en 1927 la « Remington Rand » qui fusionnera en 1955 avec « Sperry Gyroscope » pour former « Sperry Rand ».

Frederick Bull (1882-1925), ingénieur norvégien, créa en 1922 avec son associé Kurt Kruesen une société de fabrication de machines mécanographiques. Les brevets furent achetés en 1929 par le groupe suisse H. W. Egli qui fonda la compagnie « Egli-Bull ». En 1932, le groupe français Caillies racheta les brevets au groupe « Egli-Bull » pour créer en 1933 la « Société des Machines Bull ».

[6] John von Neumann (1903-1957) ; l'architecture de von Neumann est décrite dans le First Draft of a Report on the EDVAC, Moore School of Electrical Engineering, University of Pennsylvania, 1945.

[7] Philippe Penny et Michel Volle, « La téléinformatique dans l’entreprise », La Recherche, juin 1993.

[8] « Unified Modeling Language » ; Grady Booch, James Rumbaugh et Ivar Jacobson, The Unified Modeling Language User Guide, Addison-Wesley 1998. On peut aussi consulter le site www.rational.com.

[9] André Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1976, p. 613