RECHERCHE :
Bienvenue sur le site de Michel VOLLE
Powered by picosearch  


Vous êtes libre de copier, distribuer et/ou modifier les documents de ce site, à la seule condition de citer la source.
 GNU Free Documentation License.

L’ordinateur et l’intelligence

22 novembre 2003

« These machines have no common sense; they do exactly as they are told, no more and no less. This fact is the hardest concept to grasp when one first tries to use a computer »

(Donald E. Knuth, The Art of Computer Programming, Addison Wesley 1997, volume 1, p. v)

Parmi les fausses questions que conduit à poser un concept mal bâti se trouve celle de l’« intelligence » des ordinateurs. Elle suscite des émotions extrêmes et opposées. « Où est l’homme là-dedans ? » se demande avec angoisse l’individualiste sentimental qui croit être un « humaniste »[1]. Certains, tout aussi émotifs mais dans le genre misanthropique, se félicitent de voir la machine éliminer l’être humain qu’ils jugent peu fiable et moralement douteux[2]. D’autres enfin croient devoir utiliser un vocabulaire emphatique pour célébrer la nouveauté qu’apporte l’ordinateur[3]. D’honorables philosophes[4] et d’excellents ingénieurs[5] disent ainsi des choses très contestables.

Pour éclairer cette question, il est utile de se référer de nouveau à la culture américaine. Nous considérerons ici non plus l’entreprise, mais l’armée[6] : tout comme l’entreprise, l’armée est consacrée à l’action, mais sous la forme la plus urgente et la plus dangereuse. C’est donc dans les doctrines militaires que l’on rencontrera l’expression la plus pure, la plus claire de la doctrine d’action d’une Nation, doctrine qui s’appliquera ensuite dans tous les domaines et en tout premier dans l’entreprise, lieu géométrique de l’action organisée.

La doctrine militaire américaine s’appuie sur le Précis de l’art de la guerre (1838) du Suisse Antoine-Henri Jomini (1779-1869) et, à un moindre degré, sur le Vom Kriege (1832) du Prussien Carl von Clausewitz (1780-1831). Ces deux généraux avaient observé la stratégie de Napoléon, étudié celle de Frédéric II de Prusse, et en avaient tiré les leçons. Rivaux sur le terrain de la théorie, ils se sont beaucoup emprunté l’un à l’autre. Leurs théories sont plus proches que les interprétations qui en sont données : mais, quand il s’agit d’évaluer une influence, l’interprétation d’une théorie a plus de poids que son contenu même. On peut ainsi associer les noms de Jomini et Clausewitz à deux modèles contrastés.

Selon le modèle de Jomini, tout problème est ramené à ses éléments rationnels puis traité de façon scientifique. Jomini entend maîtriser l’art de la guerre en résumant ce qu’elle a de complexe par quelques principes et axiomes évidents. Cette approche satisfait le pragmatisme des Américains : culte de l’offensive, concentration des masses au point décisif pour anéantir l’adversaire, professionnalisation d’une stratégie qui a pour but de gagner les batailles et non de servir par les armes un projet politique. La guerre est un « job » que la nation confie au militaire et que celui-ci exécute.

L’école qui se réclame de Clausewitz ne répudie pas cette modélisation mais postule une continuité entre la guerre et la politique, idée difficilement assimilable par le pragmatisme américain. Cette école insiste par ailleurs sur les conditions de l’action, ces « incertitudes », ces « frictions », ce « brouillard » que Jomini postule négligeables mais qui en pratique nécessitent un travail permanent d’interprétation, de synthèse, de décision.

Le modèle de Jomini, rationnel et planificateur, incite à l’automatisation parfaite : les êtres humains exécutent les ordres de l’automate pré-programmé qui, sur la base d’une information claire et complète, établit de façon optimale le programme de leur action. Mais le modèle de Clausewitz, plus complexe, invite au contraire à articuler l’automate et l’être humain car seul ce dernier, s’il a été bien formé, pourra dans une situation imprévue interpréter des rapports incomplets ou fallacieux et prendre la décision juste.

La discussion sur l’intelligence de l’ordinateur se situe sur cette toile de fond doctrinale. Soit on suppose que les hypothèses du modèle de Jomini sont vérifiées (information parfaite, planification parfaite, etc.) et alors en effet l’action peut être déterminée au mieux par l’automate car il calcule vite et sans erreurs. Soit on suppose que la situation comporte une part d’incertitude, de « brouillard », et alors la contribution du cerveau humain est indispensable.

De ces deux modèles, lequel est le bon ? Lorsqu’il s’agit d’assurer la maintenance d’un équipement, le modèle de Jomini semble s’imposer (sous la seule réserve que le technicien doit émettre une alarme en cas d’imprévu). Mais par ailleurs si l’ordinateur permettait de supprimer l’incertitude, cela se saurait dans les salles de marché : les informaticiens auraient fait fortune à la Bourse.

Si nous reprenons la distinction proposée au début de ce chapitre entre « événement interne » et « événement externe », on peut dire que le modèle de Jomini s’applique aux événements internes, à la conduite du processus de production de l’entreprise, et que le modèle de Clausewitz s’applique aux événements externes, que l’entreprise ne peut ni maîtriser ni organiser entièrement : relations avec les clients et avec les fournisseurs, conditions de la concurrence.

Sur ces événements externes, même si l’information sur le passé et le présent était parfaite - ce qui n’est jamais le cas – l’anticipation du futur comporterait encore une part d’incertitude. Les conditions pratiques de l’action stratégique, celle qui porte non sur l’exécution des tâches mais sur leur conception, sur le positionnement de l’entreprise, sont donc celles que décrit le modèle de Clausewitz. Le modèle de Jomini conforte la confiance en soi du professionnel, mais si celui-ci l’applique aux événements externes il prend le risque de se trouver désarmé devant l’imprévu.

*  *

Ceux qui conçoivent les ordinateurs savent faire la différence entre l’ordinateur et l’être humain. John von Neumann[7] était arrivé à l'informatique par la physique et se servait de l'ordinateur pour résoudre par le calcul des problèmes trop complexes pour être traités analytiquement. C'est lui qui, avec Church et Turing, a conçu les ordinateurs dont nous nous servons aujourd'hui. Certaines de ses réflexions sont à l'origine de l'intelligence artificielle.

Le cerveau lui a fourni une image de l’ordinateur : tout comme le cerveau, l'ordinateur est doté d'une mémoire, d'une capacité de traitement et d'organes sensoriels (entrées et sorties). Le cerveau, être biologique, progresse à l'échelle des dizaines de milliers d'années, alors que l'ordinateur, être artificiel, progresse à l'échelle de la dizaine d'années, donc beaucoup plus vite. Certains en ont conclu que l'ordinateur, « cerveau électronique », avait vocation à supplanter le cerveau humain. « Comment pouvez-vous affirmer, disent-ils, que l'ordinateur sera à jamais incapable d'avoir des émotions et de se comporter comme un être humain ? »

Du point de vue poétique toute parole qui éveille l'intuition est légitime, car la poésie relève d'une démarche mentale antérieure au raisonnement. Mais certaines phrases sont impropres au raisonnement parce qu'elles ne sont pas « falsifiables », pour utiliser le vocabulaire de Popper. « Y a-t-il une vie après la mort ? » La réponse peut être « oui » ou « non » sans que l'expérience puisse trancher, et la conviction intime du croyant lui-même oscille entre ces deux réponses. Donc même si cette question est un intéressant objet de rêverie, du point de vue de la réflexion elle est futile. « L'intelligence des ordinateurs atteindra-t-elle, dépassera-t-elle celle des êtres humains ? » est une phrase du même type. On peut y répondre par oui, par non, ou osciller entre les deux réponses sans pouvoir trancher par l'expérience puisque celle-ci se situe dans un futur indéfini et ne peut s'appuyer sur aucun précédent.

Il existe entre l’ordinateur et l’être humain une différence bien plus grande qu’entre l’être humain et les primates qui lui sont génétiquement proches. Se peut-il qu’un chimpanzé apprenne un jour à parler ou à lire ? Cette hypothèse n’est pas moins plausible que celle de l’intelligence de l’ordinateur[8].

Hypothèse pour hypothèse, nous sommes libres de choisir. Ne serait-il pas alors plus fécond de postuler qu'il existe entre l'ordinateur et le cerveau humain une différence de nature ? Cette dernière hypothèse à plusieurs avantages : d'une part elle est conforme à l'expérience présente car aucun des ordinateurs existants ne se comporte comme un être humain ; en outre, elle indique une piste à l'action : si l'ordinateur et l'être humain sont différents, il importe de les articuler ; enfin, elle fournit à la pensée un cadre utile pour préparer cette action : il est possible de penser l'articulation de deux êtres différents, alors qu'il est impossible de penser l’articulation de deux êtres que l'on suppose identiques, parce que la pensée les confondra.

Von Neumann a perçu les limites de l'analogie entre l'ordinateur et le cerveau humain. Le mécanisme du cerveau, dit-il, est plus lent et plus facilement sujet à l'erreur que celui de l'ordinateur ; mais la  structure du cerveau est, elle, plus complexe que celle de l’ordinateur. Le cerveau met en oeuvre des processus parallèles et analyse les signaux de façon statistique (notamment en évaluant des corrélations). Cela lui confère une grande rapidité et une grande fiabilité malgré les défauts que comporte son mécanisme. En outre la mémoire du cerveau, qui utilise une grande diversité de supports, semble pratiquement infinie même si la mémoire consciente est, à chaque instant, limitée.

Ainsi notre héritage génétique nous aurait doté d'un automate naturel dont les capacités diffèrent essentiellement de celles d'un ordinateur. Notre cerveau est supérieur à l’ordinateur pour certaines fonctions (interpréter, synthétiser, comprendre, expliquer, décider, concevoir), inférieur pour d'autres (classer et trouver une information, calculer, recopier, transcoder). La question pratique à laquelle nous sommes confrontés n'est pas de mettre au point un ordinateur dont le comportement ne diffèrerait en rien de celui d'un être humain - but peut-être hors de portée et en tout cas éloigné de nos priorités actuelles - mais de réaliser efficacement l'articulation entre l'« être humain organisé » (car bien sûr il ne suffit pas de considérer un seul cerveau : il faut considérer la société entière avec ses institutions, notamment l’entreprise qui est le lieu même de l’organisation) et l'« automate programmable doué d'ubiquité » (forme que l'ordinateur a prise grâce au réseau).

Turing a-t-il perdu son pari ?

Dans un article qui a eu une immense influence[9], Alan Turing a soutenu qu'il était possible de concevoir une expérience prouvant que l'intelligence de l'ordinateur ne pouvait pas être distinguée de celle d'un être humain. Le pari de Turing a éveillé l'ambition de l'intelligence artificielle.

Il faut pouvoir faire abstraction de l’apparence physique pour répondre à la question « est-ce que les machines peuvent penser ? ». Turing propose donc le « jeu de l’imitation » qu’il définit ainsi : « [The imitation game] is played with three people, a man (A), a woman (B), and an interrogator (C) who may be of either sex. The interrogator stays in a room apart front the other two. The object of the game for the interrogator is to determine which of the other two is the man and which is the woman. He knows them by labels X and Y, and at the end of the game he says either "X is A and Y is B" or "X is B and Y is A.". The interrogator is allowed to put questions to A and B (…) We now ask the question, "What will happen when a machine takes the part of A in this game?" Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman? These questions replace our original, "Can machines think?" (…) I believe that in about fifty years' time it will be possible to programme computers, with a storage capacity of about 109, to make them play the imitation game so well that an average interrogator will not have more than 70 per cent chance of making the right identification after five minutes of questioning. (…)The only really satisfactory support that can be given for [this] view (…) will be that provided by waiting for the end of the century and then doing the experiment described.»

Le test est peu exigeant : il ne dure pas plus de cinq minutes et le seuil d’efficacité est modeste (l’ordinateur doit tromper l’examinateur dans au moins 30 % des cas). Il est audacieux de dire qu’une telle expérience, si elle réussit, suffise pour affirmer que des machines peuvent penser.

Quoiqu’il en soit, Turing a formulé à la fois un pari et le test qui permet de le vérifier. Nous pouvons faire le test, puisque la fin du siècle est passée. Certes l’ordinateur s’est révélé redoutable au jeu d’échecs ; mais dans un travail aussi « simple » que la traduction d’un texte littéraire il fournit un résultat tellement médiocre que l’examinateur moyen le distingue immédiatement d’un traducteur humain.

Si nous prenons Turing au mot, nous pouvons donc dire que son pari a été perdu. Mais ce serait là une réfutation peu satisfaisante : quelqu’un d’autre pourrait prendre la relève et parier de nouveau en fixant comme échéance la fin du XXIe siècle, ou du troisième millénaire etc.

La meilleure réfutation de Turing s’appuie cependant sur la définition de l’ordinateur qu'il donne lui-même : « The idea behind digital computers may be explained by saying that these machines are intended to carry out any operations which could be done by a human computer. The human computer is supposed to be following fixed rules; he has no authority to deviate from them in any detail. We may suppose that these rules are supplied in a book, which is altered whenever he is put on to a new job. He has also an unlimited supply of paper on which he does his calculations. He may also do his multiplications and additions on a "desk machine," but this is not important. The book of rules which we have described our human computer as using is of course a convenient fiction. Actual human computers really remember what they have got to do. If one wants to make a machine mimic the behaviour of the human computer in some complex operation one has to ask him how it is done, and then translate the answer into the form of an instruction table. Constructing instruction tables is usually described as "programming." To "programme a machine to carry out the operation A" means to put the appropriate instruction table into the machine so that it will do A. »

Si Turing définit ainsi l’ordinateur, puis affirme par ailleurs qu’il sera difficile de distinguer au « jeu de l’imitation » un ordinateur d’un être humain, cela implique qu’il sera tout aussi difficile de distinguer un calculateur humain, assujetti au respect de règles fixes consignées dans un cahier, d’un être humain ordinaire qui, n’étant pas assujetti à de telles règles, est libre de prendre des initiatives et de s’adapter à l’imprévu.

Il s'agit finalement de savoir si l’on suppose l’imprévu négligeable ou non : on retrouve ainsi le débat entre les écoles de pensée qui s’inspirent de Jomini et Clausewitz. Il est possible de rédiger le cahier de règles de sorte que le calculateur dispose de consignes lui permettant de faire face à une grande diversité de situations (c’est ainsi que l’ordinateur joue aux échecs), mais la typologie des situations que décrit le programme est nécessairement finie alors que l’imprévu potentiel que comporte le rapport d’un être humain au monde est indéfini : et il faut bien que l'être humain sache « se débrouiller » là où l’ordinateur (ou le calculateur humain, pur exécutant) ne disposera plus de règles et ne saura donc que faire ou commettra des erreurs (c’est ce type de difficulté que l’ordinateur rencontre en traduction automatique).

C’est le sens de la réfutation de Turing par Popper[10]: « Turing a affirmé qu'il était impossible, par principe, de distinguer les hommes des ordinateurs à partir de leurs activités observables (leurs comportements), et il a défié ses adversaires de spécifier une activité ou un comportement humain observable quelconque qu'un ordinateur fût, par principe, incapable de réaliser. Mais ce défi est un piège intellectuel : spécifier un type de comportement reviendrait à établir une spécification pour la construction d'un ordinateur. En outre, si nous utilisons et construisons des ordinateurs, c'est parce qu'ils sont capables de faire beaucoup de choses que nous ne savons pas faire ; tout comme je me sers d'un crayon ou d'un stylo pour calculer une addition que je suis incapable de faire de tête. "Mon stylo est plus intelligent que moi", disait souvent Einstein. Mais ceci ne prouve pas qu'il soit impossible de le distinguer de son stylo. »  

*  *

Turing fut un génie et aussi un être humain dont les souffrances suscitent la compassion[11]. Il a contribué à la naissance de l'informatique, bouleversement dont nous n'avons pas fini d'explorer les conséquences. Il est naturel que le témoin d’un événement d’une telle importance ait du mal à en circonscrire la portée. Constatant la rapide croissance des possibilités de l'ordinateur, Turing a extrapolé et il s'est trompé.

Les Grecs avaient découvert la puissance de l'abstraction ; on voit dans l’Anabase de Xénophon l’ivresse intellectuelle et l’orgueil que cette découverte leur a apportés. Platon a été jusqu’à affirmer que seules les idées sont réelles : « l'idée de cheval est plus réelle que le cheval qui gambade dans le pré, tout comme l'idée de cercle est plus réelle que le cercle que je trace avec un compas ». L'idéalisme platonicien a inspiré la philosophie de Plotin et de Saint Augustin, la théologie catholique, elle a influencé les hommes de la Renaissance et bien d'autres : ce n'est pas parce qu'une représentation est inexacte ou incomplète qu'elle n'a pas d'impact, surtout quand elle est formulée par une personne de grand talent.

Le pari de Turing a eu des effets contrastés. Le parallèle entre le cerveau électronique et le cerveau humain a suscité des recherches fécondes, mais les travaux en intelligence artificielle ont donné des résultats décevants. En focalisant l'attention sur l'intelligence de l'ordinateur et donc sur la similitude entre celui-ci et l'être humain, ce pari a eu l’inconvénient d’inciter à ne pas se préoccuper de leurs différences.

Quelles sont nos priorités aujourd’hui ? Est-ce de rêver à l’intelligence que la machine, par hypothèse, pourrait déployer dans quelques siècles ou quelques millénaires, ou d’agir pour articuler au mieux les ressources de l’automate programmable (l’ordinateur) avec ce que sait faire l’être humain organisé dans l’entreprise (comprendre, expliquer, décider, concevoir) ?

Choisir la seconde réponse, c’est dire que le pari de Turing n’est pas pertinent.

Différence entre l’ordinateur et le cerveau

Les questions que nous venons d’évoquer n’ont rien de fondamentalement nouveau. L'être humain s'est déjà accommodé de plusieurs « successeurs » potentiels : le langage, qui a une existence propre depuis que des hommes se sont mis à parler ; l'écriture, support de la mémoire ; l'impression, support de la diffusion des textes. Des machines remplacent nos jambes (bateau, bicyclette, automobile, avion), des prothèses assistent nos sens (lunettes, appareils acoustiques, téléphones, télévision). L'élevage et l'agriculture pratiquent la manipulation génétique, depuis le néolithique, par la sélection des espèces. La bionique, l'intelligence artificielle ne font que s’ajouter aujourd’hui au catalogue des prothèses qui assistent nos activités physiques ou mentales. N'avons nous pas tendance, par défaut de perspective historique, à nous exagérer leur nouveauté ?

Il existe entre la complexité du logiciel et celle du cerveau d'un être vivant une différence de nature. Aussi compliqué soit-il, le logiciel est de taille finie puisqu'il s'agit d'un texte. Mais toute théorie, aussi puissante soit-elle, reste incomplète ; aucun objet naturel (et le cerveau en est un) ne peut donc être reproduit par un texte. Si un texte poétique semble parfois nous mettre en relation avec le monde lui-même, c'est parce que notre cerveau le complète par le réseau de connotations qui enrichit l'apport des mots et, au prix d'une imprécision que le logiciel ne saurait tolérer, nous ouvre la perspective sans limites de la rêverie. 

L'intuition de ceux qui vivent dans un univers de science fiction ou de dessin animé s'affranchit de l'expérience : dans cet univers-là toutes les métamorphoses sont possibles, toutes les chimères peuvent exister, quiconque évoque une impossibilité serait immédiatement démenti. Mais l'expérience distingue le possible de l'impossible et assigne des bornes à notre action. Il existe dans le monde de l'expérience des questions pertinentes, c'est-à-dire utiles à l'action, et d'autres qui ne le sont pas. Les rêveries sur l'intelligence des ordinateurs sont impertinentes si elles détournent des questions pertinentes. 

Nous sommes confrontés non à des ordinateurs intelligents mais à un automate programmable auquel le réseau confère l'ubiquité. Sa puissance peut aider l'être humain dans son travail et ses jeux, mais le cerveau lui reste supérieur dans l'analyse (sélectionner, observer, interpréter les données relatives à un domaine nouveau) et la synthèse (expliquer à un autre ce que l'on a compris), ainsi que dans la décision et la conception (pour lesquelles, certes, l'ordinateur peut nous assister utilement mais non nous remplacer).

Nous qui savons tant bien que mal parler, lire, écrire, compter, domestiquer plantes et animaux, fabriquer produits et outils, communiquer, déposer et retrouver notre mémoire collective dans des encyclopédies etc., nous devons apprendre à tirer parti de l'automate programmable. Pour voir clair dans les questions de savoir-faire et de savoir-vivre, d'organisation collective et personnelle que cela pose, il importe de percevoir la frontière qui nous sépare de lui, de discerner ce qu'il sait faire de ce que nous savons faire, de sorte que son insertion dans notre action, dans nos processus, puisse être judicieuse. Il faut pour tracer cette frontière un outil conceptuel aussi précis que le scalpel du chirurgien.  

Or les rêveries sur l'intelligence de l'ordinateur brouillent cette frontière. On ne peut pas penser la relation entre deux êtres dont on a postulé l'identité, fût-elle asymptotique. L'intelligence de la machine s'actualisant dans un futur indéfini, l'intuition s'évade des contraintes de l'action et tourne le dos aux questions qui se posent aujourd’hui et nous sautent aux yeux : comment assister nos processus opérationnels ; tirer parti de la conjugaison des données et du commentaire ; fonder la solidité des référentiels ; articuler les médias ; faire interopérer les systèmes d’information de diverses entreprises ; assurer la dialectique du système d’information et de la stratégie, etc.  

Ceci n'est pas sans conséquences. La rêverie délasse le praticien expert : il  n'est pas dupe des illusions qu'elle comporte et il est rattaché à l'expérience par le ressort de rappel de son activité professionnelle. Mais parmi les personnes qui décident en matière de système d'information les praticiens experts sont une petite minorité. La diffusion médiatique de rêveries sur l’intelligence de l’ordinateur risque de placer ces personnes sur une orbite mentale d'où il leur sera impossible de revenir au sol. Ce n'est pas de rêveries impertinentes que nous avons besoin dans ce domaine difficile, mais de réalisme scientifique et de méthode expérimentale. 

L’ordinateur ne sait pas réaliser des choses que l'être humain apprend à faire lors des premières années de sa vie : il ne comprend pas le langage humain ordinaire, avec ses allusions et ses connotations. Il ne sait pas faire la synthèse d’un ensemble de faits et en tirer la conclusion. Il ne sait pas prendre de décision. Il n’a pas d’imagination. Si l’on a l’impression qu’il sait faire tout cela, c’est que l’on commet une erreur classique : celle qui consiste à dire « l’ordinateur calcule » quand on se sert de l’ordinateur pour faire un calcul, ou que « l'ordinateur décide » quand on l'utilise pour aider la décision.

Ce n’est pas l’ordinateur qui calcule ni qui décide, mais l’utilisateur qui se fait aider par l’ordinateur pour calculer ou décider. Cette aide rend parfois possibles des choses qui, autrement, auraient été impossible : ainsi le pilote automatique d’un avion permet de maintenir celui-ci pendant toute la durée du vol dans la position qui minimise la consommation de carburant, alors pour le pilote humain ce serait aussi délicat que de tenir une assiette en équilibre sur une aiguille, performance qu’il est difficile de réaliser des heures durant.

Les écrivains de science fiction, les cinéastes, créent un monde imaginaire ; il leur est facile d’y doter les ordinateurs de facultés extraordinaires, comme l’a fait Stanley Kubrick dans « 2001 : odyssée de l’espace », ou de mettre en scène des robots qui se comportent comme des êtres humains. Ils sculptent ainsi un imaginaire fallacieux[12]. 

*  *

Pour progresser dans l’utilisation de l’ordinateur, il faut se rappeler qu’il obéit à la lettre, sans initiative ni interprétation, aux ordres qui lui sont donnés ; il apporte à l’être humain une aide précieuse, mais bien délimitée. L’expression « assisté par ordinateur », que l’on utilise pour le dessin, la gestion, la conception etc., a une portée très générale : en tout et pour tout, l’ordinateur nous assiste ; les utilisations les plus intelligentes de l’informatique sont celles qui cultivent cette relation entre l’ordinateur et nous, en partant d'une claire conscience de la différence qui nous sépare de lui.

 
La traduction automatique

Il se peut que la « traduction automatique » soit un mythe. Les chercheurs qui ont tenté de mettre au point un logiciel capable de traduire automatiquement des textes littéraires d’une langue à l’autre ont obtenu des résultats décevants.

La traduction automatique ne donne de résultat acceptable que lorsqu’il s’agit textes formalisés, techniques, précis, sans surprises du point de vue de la syntaxe. Par contre les textes littéraires, proches de la langue ordinaire et riches en connotations, donnent des résultats ridicules lorsqu’ils sont soumis à la traduction automatique.

Pour voir ce qu’il en est, appliquons le logiciel fourni par AltaVista à un paragraphe de la fameuse lettre ouverte de Bill Gates[13] :

To me, the most critical thing in the hobby market right now is the lack of good software courses, books and software itself. Without good software and an owner who understands programming, a hobby computer is wasted. Will quality software be written for the hobby market?


On obtient ceci :

À moi, la chose la plus critique sur le marché de passe-temps est en ce moment le manque de bons cours, de livres et de logiciel de logiciel lui-même. Sans bon logiciel et propriétaire qui comprend programmant, un ordinateur de passe-temps est gaspillé. Le logiciel de qualité sera-t-il écrit pour le marché de passe-temps?

Il est par contre possible d’écrire un bon logiciel de traduction assistée par ordinateur qui aidera efficacement un traducteur connaissant bien la langue de départ et très bien la langue d’arrivée. Mais les producteurs de logiciels et les organismes de recherche ont préféré dépenser des fortunes pour la traduction automatique au lieu de chercher à aider les traducteurs.

Il existe une façon raisonnable d’utiliser la traduction automatique. L’automate peut balayer un ensemble de textes écrits dans une langue que l'on ignore, en fournir une transcription sommaire et aider ainsi à repérer ceux qui méritent d'être effectivement traduits ; puis la traduction proprement dite sera faite par traducteur humain assisté par l'ordinateur. On est loin, avec cette utilisation modeste, des ambitions initiales de la traduction automatique.
 

 

[1] Paul Virilio, La bombe informatique, Galilée, 1998.

[2] Jean-Michel Truong, Totalement inhumaine, Les empêcheurs de penser en rond, 2002.

[3] Pierre Lévy, L’intelligence collective et ses objets, La Découverte 1994.

[4] « Aujourd’hui notre mémoire est dans le disque dur. De même, grâce au logiciel, nous n’avons plus besoin de savoir calculer ou imaginer. L’humain a la faculté de déposer les fonctions de son corps dans les objets. Et il en profite pour faire autre chose. » (Michel Serres in L’Expansion, 20 juillet 2000).

[5] « Dans 10 à 20 ans, l'ensemble des ordinateurs interconnectés aura des capacités intellectuelles qui dépasseront l'homme dans tous les domaines » (Jean-Paul Figer)

[6] Vincent Desportes, L’Amérique en armes, Economica 2002, pp. 155–176.

[7] John von Neumann, The Computer and the Brain, Yale Nota Bene 2000. C'est le dernier ouvrage de von Neumann. Miné par le cancer dont il est mort en 1957, il n'a pas pu l'achever. Il lui accordait beaucoup d'importance.

[8] « (…) es realmente el chimpancé que quiere aprender a leer, un pobre tipo que se da con la cara contra las paredes, y no se convence, y vuelve a empezar. Ah, pero si un día el chimpancé se pone a leer, qué quiebra en masa, qué desparramo, qué sálvese el que pueda, yo el primero » (Julio Cortázar, El perseguidor, Alianza Editorial 1993, p. 63)

[9] Alan M. Turing, « Computing machinery and intelligence », Mind, 59, 1950, pp. 433-460.

[10] Karl Popper, La connaissance objective, Flammarion 1998, p. 343, note 2, traduction de Objective Knowledge, Oxford University Press, 1979. Popper, comme d’autres commentateurs, pousse à l’extrême la formulation du test de Turing qui est comme nous l’avons vu beaucoup plus modeste. Mais ce n’est que justice, puisque Turing a prétendu que la réussite de ce test permettrait d’affirmer que les machines « pensent ».

[11] Homosexuel, Alan Turing (1912-1954) fut comme Oscar Wilde (1854-1900) une victime du système judiciaire britannique. Il s’est très vraisemblablement suicidé.

[12] « Despite what you see in movies, real-world software is incredibly primitive when it comes to what we call "simple common sense". For example, consider how incredibly stupid most Web filtering software is at deriving meaning from human-targeted content » (Bruce Schneier, « Semantic Network Attacks », Communications of the ACM, décembre 2000).

[13] Bill Gates, « An Open Letter to Lobbyists », Computer Notes, 3 février 1976.