RECHERCHE :
Bienvenue sur le site de Michel VOLLE
Powered by picosearch  


Vous êtes libre de copier, distribuer et/ou modifier les documents de ce site, à la seule condition de citer la source.
 GNU Free Documentation License.

Marché du logiciel : dynamique des équilibres

Pour comprendre la succession des équilibres sur le marché des logiciels, il faut remonter jusqu’aux années 60 puis situer les dates du passage d’un équilibre à l’autre (le repérage de telles dates charnières est toujours délicat : nous identifierons des événements caractéristiques sans attacher trop d’importance à une datation précise de la charnière).

Dans les années 60, la pratique du logiciel libre est répandue sans être théorisée. Elle est mise en œuvre par des « hackers » : ce terme ne désignait pas comme aujourd’hui des briseurs de codes, des fabricants de virus, des fraudeurs, mais les pionniers de l'informatique personnelle (voir "Histoire du Micro-ordinateur").

On peut dater de 1969 l’émergence d’un marché du logiciel. Jusqu’à cette date, IBM vendait conjointement le matériel et le logiciel (systèmes d’exploitation, langages de programmation, applications) qui permettait de faire fonctionner le matériel. En 1969, pour éviter que les concurrents ne bénéficient gratuitement des logiciels qu’il avait produits - et aussi pour se prémunir contre des procès pour cause de monopole - IBM a mis en place une politique d’« unbundling » (tarification séparée du matériel et du logiciel).

A partir de la publication de la lettre ouverte de Bill Gates en 1976 [1], le commerce du logiciel pour PC compilé et vendu comme une boîte noire se met en place. 

On peut dater de 1991 – date de la première version de Linux, mais aussi date de naissance du World Wide Web – la résurgence du modèle du logiciel ouvert (voir Open Source Initiative, « Open Source Definition » , 1999). Il se développera en s’appuyant sur l’Internet et en tirant argument de divers défauts que comporte l'économie du logiciel compilé.

Entre 1976 et 1991, le logiciel ouvert n’avait pas disparu ; il a constitué un thème de militantisme pour des personnes comme Robert Stallmann (voir Richard Stallman, « The GNU Operating System and the Free Software Movement » in DiBona, Chris, Ockman, Sam, and Stone, Mark (eds.), Open Sources:Voices from the Open Source Revolution, O’Reilly, 1999 ) ou Eric Raymond ; cependant, s’il avait un rayonnement intellectuel certain, sa viabilité économique paraissait douteuse. Il n’en est plus de même maintenant : le modèle du logiciel ouvert a gagné en crédibilité durant les années 90, il a conquis des parts de marché [2] et son avenir est garanti. Il reste à situer la ligne selon laquelle le marché se partagera entre les deux modèles.

L’ « Unbundling » d’IBM

Le « consent decree » de 1956 entre IBM et le département de la justice oblige IBM à offrir à la vente les matériels qu’auparavant il louait exclusivement, à facturer séparément les pièces détachées et la maintenance et à publier l’information sur la maintenance de ses machines pour qu'elle puisse être exécutée par d'autres entreprises.

Des entreprises de leasing se créent alors : elles achètent des machines IBM et les vendent en leasing à un prix inférieur au loyer que pratique IBM. Pour les contrer IBM accéléra le rythme d’introduction des nouvelles machines. Par ailleurs la publication des informations sur la maintenance avait rendu visibles les interfaces entre machines IBM. RCA, Amdahl et  Fujitsu ont alors pu offrir des ordinateurs compatibles avec les machines d'IBM ; de nombreuses entreprises ont offert des périphériques compatibles (écrans, lecteurs de disques, lecteurs de bandes et imprimantes).

IBM offrait par ailleurs à ses clients ses programmes et services d’ingénierie sans les facturer séparément : leur coût était inclus dans le prix du matériel, l’ensemble constituant un « paquet » (en anglais « bundle »). Cette formule simplifiait la vie des clients. Mais les acheteurs de matériels compatibles disposaient ainsi gratuitement de ces services dont les concurrents d’IBM n’avaient pas supporté le coût.

Dès 1964, le Spectra 70 de RCA a été perçu comme une menace pour l’IBM 360 ; mais « les ingénieurs de RCA n’ont pas vu l’importance de la compatibilité et n’ont pas su résister à la tentation d’introduire des « améliorations » par rapport au S/360. Il en résulta que les machines de RCA ne pouvaient pas utiliser sans modification les programmes en S/360. Cette conversion étant difficile, peu de clients achetèrent les systèmes de RCA (voir Watts S. Humphrey , “Software Unbundling : A Personal Perspective”, IEEE Annals of the History of Computing, janvier-mars 2002, p. 59.)

Il semblait impossible de protéger les logiciels par des brevets ; les experts d’IBM conçurent donc en 1966 un système associant copyright et licence d’utilisation. En janvier 1969, le département de la justice engagea des poursuites contre IBM en application de la loi antitrust. L’« unbundling » a été annoncé par IBM en juin 1969 : moyennant une réduction de 3 % du prix du matériel, les logiciels seraient vendus désormais à part. Par la suite, lorsque diverses entreprises attaquèrent IBM en justice en s'appuyant sur les dispositions antitrust, IBM gagna les procès en tirant argument de l’unbundling.

L’unbundling a transformé le commerce du logiciel et de l’ingénierie. IBM Global Services est devenue la partie la plus importante et la plus profitable d’IBM. L’interface de programmation (API) s’est stabilisée pour répondre aux besoins de compatibilité des utilisateurs, et cette stabilité a favorisé la diversification de l’offre de logiciels.

Naissance du marché du logiciel compilé

Le marché du du logiciel compilé pour PC, utilisable mais illisible pour l’utilisateur, démarre avec la « Open Letter to Hobbyists » publiée par Bill Gates le 3 février 1976 (voir "Histoire du Micro-ordinateur"). Gates y accusait de vol les « hobbyistes » qui avaient copié son interpréteur BASIC ; il disait que le développement, étant un travail, devait avoir un propriétaire, être payé et protégé contre le vol.

Bill Gates avait alors 20 ans. Ce jeune homme avait un fort potentiel, comme on l'a vu par la suite : d'une part sa compétence en informatique faisait de lui un bon hacker ; d'autre part - et contrairement à la majorité des autres hackers - son milieu social l’avait initié aux affaires. Son père était un des plus grands avocats d'affaires de Seattle ; sa mère siégeait au conseil d'administration de plusieurs grandes entreprises et universités. Il était ainsi mieux préparé que d’autres à percevoir le potentiel marketing de la vente du logiciel compilé, et peut-être aussi la nécessité d’une telle organisation du marché pour fournir la diversité des logiciels dont les PC allaient avoir besoin.

Les hackers sont restés désarmés devant son attaque. Ils étaient en effet coincés par deux cultures américaines entre lesquelles ils ne surent comment arbitrer : celle du pionnier qui va de l'avant dans des territoires vierges et se sert de l'« open source » pour se débrouiller ; celle de la libre entreprise, qui ne peut se concevoir sans un droit de propriété protégé.

Gates définit ainsi le modèle économique qui s'imposera sur le marché des logiciels pour PC. Il a créé une industrie du logiciel dont il est devenu le plus grand dirigeant. Le modèle qu’il a inventé était sans doute alors le seul possible, et sa fécondité suscite l’admiration.

Limites du logiciel compilé

Cependant ce modèle a une limite qui se révèle avec la complexification des logiciels. Elle est due notamment aux exigences de la « compatibilité ascendante » : la version Vn d’un logiciel doit être capable de lire les fichiers composés avec les versions Vn - k antérieures. En passant d’une version à l’autre, le logiciel s’alourdit ainsi de conventions anciennes dont il doit garder la trace.

La complexification est due aussi à la cible marketing elle-même : pour que le logiciel puisse couvrir un large marché, il doit offrir une grande diversité de fonctionnalités et pouvoir être exécuté sur des plates-formes diverses. Chaque client n’utilisera donc qu’une petite partie du logiciel qu’il a acheté et qui encombre la mémoire vive de son ordinateur. 

Or plus un logiciel est compliqué, plus il est difficile à « déboguer ». Le logiciel est une construction fragile. L’éradication des bogues est d’autant plus difficile que l’on risque toujours, en corrigeant une erreur, d’en introduire d'autres. C’est une tâche qu’il est impossible d’automatiser complètement : la démonstration la plus intéressante de la théorie de l’informatique, application du théorème de Gödel (voir "Limites de l'informatique"), est qu’il est impossible de réaliser un programme capable de vérifier entièrement les programmes.

On ne peut physiquement plus désormais, même avec 30 000 programmeurs groupés sur un campus (plus quelques sous-traitants qui coopèrent à travers l’Internet), faire converger le processus de « déboguage » d’un grand logiciel comme Windows. Les versions successives sont commercialisées avec leurs bogues et les utilisateurs subissent des incidents désagréables. 

Organisation de la création d’un logiciel complexe

Pour réaliser une construction intellectuelle complexe comme un système d’exploitation ou un grand logiciel applicatif, il faut dans tous les cas que les quatre éléments suivants soient réunis :
- un centre capable d’attirer les contributeurs et de sélectionner les contributions à retenir ;
- des contributeurs qui réalisent le travail de développement ;
- un réseau de communication ;
- un moyen de rémunérer les contributeurs.

Le modèle « Microsoft » a permis de rassembler la masse critique de contributeurs nécessaire à la production des logiciels pour PC. Le centre, c’est Bill Gates lui-même, assisté par une équipe de proches collaborateurs ; le réseau, c’est le RLPC sur le campus de Redmond et l’Internet entre Microsoft et ses sous-traitants ; les contributeurs sont les programmeurs de Microsoft et les entreprises sous contrat ; la rémunération est financière.

Dans le modèle « Linux », le centre est Linus Torvalds assisté par une équipe de proches collaborateurs ; le réseau est l’Internet, les contributeurs sont potentiellement tous les développeurs du monde entier ; la rémunération est symbolique (ce qui ne veut pas dire qu’elle soit irréelle), ce qui implique que le centre soit un « dictateur bienveillant » (voir Jean Tirole et Josh Lerner « The simple economics of Open Source », Journal of Industrial Economics, July 24, 2001).

Le modèle « Linux »

La culture finlandaise de Linus Torvalds [3] le libère des dogmes de la libre entreprise à l'américaine. Il tire parti de l'Internet pour utiliser le mode de développement « open source » : le code source de Linux est disponible sur l’Internet, ainsi d’ailleurs que celui de Java, Perl etc.

Quiconque repère un bogue peut alors, s’il en a la compétence, proposer une correction qui sera soumise au « dictateur bienveillant ». L'Internet élargit à des millions de programmeurs le cercle des contributeurs potentiels ; il permet d'accélérer la convergence du déboguage et de poursuivre sans fin le processus de perfectionnement. Il permet aussi à l’utilisateur de choisir « à la carte » les fonctionnalités dont il a besoin, ce qui réduit fortement la taille des logiciels.

Se crée alors, en contraste avec l'économie marchande du logiciel compilé, une économie indirecte de la reconnaissance professionnelle autour du logiciel libre [4] : « indirecte » parce que, si les développeurs contribuent gratuitement à Linux, ils sont respectés dans leurs entreprises et prennent donc de la valeur sur le marché. L’économie de la reconnaissance est une économie symbolique, mais non une économie de la gratuité : le symbole est ici rémunérateur à la fois psychologiquement et financièrement [5]. D’ailleurs logiciel libre ne signifie pas « logiciel gratuit », mais « logiciel dont le code source est lisible ». Une économie marchande s’est bâtie sur le logiciel libre qui se vend toutefois à des prix inférieurs à ceux du logiciel compilé.

Le « dictateur bienveillant »

Un gros logiciel ne pouvant aboutir que si sa production est animée par un « dictateur bienveillant », le talent nécessaire pour jouer ce rôle est crucial. L’expression « dictateur bienveillant » est bien sûr paradoxale. Il faut la comprendre ainsi : beaucoup de personnes sont autorisées à suggérer des modifications du code, mais seule une toute petite équipe est autorisée à introduire effectivement les modifications : c’est cela le côté « dictateur » ; mais par ailleurs, il importe que cette petite équipe manifeste de la considération aux personnes qui font des suggestions, même et surtout lorsque la suggestion n’est pas retenue : si le « dictateur » était désagréable et méprisant, il ne recevrait plus de suggestions et le processus d’amélioration serait stoppé. La « bienveillance », c’est l’attitude par laquelle le « dictateur » manifeste sa considération aux contributeurs.

Le retour de la logique « logiciel libre » met en péril la logique « programme compilé (cher) en boîte ». L’issue de la lutte est prévisible : la qualité est du côté du logiciel libre qui seul permet de faire converger le déboguage ou du moins de l’accélérer. On peut compter sur le talent stratégique de Bill Gates : il saura adopter souplement le système de l'adversaire, même si pour le moment Microsoft résiste bec et ongles en tentant de convaincre les acheteurs et les administrations que le logiciel libre est dangereux.. Linus Torvalds le dit avec philosophie : « Ma victoire, ce sera quand Microsoft se mettra au logiciel libre ».

Limites du logiciel libre

Le logiciel libre a lui aussi ses limites : il arrive qu’il se diversifie en variantes, et qu’il soit déficient du point de vue de la documentation, des interfaces utilisateurs ou de la compatibilité ascendante. Certains disent que le logiciel libre est destiné à des experts, alors que Microsoft a eu l’intelligence de faire des produits destinés à l’utilisateur non expert [6] : en effet les administrateurs des serveurs Apache ou Sendmail sont plus experts que l’utilisateur moyen d’un PC.

Ensuite, les créateurs de logiciel libre sont loin de se compter par millions. Les statistiques montrent que les contributeurs vraiment actifs sont peu nombreux et que la plupart des contributions sont très simples (ce qui ne veut pas dire qu’elles ne soient pas précieuses : l’alarme qui indique une bogue est toujours bienvenue). Pour Apache, 83 à 91 % des modifications proviendraient de 15 programmeurs (Audris Mockus, Roy Fielding and James Herbsleb, « A Case Study of Open Source Software Program Movement: The Apache Server », 2000).

Le logiciel libre et les pirates

Certains disent que nous allons vers un « Pearl Harbor électronique » [7]. Pourquoi ? parce que les pirates (terme qu’il faut préférer à « hackers »pour ne pas les confondre avec les sympathiques pionniers des années 60 et 70) progressent alors que la recherche sur la sécurité piétine. 

Les pirates progressent parce qu'ils utilisent les méthodes du logiciel libre : ils diffusent le code source de leurs programmes et en partagent les améliorations. La virulence de leurs produits augmente, leur compétence progresse, le nombre et l'ingéniosité des attaques croissent exponentiellement. Leur activité devient rentable : les pirates peuvent racketter des entreprises vulnérables à qui ils vendent leur « protection », copiant ainsi les recettes éprouvées de la mafia.

Pour faire face aux pirates, on compte seulement 200 chercheurs compétents en sécurité dans les universités et entreprises américaines. Dès qu'un chercheur devient compétent, il est embauché par une entreprise qui veut utiliser son savoir pour se protéger : il en résulte une pénurie de professeurs qui explique le faible nombre de diplômés experts en sécurité. D'une façon paradoxale, la vigueur de la demande assèche ici la formation des compétences.

Ainsi la lutte est inégale : d'un côté les pirates tirent parti des méthodes de production du logiciel libre, construisent leur rentabilité et se multiplient ; de l'autre, la recherche est entravée par le copyright, vidée de ses compétences par l'appel du marché, et elle ne suit pas une politique d'ensemble. Une simple extrapolation de cette tendance désigne le futur vainqueur, ce qui est extrêmement inquiétant. 

On observe toutefois chez les pirates une certaine retenue : ils pourraient déjà bloquer tout l'Internet, et ils n'en font rien. Pourquoi ? parce que la plupart d'entre eux sont des joueurs, que leur petit jeu les amuse beaucoup, et qu'ils ne pourraient plus jouer s'ils bloquaient leur terrain de jeu. Mais il suffirait alors qu'il se trouve parmi eux un pervers, quelqu'un qui prenne plus de plaisir à nuire qu'à jouer (ou qui ait, pour des raisons quelconques, un fort intérêt à nuire) pour que le danger devienne réalité.

Tentation de l’« enclosure »

Certaines des innovations permises par l’Internet (moteurs de recherche gratuits, échanges de fichiers audio et bientôt vidéo, création coopérative de bases de données) ont compromis l’équilibre économique des détenteurs de droits et des diffuseurs. Il en résulte un développement des techniques visant à instaurer un contrôle : « policy based routing » de Cisco ; « réseaux intelligents » des opérateurs télécoms. La vente des copies de logiciels peut être remplacée par un transfert temporaire du droit d’utilisation d’après le projet d’UCITA (Uniform Computer Information Transaction Act [8]). Les logiciels peuvent être protégés par des brevets depuis 1980 : en 1999, les brevets sur les logiciels ont représenté 14 % du nombre des brevets aux Etats-Unis. Le DMCA (Digital Millenium Copyright Act) de 1998 renforce la protection des données informatiques : toute tentative de décryptage est interdite. La durée du copyright augmente, passant de 14 ans à 70 ans après la mort de l’auteur.

Michel Gensollen [9] propose de redéfinir droits de propriété sur les biens informationnels, de telle sorte que le coût fixe de production puisse être équilibré par des recettes tout en protégeant la facilité d’utilisation : il faudrait ainsi distinguer le droit d’accès, l’usufruit, le droit d’administration, le droit d’exclusion (déterminer qui a accès au bien), le droit d’aliénation. La rémunération devrait reposer sur des redevances plutôt que sur des droits de propriété. De nouveaux acteurs devraient émerger pour assurer l’animation des clubs de producteurs et le partage des droits.

22 novembre 2002


[1] Bill Gates, « Open Letter to Hobbyists », Computer Notes, 3 février 1976. Voir cette lettre dans "Histoire du Micro-ordinateur".

[2] Notamment le marché des serveurs Web : en 2000, 60 % des serveurs utilisaient Apache contre 20 % à Microsoft IIS et 7 % à Netscape Enterprise. Le nombre des utilisateurs de Linux dans le monde se situerait dans la fourchette de 7 à 16 millions.

[3] Les grands créateurs de logiciels ont chacun des racines culturelles profondes : les écrits de Bjarne Stroustrup (C++), danois, se réfèrent à l’existentialisme protestant de Kierkegaard ; Linus Torvalds (Linux), finlandais, a été marqué par l’épopée du Kalevala ; Niklaus Wirth (Pascal), suisse, par le calvinisme ; Larry Wall (Perl) et Alan Kay (Smalltalk), tous deux américains, ont cherché leurs références culturelles dans le monde de l’enfance. Voir « Interview with Linus Torvalds : What Motivates Free Software Developers? », 1999

[4] « The “utility function” Linux hackers are maximizing is not classically economic, but is the intangible of their own ego satisfaction and reputation among other hackers. » (Raymond Eric S., « The Cathedral and the Bazaar », 1999 )

[5] Les mécanismes de reconnaissance sont ici semblables à ceux de la recherche universitaire

[6] « In every release cycle Microsoft always listens to its most ignorant customers. Linux and OS/2 developers, on the other hand, tend to listen to their smartest customers… The good that Microsoft does in bringing computers to non-users is outdone by the curse that they bring on experienced users. »  (Tom Nadeau, « Learning from Linux », 1999).

[7] Cf. Linda Dailey Paulson , "Wanted: More Network-Security Graduates and Research", Computer, février 2002, p. 22.

[8] S. Syme et L. J. Camp, « Cote as Governance, the Governance as Code », Working Paper, Social Science Research Network Electronic Paper Collection, Avril 2001, RWP01-014.

[9] Michel Gensollen, « Economie des biens informationnels », Autour du Libre, colloque de l’Institut National des Télécommunications, Evry 29 mai 2002.