Tribune libre/Introduction

Free texts and images.
Jump to: navigation, search
<< Tribune libre >> Une brève histoire des hackers



Chris DiBona, Sam Ockman, Mark Stone

Introduction
Traduction de Bernard Niset, Dave Schroeter et Jean Zundel



Prologue

Le créateur de Linux, Linus Torvalds, raconte que son prénom a été choisi pour lui à cause de l’admiration que ses parents vouaient pour le lauréat du Prix Nobel, Linus Pauling. Pauling était un homme des plus rares : un scientifique qui remporta le Prix Nobel, pas une fois, mais deux fois. Nous retrouvons là un récit édifiant pour la communauté Open Source dans l’histoire du travail fondamental qui rendit possible la découverte de la structure de l’ADN.

La découverte, en réalité faite par Francis Crick et James Watson, est racontée par ce dernier de façon fameuse dans le livre intitulé « The Double Helix ». Ce livre est un compte-rendu remarquable et sincère de la façon dont la science est vraiment pratiquée. Il relate non seulement l’intelligence et la perspicacité, mais aussi la politique, la compétition, et la chance. La quête du secret de l’ADN était devenue une féroce compétition entre diverses entités, en particulier le laboratoire de Watson et Crick à Cambridge, et celui de Pauling à Cal Tech.

Watson décrit avec une gêne évidente la manière dont Pauling en est venu à savoir que Watson et Crick avaient résolu le mystère, et avaient créé un modèle de la structure hélicoïdale de l’ADN. Le personnage central de l’histoire y est en fait Max Delbruk, un ami commun qui voyageait entre Cambridge et Cal Tech. Il comprenait et acceptait le désir de Watson et Crick de garder la découverte secrète tant que tous les résultats ne seraient pas confirmés, Delbruk vouait avant tout allégeance à la science elle-même. Voici comment Watson décrit comment il a su que Pauling avait appris la nouvelle :

Linus Pauling entendit parler pour la première fois de la double hélice par Max Delbruk. À la fin de la lettre qui dévoilait la découverte des chaînes complémentaires, j’avais demandé à ce qu’on n’en parle pas à Linus. J’étais encore quelque peu inquiet que quelque chose ne tourne pas rond et je ne voulais pas que Pauling pense aux paires de base limitées en liaisons hydrogène jusqu’à ce que nous ayons pu nous donner encore quelques jours pour vérifier notre position.Malgré cela, ma demande fut ignorée. Delbruk voulait apprendre la nouvelle à tous ses collaborateurs, et il savait qu’en quelques heures la rumeur se propagerait depuis son laboratoire de biologie vers celui de leurs amis travaillant sous les ordres de Linus. Pauling lui fit donc promettre de lui communiquer l’information qu’il avait entendue de moi. En matière de science Delbruk haïssait le secret quelque forme que ce soit et ne voulait pas laisser plus longtemps Pauling dans l’expectative.

Clairement, le besoin de secret avait rendu Watson mal à l’aise. Il comprenait que la compétition interdisait aux deux parties de partager ce qu’elles savaient, et cela ralentissait le progrès de la science.

La science relève bien de l’Open Source. La méthode scientifique repose sur un processus de découverte et de justification. Pour que les résultats scientifiques soient justifiés, ils doivent être reproductibles. La reproduction n’est possible que si les acteurs partagent leurs sources : l’hypothèse, les conditions de test et les résultats. Le processus de découverte peut suivre de nombreux chemins, et de temps à autres des découvertes scientifiques sont isolées. Mais finalement, le processus de découverte doit être servi par le partage de l’information : permettre à d’autres scientifiques d’avancer là où l’on n’y parvient pas donc diffuser les idées pour laisser émerger les nouvelles.

Qu’est-ce que le logiciel libre, et en quoi se rapporte-t-il à l’Open Source ?

En 1984, Richard Stallman, un chercheur au laboratoire d’intelligence artificielle du MIT (MIT AI Lab), démarra le projet GNU. Ce projet visait à faire en sorte que personne ne se trouve jamais tenu de payer pour du logiciel. Stallman le lança parce qu’il sentait essentiellement que le savoir qui constitue un programme exécutable (ce que l’industrie informatique appelle le code source) devrait être libre. S’il ne l’était pas, raisonne-t-il, un petit mais puissant groupe personnes domineraient l’informatique.

Là où les éditeurs de logiciels commerciaux et propriétaires n’ont vu qu’une industrie gardant pour elle des secrets économiques qui doivent être jalousement protégés, Stallman a vu un savoir scientifique qui doit être partagé et distribué. Le principe de base du projet GNU et de la Free Software Foundation (l’organisation gérant le projet GNU) est que le code source accélère le progrès en matière d’informatique car l’innovation dépend de la diffusion du code source.

Stallman s’est préoccupé de la manière dont le monde réagirait au logiciel libre. La connaissance scientifique est souvent dans le domaine public ; c’est une des fonctions de la publication académique de la rendre publique. Avec le logiciel, malgré tout, il était clair que que le simple fait de laisser le code source rejoindre le domaine public aurait tenté le monde des affaires de le détourner à son profit. La réponse de Stallman à cette menace était la «GNU General Public License», connue sous le nom de GPL (voir chapitre 19).

La GPL autorise l’utilisateur à copier et distribuer à volonté le logiciel qu’elle protège, pourvu qu’il n’interdise pas à ses pairs de le faire aussi, soit en leur faisant payer pour le logiciel en tant que tel, soit en le plaçant sous une autre licence. La GPL requiert aussi que tout dérivé d’un travail placé sous sa protection soit lui aussi protégé par elle.

Lorsque Stallman et d’autres auteurs de textes publiés dans ce livre parlent du logiciel libre, ils traitent de liberté et non de gratuité. Le terme anglais rend mal cette distinction entre gratuité et liberté, et l’expression «Free as in speech, not as in beer»[1]. Ce message radical a mené beaucoup de sociétés de logiciels à rejeter de façon absolue le logiciel libre. Après tout, leur préoccupation est de gagner de l’argent, non d’ajouter à notre corpus de connaissance. Pour Stallman, ce désaccord entre l’industrie informatique et la science de l’informatique était acceptable, peut-être même désirable.

Qu’est-ce que le logiciel Open Source ?

Durant le printemps 1997 un groupe de leaders de la communauté du logiciel libre se sont rassemblés en Californie. Ce groupe incluait, entre autres, Eric Raymond, Tim O’Reilly et le président de VA Research, Larry Augustin. Leur souci était de trouver une façon de promouvoir les idées entourant le logiciel libre vers les gens qui avaient autrefois fui le concept. Ils s’inquiétaient des effets du message apparemment hostile à toute perspective mercantile de la Free Sofware Foundation, qui pourrait interdire aux utilisateurs de bénéficier de la puissance du logiciel libre.

Eric Raymond insista afin que le groupe affirme officiellement qu’une campagne de prosélytisme était nécessaire. De cette discussion, il sortit un nouveau terme pour décrire le logiciel qu’il voulait promouvoir : Open Source. Une série de directives furent conçues pour décrire le type de logiciel qui pourrait être qualifié d’Open Source.

Bruce Perens avait déjà jeté les bases de ce qui allait devenir la définition de l’Open Source. L’un des buts du projet de GNU était de créer un système d’exploitation librement disponible qui pourrait servir de plate-forme pour faire fonctionner les logiciels GNU. Dans un cas classique d’auto-amorçage (bootstrapping) logiciel, Linux était devenu cette plate-forme, et Linux avait été créé avec l’aide des outils GNU. Perens avait piloté le projet Debian, qui mit en place une distribution de Linux incluant seulement du logiciel qui adhérait à l’esprit de GNU. Perens avait imposé la chose explicitement dans un document nommé le « Contrat Social Debian » (Debian Social Contract). L’Open Source Definition est un descendant direct du Debian Social Contract, et donc l’Open Source est en grande partie dans l’esprit de GNU.

L’Open Source Definition permet plus de libertés que la GPL. Elle permet surtout une plus grande promiscuité lors d’un mélange de code propriétaire avec du code open source.

En conséquence, une licence Open Source pourrait éventuellement permettre l’emploi et la redistribution d’un logiciel Open Source sans compensation ni même reconnaissance de mérite. Vous pouvez, par exemple, prendre une grande partie du code source du navigateur Netscape et la distribuer avec un autre programme, éventuellement propriétaire, sans même en aviser Netscape. Pour quoi Netscape souhaiterait-il cela ? Pour un certain nombre de raisons, mais la plus évidente est que cela leur permettrait de prendre une plus grande part de marché pour le code de leur navigateur, qui fonctionne très bien au sein de leur offre commerciale. De cette façon, le fait de donner le code source est une très bonne façon de construire une plateforme. C’est aussi une des raisons pour lesquelles les gens de Netscape n’ont pas utilisé la GPL.

Ceci n’est pas une mince affaire pour la communauté. À la fin de 1998 une importante dispute menaça de diviser la communauté Linux. Cette fracture était causée par l’avènement de deux systèmes logiciels, GNOME et KDE, tous les deux avaient pour but de bâtir une interface de bureau orientée objet. D’un côté, KDE utilisait la bibliothèque Qt de Troll Technology, un morceau de code alors propriétaire, mais assez stable et mature. D’un autre côté, les gens de GNOME avaient décidé d’utiliser la bibliothèque GTK+, qui était complètement libre mais moins mûre que Qt.

Dans le passé, Troll Technology aurait eu à choisir entre, d’une part, utiliser la GPL et, d’autre part, garder leur position propriétaire. Le désaccord entre GNOME et KDE aurait continué. Avec l’avènement de l’Open Source, néanmoins, Troll était en mesure de modifier sa licence pour qu’elle rencontre la définition de l’Open Source, tout en conservant aux gens de Troll le contrôle qu’ils désiraient sur la technique. Le désaccord entre deux importantes parties de la communauté Linux semble se résoudre.

Le côté obscur de la Force

Bien qu’il ne s’en soit probablement pas rendu compte à l’époque, Watson se tenait au seuil d’une ère nouvelle de la science biologique. À l’époque de la découverte de la double hélice, la science biologique et chimique était essentiellement une sorte d’artisanat, un art pratique. Elle était pratiquée par quelques hommes travaillant en petits groupes, principalement sous les auspices de la recherche universitaire. Cependant, les graines du changement avaient déjà été plantées. Avec l’avènement de quelques percées médicales, particulièrement le vaccin contre la poliomyélite et la découverte de la pénicilline, la science biologique était sur le point de devenir une industrie.

Aujourd’hui la chimie organique, la biologie moléculaire, et la recherche médicale fondamentale ne sont plus pratiquées comme un artisanat par un petit corps de praticiens, mais poursuivies par une industrie. Alors que la recherche continue en université, la vaste majorité des chercheurs, ainsi que la vaste majorité des dollars consacrés à la recherche, proviennent de l’industrie pharmaceutique. Cette alliance entre la science et l’industrie est au mieux difficile. Alors que les laboratoires pharmaceutiques peuvent financer la recherche à un niveau inespéré dans une institution universitaire, elles financent aussi les recherches avec un intérêt particulier. Un laboratoire pharmaceutique accorderait-il un budget à la recherche de thérapies plutôt qu’à celle de médications ?

L’informatique, elle aussi, coexiste avec les impératifs d’une l’industrie visant le profit. Il fut une époque où les idées émergeaient principalement d’informaticiens universitaires ; maintenant, c’est l’industrie informatique qui pilote l’innovation. De nombreux programmeurs de l’Open Source sont des étudiants ou des thésards disséminés dans le monde entier, mais un nombre croissant agissent dans un contexte industriel plutôt qu’universitaire.

L’industrie a produit quelques merveilleuses innovations : Ethernet, la souris et l’Interface Utilisateur Graphique (Graphical User Interface, GUI) sont tous issus du laboratoire de Xerox appelé « PARC ». Mais il ne faut pas oublier les aspects inquiétants de l’industrie informatique. Personne en dehors de Redmond[2] ne pense réellement que les gens de Microsoft doivent décider seuls de l’interface graphique ou des possibilités des logiciels.

L’industrie peut avoir un impact négatif sur l’innovation. Le logiciel GNU Image Manipulation Program (GIMP) a langui dans un état incomplet durant une année au niveau d’une version beta 0.9. Ses créateurs, deux étudiants à Berkeley, avaient quitté l’école et embrassé une carrière dans l’industrie, faisant passer leur développement libre en arrière-plan.

Utilise le Source, Luke

L’Open Source n’est pas une idée imposée par une instance supérieure. Le mouvement Open Source est une révolution authentique car issue du substrat. Des évangélistes comme Eric Raymond et Bruce Perens ont eu un grand succès en changeant le vocabulaire du logiciel libre, mais cette évolution aurait été impossible sans contexte propice. L’une des générations d’étudiants apprirent l’informatique sous l’influence de GNU est maintenant au travail dans l’industrie, et, depuis des années, y a amené discrètement le logiciel libre par la porte de service. Ils ne le font pas par altruisme mais pour utiliser de meilleurs outils.

Les révolutionnaires sont en place. Ce sont les ingénieurs réseau, les administrateurs de systèmes et les programmeurs qui ont étudié avec les logiciels Open Source durant toutes leurs études, et veulent les utiliser aussi pour évoluer personnellement. Les logiciels libres sont devenus vitaux pour beaucoup d’entreprises, souvent involontairement, mais dans certains cas de façon tout-à-fait délibérée. Le modèle économique de l’Open Source existe et se trouve à présent en phase de maturation.

La société de Bob Young, Red Hat Software, Inc., prospère en faisant cadeau de son produit principal : Red Hat Linux. Une bonne façon de fournir du logiciel libre est de le conditionner en une distribution complète avec un manuel de bonne facture. Young vend principalement la commodité, parce que la plupart des utilisateurs ne veulent pas télécharger toutes les pièces qui font un système Linux complet.

Mais il n’est pas seul à proposer cela. Donc pourquoi Red Hat domine-t-il le marché des États-Unis ? Pourquoi SuSE Linux domine-t-il le marché européen ? Le marché de l’Open Source est similaire à un marché de produits destinés aux grand-public. Dans tous les marchés de ce type le client apprécie une marque à laquelle il accorde sa confiance. La force de Red Hat vient de la gestion de la marque : un marketing cohérent et un contact avec la communauté qui fait que celle-ci les recommande lorsque leurs amis leur demandent quelle distribution utiliser. La même chose est vraie pour SuSE, et les deux entreprises possèdent leurs marchés respectifs principalement parce qu’elles étaient les premières à prendre au sérieux la gestion du nom de la marque.

Soutenir la communauté est essentiel. Red Hat, SuSE, et d’autres sociétés de l’univers Linux comprennent que faire seulement de l’argent sans donner quoi que ce soit en retour causerait des problèmes. Premièrement, les gens considéreraient cela comme du parasitage et recommanderaient un concurrent. Deuxièmement, une société doit être en mesure de se différencier des concurrents. Diverses entreprises, par exemple CheapBytes et Linux Central, fournissent une distribution à bas prix, en vendant les CD aussi peu cher qu’un dollar. Pour que Red Hat soit perçue comme offrant une valeur plus importante que ces distributeurs à petit budget elle doit donner quelque chose en retour. Par une superbe ironie du modèle Open Source, Red Hat peut se permettre de vendre sa distribution 49,95 dollars uniquement parce qu’elle en assure le développement et livre le plus gros du code en Open Source.

Ce type de gestion de la marque est nouveau pour l’Open Source. En revanche, l’approche classique qui consiste tout simplement à fournir un bon service, a participé du modèle de l’Open Source. Michael Tiemann a participé à la fondation de Cygnus™ sur une idée simple : bien que le meilleur compilateur du monde, GCC, soit disponible gratuitement, les sociétés souhaiteraient payer un service d’assistance technique et d’amélioration. Le co-fondateur de Cygnus™, John Gilmore, décrit sa société comme apte à : « Rendre le logiciel libre abordable ».

En fait, ce modèle qui consiste à donner un produit et en vendre le support est, maintenant, en train de proliférer rapidement dans le monde de l’Open Source. VA Research a fabriqué et a supporté des systèmes Linux de grande qualité depuis fin 1993. Penguin Computing offre des produits et services similaires. LinuxCare propose un service complet, « de l’entrée au dessert » pour Linux dans chacune des variantes. Le créateur de Sendmail, Eric Allman, a maintenant fondé la société Sendmail Inc.™ pour fournir du service et des améliorations autour de son logiciel serveur de messagerie qui détient environ 80% des parts de marchés. Sendmail est un cas intéressant parce qu’il a une approche double du marché. La société possède la version propriétaire Sendmail Pro, et la version précédente de Sendmail Pro appelée Free Software Sendmail.

Dans la même lignée, Paul Vixie, le président de Vixie Enterprises et coauteur de ce livre, jouit d’un quasi monopole à travers son programme BIND. Ce modeste programme est utilisé chaque fois que vous envoyez un message électronique, que vous visitez un site web, ou que vous téléchargez un fichier à l’aide de ftp. BIND est le programme qui gère la conversion d’une adresse de type « www.dibona.com » vers le numéro IP correspondant (dans ce cas, 209.81.8.245). Vixie vit grâce à son prospère cabinet de conseil, nourri par la diffusion de son programme.

L’innovation à travers la méthode scientifique

Le développement plus fascinant dans le mouvement Open Source d’aujourd’hui n’est pas le succès de sociétés telles que Red Hat ou Sendmail Inc. Ce qui fascine réellement est de voir les plus importants acteurs de l’industrie informatique, des entreprises telles qu’IBM et Oracle, tourner leur attention vers l’Open Source en y percevant un marché. Que cherchent-elles dans l’Open Source ?

L’innovation.

La science relève bien de l’Open Source. Sa méthode repose sur un processus de découverte et de justification. Pour que les résultats scientifiques soient justifiés, ils doivent être reproductibles. La reproduction n’est pas possible à moins de partager la source : l’hypothèse, les conditions de test et les résultats. Le processus de découverte peut suivre de nombreux chemins, et de temps à autre des découvertes scientifiques arrivent de façon isolée. Mais finalement, le processus de découverte doit être servi par le partage de l’information : permettre à d’autres scientifiques d’avancer là où un autre n’y arrive pas ; polliniser les idées d’autres de façon que quelque chose de nouveau puisse croître qui sans cela ne serait pas né.

Là où les scientifiques parlent de reproductibilité, les programmeurs Open Source parlent de déboguage. Là où les premiers parlent de découverte, les seconds voient création. Le mouvement Open Source est une extension de la méthode scientifique, car au cœur de l’industrie informatique se trouve la science informatique. Considérez ces mots de Grace Hopper, inventeur du compilateur, qui disait, au début des années 60 :

Pour moi la programmation est plus qu’un art appliqué important. C’est aussi une ambitieuse quête menée dans les tréfonds de la connaissance.

L’informatique, cependant, diffère fondamentalement de toutes les autres sciences. L’informatique a un seul moyen de permettre à des pairs de reproduire des résultats : partager le code source. Pour démontrer la validité d’un programme à quelqu’un, vous devez lui fournir les moyens de le compiler et de l’exécuter.

La reproductibilité rend les résultats scientifiques robustes. Un scientifique ne peut espérer justifier de toutes les conditions de test, ni nécessairement disposer de l’environnement de test qui permettrait de vérifier tous les aspects d’une hypothèse. En partageant les hypothèses et les résultats avec une communauté de pairs, le scientifique permet à de nombreuses paires d’yeux de voir ce qu’une seule pourrait manquer. Dans le modèle de développement Open Source, le même principe est exprimé ainsi : « À condition de disposer de suffisamment de regards, tous les bogues restent superficiels ». En partageant le code source, les développeurs Open Source rendent leur logiciel plus robuste. Les programmes deviennent utilisés et testés dans une plus grande variété de contextes que ce qu’un seul programmeur pourrait générer, les bugs sont découverts alors qu’autrement ils ne l’auraient pas été. Parce que le code source est fourni, les bugs peuvent souvent être supprimés, et pas seulement découverts, par quelqu’un qui, autrement, serait resté en dehors du processus de développement.

Le partage ouvert des résultats scientifiques facilite les découvertes. La méthode scientifique minimise la duplication des effort parce que les pairs savent d’emblée s’ils travaillent sur des projets similaires. Le progrès ne stoppe pas simplement parce qu’un scientifique cesse de travailler sur un projet. Si les résultats ont de la valeur, d’autres scientifiques prendront le relais. De façon similaire, dans le modèle de développement Open Source, le partage du code facilite la créativité. Les programmeurs travaillant sur des projets complémentaires peuvent appuyer leurs propres résultats sur ceux des autres, ou combiner les différentes ressources dans un seul projet. Un projet peut éveiller l’inspiration pour un autre projet qui n’aurait pas été conçu sans cela. Et un projet de valeur ne devient pas forc ément orphelin lorqu’un programmeur le quitte. GIMP est resté au repos durant une année, mais finalement le développement a continué, et maintenant GIMP est montré avec fierté lorsque les développeurs Open Source examinent ce dont ils sont capables dans un domaine complètement nouveau pour eux : les applications utilisateur.

Les plus grosses entreprises veulent tirer profit de ce modèle puissant d’innovation. IBM va faire payer une somme coquette pour mettre en place et administrer l’intégration d’Apache au sein des services informatiques. Il s’agit là d’un gain net pour IBM ; ils peuvent installer une plate-forme exceptionnellement stable, qui réduit le coût assigné à sa maintenance, et, du même coup, assurer un service qui peut réellement aider leurs clients. De façon tout aussi importante, les ingénieurs d’IBM partagent la pollinisation croisée des idées avec les développeurs indépendants de l’équipe d’Apache.

Il s’agit là précisément du raisonnement qui a amené Netscape à prendre la décision de rendre son navigateur Open Source. Une partie du but recherché était de stabiliser et même d’accroître ses parts de marché. Mais, plus encore, Netscape compte sur la communauté des développeurs indépendants pour conduire l’innovation et les aider à créer un produit de qualité supérieure.

IBM s’est rapidement rendu compte que lintégration complète des techniques logicielles telles qu’Apache dans des lignes de plate-forme serveur comme l’AS400 et le RS6000 pouvait au minimum aider à gagner de nouveaux contrats et vendre plus de matériel IBM. IBM va plus loin dans cette approche et porte sa célèbre base de données DB2 vers le système Linux. Alors que beaucoup ont interprété cela comme une réponse à Oracle qui sort la ligne Oracle 8 sous Linux, IBM a pris son rôle envers la communauté très au sérieux et alloua des ressources à la cause des logiciels Open Source. En portant Apache vers la plate-forme AS400, IBM légitime cette approche d’une façon dont cette entreprise reste seule capable.

Le sort réservé aux offres concurrentielles soumises au gouvernement fédéral et à l’industrie par des entreprises telles que Coleman (de Thermo-electron), SAIC, BDM et IBM sera riche d’enseignements. Par exemple lorsque l’on comparera le coût du logiciel nécessaire à l’installation de 1000 postes avec, d’une part, NT ou Solaris et, d’autre part, Linux. Le prestataire dont la proposition laisse le client économiser plus d’un quart de million de dollars se trouvera en meilleure position. Des entreprises comme CSC, qui ont la réputation de renoncer à un ou deux pour-cent de leur marge afin d’obtenir davantage de contrats, sont probablement en train de se demander comment tirer profit de cela.

Alors que des entreprises telles qu’IBM, Oracle et Netscape ont commencé à intégrer l’Open Source à leur approche, beaucoup d’éditeurs de logiciel continuent à se concentrer exclusivement sur des solutions propriétaires. Ils le font à leurs propres risques.

En matière de serveur web, la complète dénégation de Microsoft du phénomène Open Source est presque amusante. Le serveur web Apache a, au moment de la rédaction de ce texte et d’après l’étude Netcraft, plus de 50% du marché des serveurs. Mais dans la publicité vantant son logiciel serveur appelé Internet Information Server (IIS) Microsoft affirme qu’il possède plus de la moitié du marché des serveurs web — il s’agit en réalité de plus de la moitié des serveurs commerciaux. Comparés aux concurrents comme Netscape et Lotus, ils détiennent donc une fraction significative du marché, mais cela semble maigre par rapport au nombre total de serveurs en fonction, où les 20% de Microsoft sont écrasées par les 50% d’Apache.

L’ironie est encore plus flagrante encore lorsque l’on considère qu’actuellement, d’après une étude menée par le QUESO et WTF, 29% des serveurs Web fonctionnent sous Linux. QUESO est un outil logiciel capable de déterminer le système d’exploitation qu’utilise une machine en lui envoyant des paquets TCP/IP et en analysant ses réponses. En combinant ces résultats avec ceux du moteur de recherche Netcraft qui analyse les balises d’identification renvoyées par les serveurs, on peut déterminer le nombre de serveurs employant un système d’exploitation ou un type de machine donné. En fait, les éditeurs de logiciels propriétaires ont déjà subi de nombreux discrets revers. Linux et FreeBSD rendent impossible de vendre avec succès un Unix propriétaire sur du matériel PC : Coherent, par exemple, s’est déjà effondrée. D’autre part, la société Santa Cruz Operation est passée en deux ou trois ans du rôle de principal vendeur Unix à une position de second plan. Elle va probablement trouver un moyen de survivre, mais son produit phare, SCO Unix, sera-til une victime de plus de l’Open Source ?

Sun Microsystems a, de plusieurs façons, fourni des ressources au développement de logiciels Open Source tout au long des années, sous forme de donation de matériel, de ressources pour aider au port sur SPARC de Linux, ou à travers le développement du langage de script Tcl réalisé par John Ousterhout. Il est donc paradoxal que l’entreprise, issue des joyeuses racines du logiciel libre à Berkeley si souvents décrites par Kirk McKusick, se batte à présent pour saisir la portée du phénomène Open Source.

Prenons un moment pour comparer les positions contrastées de SCO et de Sun.

Sun réalise la plus grosse partie de son chiffre d’affaire grâce au service commercialisé portant sur son système d’exploitation et son matériel. Sa ligne de produits va de la station de travail de bureau à des prix comparables à ceux des PC, à des serveurs d’entreprise de grande taille (éventuellement en grappes) rivaux de certaines grosses machines centrales. Le profit que Sun réalise au niveau du matériel provient moins des ventes des machines bas de gamme de la série Ultra que de celles du service d’assistance associé aux serveurs extrêmement spécialisés et adaptables au client des séries E et A. On estime que 50% du bénéfice de Sun provient de l’assistance, des formations et du conseil.

SCO, d’un autre côté, fait des affaires en vendant le système d’exploitation SCO Unix, des programmes de type compilateur et serveurs, ainsi que de la formation sur l’utilisation des produits SCO. Ainsi, malgré sa réputation, elle est en danger de la même façon qu’une ferme disposant d’un seul type de culture est vulnérable au moindre parasite menaçant la récolte.

Sun perçoit le développement de Linux comme une menace pour son bas de gamme. Sa stratégie consiste à s’assurer que Linux puisse fonctionner sur le matériel Sun, afin de laisser clients choisir. L’intérêt pour Sun est qu’ils pourront continuer à proposer de l’assistance pour leur machines. Nous ne serions pas surpris de voir, dans le futur, Sun offrir, sur ses machines bas de gamme, de l’assistance à l’utilisation du logiciel pour Linux.

Cela constitue même, et pour plusieurs raisons, une étape évidente. En fait, si vous demandez à un administrateur système sur Sun quelle est la première chose qu’il fait lorsqu’il reçoit une nouvelle machine Sun, il vous répondra : « Je télécharge les outils et le compilateur GNU puis installe mon shell favori ». Sun entendra peut-être un jour ce message provenant de sa clientèle et le fera peutêtre sur sa demande même. Malgré cela, Sun connaîtra un certain désavantage jusqu’à ce que ses responsables se rendent compte des services que sa clientèle peut lui apporter : l’innovation à travers la pollinisation croisée des idées issues de la publication du code source.

La position SCO, par ailleurs, est moins avantageuse. Le système de tarification de SCO met en avant la vente du système d’exploitation, en prévoyant des coûts supplémentaires pour des outils que l’utilisateur de Linux s’attend à recevoir gratuitement, tels que les compilateurs et les systèmes de traitement de texte. Ce modèle ne peut simplement pas être soutenu face à la compétition d’un système d’exploitation robuste et gratuit. À la différence de Sun, qui commercialise une vaste gamme de matériels, SCO ne vend que du logiciel et, dans leur cas, ce n’est pas suffisant. Que va faire SCO ?

Sa réponse n’a, jusqu’à présent, pas été claire. Dans le début de l’année 1998, SCO a envoyé une lettre à la grande liste de diffusion de ses utilisateurs afin de critiquer les Unix ouverts tel que Linux et FreeBSD en leur reprochant d’être instables et non professionnels, indépendamment de leur prix inférieur à celui du système SCO de base. Ils a lui-mêmes été très critiqué pour cette attitude et a fait machine arrière. SCO n’a pas cru ses clients suffisamment perspicaces pour voir à travers le FUD[3]. SCO a, en fin de compte, publié une rétractation sur son site web.

SCO diffusa fin 1998 un communiqué de presse annonçant que SCO Unix possède maintenant une couche de compatibilité Linux, de telle façon que vos programmes Linux favoris peuvent s’exécuter sous SCO Unix. La réponse a été claire et nette. Pourquoi dépenser de l’argent pour un système dans le but de le rendre compatible avec une offre gratuite ?

SCO dispose d’une position avantageuse si elle veut bénéficier du mouvement Open Source car possède une propriété intellectuelle très valable utilisable afin d’acquérir une véritable position de pouvoir dans le futur de l’Open Source. Pour ce faire, cependant, elle doit radicalement changer d’approche. Plutôt que de percevoir l’Open Source en tant que menace qui pourrait éroder la valeur de sa propriété intellectuelle, elle doit y voir une occasion de puiser de l’innovation.

Bien sûr, les manœuvres d’une entreprise telle que SCO ou même de Sun sont insignifiantes à côté de celles de Microsoft qui campe sur sa position en faveur du modèle propriétaire et semble déterminé à ne pas réformer cela avant la publication de MS-Windows 2000.

Nous supposons que MS-Windows 2000 sera annoncé en fanfare dans la dernière partie de l’an 2000 ou au début de 2001. Ce sera, après tout, la grande unification de MS-Windows NT et 98. À un certain moment, aux alentours de cet événement et peut-être même six mois avant, un nouveau système d’exploitation Microsoft Windows sera annoncé. Cet éditeur a toujours convoité le « lucratif marché des entreprises », un secteur où les machines véhiculent la sève informationnelle de l’entreprise. Jusqu’à présent, néanmoins, il n’est pas évident que Microsoft parviendra à fournir un système MS-Windows aussi stable que l’exige ce marché. Ils décréteront donc que ce nouveau système sera la solution. Appelons ce produit qui représente ce changement fantomatique « MS-Windows Enterprise » ou WEnt. Microsoft se penchera sur NT et déclarera : « Comment pouvons-nous le rendre plus fiable et stable ? ». Comme le signale Linus Torvalds dans son essai, la théorie des systèmes d’exploitation n’a pas évolué au cours des 20 dernières années, donc les ingénieurs de Microsoft vont revenir en arrière et dire qu’un noyau bien écrit, auquel on confie autant que possible l’exécution des programmes en mode non privilégié, est la meilleure façon d’améliorer la fiabilité et les performances. Ainsi pour réparer les principales erreurs des noyaux de NT, par exemple l’inclusion de pilotes réalisés de façon incorrecte par des tierces parties et l’intégration du GUI (Graphic User Interface) au noyau, Microsoft devra soit écrire une monstrueuse et lente couche d’émulation, soit changer d’approche et donc rendre de nombreuses applications incompatibles. Microsoft est certainement capable de choisir l’une des deux voies, et de s’y tenir. Mais pour alors, les logiciels Open Source auront certainement atteint une maturité où les entreprises qui achètent les logiciels se demanderont si elles font encore confiance à Microsoft pour leur donner ce qui est déjà disponible avec Linux : un noyau stable.

Évidemment, la réponse s’imposera d’elle-même avec le temps. Personne ne sait réellement si Microsoft peut réellement écrire un noyau stable et robuste. Le « document Halloween », auquel Eric Raymond se réfère dans cet ouvrage, laisse entendre que certains salariés de Microsoft en doutent.

Périls pour l’Open Source

La plupart des éditeurs de logiciels, comme la plupart des entreprises scientifiques, échouent parfois. En matière d’édition de logiciels, rappelle Bob Young, les principes grâce auxquelles on mène l’entreprise vers le succès varient peu de ceux qui profitent à leurs concurrents plus classiques. Dans les deux cas, le réel succès s’avère rare et les meilleurs innovateurs tirent les leçons de leurs erreurs.

La créativité, qui mène à l’innovation tant dans le domaine de la science que dans celui du logiciel, n’est possible qu’à un certain prix. Garder le contrôle sur un projet Open Source dynamique peut s’avérer difficile. Cette peur de perdre le contrôle empêche certaines personnes et beaucoup d’entreprises de fournir une réelle participation. En particulier une inquiétude courante lors de l’adhésion à un projet Open Source est qu’un concurrent ou un groupe de gens y entre également et ne crée ce qui est appelé un embranchement dans le code source. De même qu’un embranchement sur la route, une base de code source peut à certain moment se diviser en deux routes séparées et incompatibles qui ne se croiseront plus. Ce n’est pas une vaine inquiétude ; observez, par exemple, les multiples embranchements que les systèmes BSD ont empruntés pour mener vers NetBSD, OpenBSD, FreeBSD et de nombreux autres. Seule la méthode ouverte utilisée pour le développement de Linux garantit qu’il ne subira pas le même sort.

Linus Torvalds, Alan Cox et d’autres développeurs forment une équipe unie et demeurent l’autorité centrale de gestion de l’évolution du noyau. Le mode de gestion du noyau Linux a été appelé « dictature bon enfant », avec Linus en tant que dictateur éclairé, et il a jusqu’à présent produit un noyau bien écrit et cohérent.

Il est amusant de constater que Linux a subi extrêmement peu de réels embranchements. Il existe des patches importants qui convertissent le noyau de Linux en un noyau temp-réel, adapté au contrôle précis de périphériques rapides, et aussi des versions capables de fonctionner au sein d’architectures très inhabituelles.

Ces variations peuvent être considérées comme des embranchements dans la mesure où elles concernent une version du noyau et évoluent à partir de là, mais elles occupent des niches d’applications très particulières et n’ont pas un effet de scission sur la communauté Linux.

Considérons, par analogie, une théorie scientifique appliquée à certains cas particuliers. La plus grande partie du monde se débrouille parfaitement en utilisant les lois de Newton du mouvement pour les calculs mécaniques. Un contexte particulier où entrent en jeu de très grandes masses ou des vitesses élevées nous obligent à recourir à relativité. La théorie d’Einstein pourrait progresser et s’étendre sans ébranler l’application de la base théorique newtonienne plus ancienne.

Mais, bien souvent, des entreprises logicielles compétitives s’opposent, exactement comme certaines théories scientifiques. L’histoire de Lucid, par exemple, en offre un belle illustration. Cette entreprise développait et exploitait une version adaptée de l’éditeur Emacs afin de le vendre à la communauté des développeurs en tant que remplacement de l’Emacs original, écrit par Richard Stallman. Cette version fut appelée Lucid Emacs puis XEmacs. Lorsque l’équipe de Lucid lança XEmacs auprès de différentes entreprises, ils se rendirent compte que les résultats produits grâce à XEmacs n’étaient pas très différents de ceux d’Emacs. La situation terne du marché informatique à cette époque, combinée à ce fait, écourta l’existence de Lucid.

Il est intéressant de constater que Lucid rendit public le code de XEmacs sous GPL. Même l’échec de cette entreprise est une indication de la longévité qu’assure le modèle Open Source aux logiciels concernés. Tant que des gens apprécieront ce logiciel, Lucid fournira la maintenance nécessaire pour qu’il fonctionne sur les nouveaux systèmes et architectures. XEmacs profite d’une extraordinaire popularité, et on peut lancer un débat intéressant parmi les hackers d’Emacs en leur demandant quelle version ils préfèrent. XEmacs, même avec très peu de personnes y travaillant, est encore un produit important et vivant, modifié, maintenu, et peu à peu adapté aux nouvelles époques et architectures.

La motivation du hacker Open Source

L’expérience de Lucid montre que les programmeurs gardent souvent une loyauté envers un projet qui va plus loin qu’une compensation directe correspondant à la participation au projet. Pourquoi des gens écrivent-ils du logiciel libre ? Pourquoi donnent-ils gratuitement ce qu’ils pourraient facturer des centaines de dollars de l’heure ? Qu’en retirent-ils ?

Leur motivation n’est pas seulement l’altruisme. Ces contributeurs n’ont sans doute pas les poches pleines d’actions Microsoft, mais chacun bénéficie d’une réputation qui devrait lui assurer des occasions leur permettant de payer le loyer et de nourrir leurs enfants. Vu de l’extérieur, cela peut paraître paradoxal car, après tout, on ne peut se nourrir de logiciel libre. La réponse se trouve, en partie, au-delà de la notion de rétribution du travail. Nous somme témoins de la naissance d’un nouveau modèle économique, et non pas seulement d’une nouvelle culture.

Eric Raymond s’est posé en anthropologue participant à la communauté Open Source. Il analysa les motivations de ceux qui développent des logiciels afin d’en faire don par la suite.

Gardez à l’esprit que ces gens ont, pour la plupart, programmé pendant des années, et ne voient pas la programmation en soit comme une chose ennuyeuse ou comme un travail. Un projet très complexe comme Apache ou comme le noyau de Linux apporte une satisfaction suprême sur le plan intellectuel. Un vrai programmeur, après avoir terminé et débogué une morceau de code récursif abominablement difficile qui aura été pour lui une source de problèmes durant plusieurs jours, ressentira une excitation proche de celle que connaît un sportif lorsqu’il participe à une course.

Le fait est que beaucoup de programmeurs écrivent des programmes parce que c’est ce qu’ils aiment faire, et c’est précisément la manière dont ils définissent leur forme d’esprit. Sans le codage (écriture de programme), un programmeur se sent moins complet, comme un athlète privé de compétitions. La discipline peut poser un problème au programmeur tout autant qu’à l’athlète ; beaucoup de programmeurs n’aiment pas maintenir un morceau de code après l’avoir terminé.

D’autres programmeurs n’adoptent toutefois pas ces conceptions de durs à cuire et préfèrent un point de vue plus classique. Ils se considèrent, à juste titre, comme des scientifiques. Un scientifique n’est pas censé amasser des profits grâce à ses invention mais doit publier et partager ses découvertes pour le bénéfice de tous. Il préfère théoriquement la connaissance au profit matériel.

Tout cela procède de la quête d’une réputation. La programmation est une culture du don : la valeur du travail d’un programmeur provient du fait qu’il le partage avec d’autres. Cette valeur est accrue lorsque le travail est mieux partagé, et encore plus lorsqu’il l’est en publiant les sources et non les résultats d’un exécutable précompilé.

La programmation est aussi une prise de pouvoir, ce qu’Eric Raymond désigne par « gratter une démangeaison ». La plupart des projets Open Source prirent leur essor grâce à un sentiment de frustration : après avoir recherché vainement un outil capable d’accomplir une tâche donnée, ou en avoir découvert un qui n’était pas au point, abandonné, ou mal maintenu. C’est de cette façon qu’Eric Raymond commença à développer fetchmail, que Larry Wall amorça le projet Perl, que Linux Torvalds créa Linux. La prise de pouvoir, pour plusieurs raisons, était le concept le plus important sous-jacent à la motivation de Stallman pour démarrer le projet GNU.

L’avenir du capital-risque et de l’investissement dans Linux

Les motivations du hacker sont parfois philosophiques, mais le résultat n’est pas nécessairement un style de vie tendu vers le sacrifice. Des entreprises et des programmeurs convaincus de l’intérêt de l’Open Source collaborent de façon nouvelle, réaliste et efficace. L’investissement et le capital-risque entraînent l’économie de la Silicon Valley, où nous travaillons et vivons, et il en est ainsi depuis que le transistor commença a être exploité commercialement car les investisseurs saisirent alors l’occasion offerte par les microprocesseurs qui remplaçaient les cartes logiques compliquées.

À tout moment une nouvelle technique attire du capital-risque. L’investisseur ne dédaigne pas les grandes sociétés mais réalise qu’un portefeuille uniquement constitué d’entreprises florissantes ne permettra pas d’atteindre des objectifs financiers ambitieux. Il s’intéresse donc à de nouveaux projets menant à une Offre Publique Initiale[4] après moins de trois ans d’investissements ou à un fructueux rachat par des entreprises telles qu’Oracle ou Cisco.

En 1998, la grande vague de l’Internet retombe, et les ravages des IPO (Initial Public Offer) de l’Internet, qui commencèrent avec les débuts fulgurants de Netscape, déclinent. Le rachat de Netscape par America Online marque, de façon très symbolique, la fin de cette ère. Les investisseurs s’intéressent de près aux actions d’entreprises liées à l’Internet, et bien souvent les soumettent aux mêmes contraintes que les autres : il leur faut exhiber de plausibles prévisions de profits.

Où le capital-risque mène-t-il ? Linux et les sociétés logiciels liées à l’Open Source, selon nous, sont et resteront le principal thème d’investissement de cette fin de millénaire. Linux, en ce cas, déchaînera l’enthousiasme et une IPO portant sur Red Hat Software à la fin de 1999 déclenchera une vague d’actions financières de ce type. Le volume des fonds disponibles est énorme, et des entreprises telles que Scriptics, Sendmail, et Vix.com semblent bien placées pour tirer parti de conditions favorables. Il ne s’agit plus de déterminer sir le capitalrisque investira dans l’Open Source, mais plutôt de déterminer pourquoi le flot a commencé à s’écouler dans cette direction. N’oubliez pas que le logiciel libre n’est pas nouveau ; Richard Stallman a créé la Free Software Foundation en 1984, et elle repose sur une tradition plus ancienne encore. Pourquoi a-t-il fallu si longtemps pour en arriver là ?

En regardant le paysage informatique, on trouve un contexte où une très grande entreprise aux poches très profondes se taille la part du lion du marché commercial. Dans la Silicon Valley, les éditeurs de logiciels enthousiastes cherchent fortune et s’adossent donc à des sociétés de capital-risque. Ils apprennent rapidement que les investisseurs ne s’intéresseront pas à leur projets si ces derniers ne correspondent pas à ceux de Microsoft. Chaque startup doit choisir de jouer le jeu de Microsoft ou de ne pas jouer du tout.

L’insolente montée en puissance du logiciel libre commença dans cet environnement oppressif. N’importe quel programmeur qui a déjà réalisé un programme destiné au système d’exploitation MS-Windows décrira ce système comme une lourde et démotivante collection d’interfaces construites de façon a rendre le programme complètement dépendant des bibliothèques de Microsoft. Le nombre d’interfaces proposées au programmeur est destiné à rendre n’importe quel programme pour MS-Windows difficile à porter sur un autre système d’exploitation.

L’Internet, domaine que Microsoft ne domine pas encore, ne connaît pas cette restriction. Comme l’indique Scott Bradley, l’Internet est bâti sur un ensemble de conventions et normes ouvertes maintenues par des individus décidés et non par le portefeuille d’une entreprise. Il reste, par bien des aspects, l’aventure originelle de l’Open Source. Le fait de continuer de l’adosser à des standards ouverts a facilité le travail d’une grande diversité de programmeurs sur les applications Internet dont la spectaculaire croissance montre l’efficacité du modèle.

Les structures inhérentes au succès de l’Internet sont également présentes dans le mouvement de l’Open Source. Oui, des distributeurs Linux comme Red Hat et SuSE sont concurrents, mais avec des standards ouverts et du code partagé. Toutes deux utilisent le Red Hat Package Manager (RPM) comme outil de gestion des paquetages, par exemple, au lieu d’essayer de capturer les développeurs par des systèmes de paquetages propriétaires. Debian emploie un outil différent, mais comme les outils de Debian et de Red Hat sont des programmes ouverts, la compatibilité a été assurée. L’infrastructure qui a rendu l’Internet attrayant pour le capital-risque est donc présente dans l’Open Source et rendra ce dernier tout aussi attirant.

L’Internet, et c’est plus important encore, a créé une nouvelle infrastructure à partir de laquelle l’Open Source peut se déployer. Nous passons de l’ère des éditeurs commerciaux de logiciels à celle des entreprises d’information que décrit Tim O’Reilly. Ce passage exige l’abaissement drastique des coûts d’entrée et de distribution. C’est ce qu’a permis l’Internet.

Science et Nouvelle Renaissance

Le modèle de développement Open Source actuel prend ses racines dans les sciences informatiques vieilles d’au moins une décennie. Ce qui fait le succès grandissant de l’Open Source aujourd’hui, cependant, est la dissémination rapide de l’information rendue possible par l’Internet. Quand Watson et Crick ont découvert la double hélice, ils pouvaient espérer que l’information circule de Cambridge à Cal Tech en quelques jours, quelques semaines au pire. Aujourd’hui, la transmission d’une telle information est effectivement instantanée. L’Open Source est née dans la « Renaissance numérique » rendue possible par l’Internet, tout comme les sciences modernes sont apparues pendant la Renaissance grâce à l’invention de l’imprimerie.

Durant le Moyen-Âge aucune infrastructure informationnelle efficace n’existait. Les écrits devaient être copiés à grands frais, et, pour cette raison même, devaient transmettre une valeur instantanée. Seule l’information concise et à l’importance patente était transmise, par exemple les transactions commerciales et financières, la correspondance diplomatique. La priorité des écrits spéculatifs des alchimistes, prêtres et philosophes (qui seraient plus tard appelés scientifiques) restait moindre, et ces informations circulaient donc moins vite. L’imprimerie a changé tout cela en réduisant le coût d’entrée dans l’infrastructure informationnelle. Les savants, qui auparavant travaillaient dans l’isolement, pouvaient pour la première fois établir une communauté avec leurs pairs dans toute l’Europe. Mais cet apprentissage a requis un partage ouvert de l’information.

La notion de liberté académique et le processus que nous appelons maintenant la Méthode Scientifique émergèrent. Rien de ceci n’aurait pu être possible sans la nécessité de former une communauté, et l’ouverture de l’information a, durant des siècles, été le ciment qui maintenu l’unité de la communauté scientifique.

Imaginez un instant que Newton ait gardé secret ses lois de la mécanique et soit entré en affaires comme sous-traitant de l’artillerie pendant les 30 années qui suivirent. « Non, je ne révélerai rien des trajectoires paraboliques, mais peux régler vos canons si vous réglez mes notes d’honoraires ». L’idée elle-même semble absurde. Non seulement la science n’a pas évolué dans ce sens, mais elle n’aurait pas pu évoluer ainsi. Si cela avait était la façon de penser des scientifiques, leurs secrets eux-mêmes auraient empêché la science de se développer et d’évoluer.

L’Internet est l’imprimerie de l’ère numérique. Une fois encore, l’accès à l’infrastructure a été rendu plus facile. Le code source n’a plus besoin d’être distribué sur des rouleaux de papiers comme l’était la version originale d’Unix, ou sur disquettes, comme aux premiers jours de MSDOS, ou même sur CD-ROM. N’importe quel serveur FTP ou HTTP (Web) peut servir de point de distribution peu coûteux et toujours disponible.

Bien que cette Renaissance véhicule de grandes promesses, nous ne devons pas oublier l’héritage scientifique de plusieurs siècles auquel est adossé le modèle de développement de l’Open Source. La science de l’information et l’industrie informatique coexistent dans une inconfortable alliance aujourd’hui. Les géants de l’industrie comme Microsoft exercent une forte pression visant à préserver le secret des nouveaux développements afin d’augmenter le gain financier à court terme. Mais de plus en plus de réalisations naissent dans l’industrie plutôt qu’à l’université, et l’industrie doit donc veiller à nourrir la discipline au travers du libre partage des idées, c’est-à-dire par le modèle de développement Open Source. Elle assurerait cela sans la moindre motivation altruiste de servir une grande cause, mais pour une raison pragmatique des plus simples : l’intéressement personnel exacerbé.

Tout d’abord, les industriels informatiques font preuve d’étroitesse d’esprit s’ils croient que le revenu financier est l’objectif principal des meilleurs programmeurs de l’Open Source. Pour impliquer ces derniers dans l’industrie, leur propriété doit être respectée. Ils sont impliqués dans une quête de réputation, et l’histoire montre que la renommée issue de créations intellectuelles survit mieux que celle des réussites financières. Nous connaissons tous les noms de quelques grands industriels de ces cent dernières années : Carnegie, Rockefeller, mais la réputation des scientifiques ou inventeurs marquants de la même période dépasse les leurs : Einstein, Edison... Pauling. Au siècle prochain certains sauront peut-être qui était Bill Gates, mais qui se souviendra des autres industriels de l’informatique ? Il est plus probable que les noms de Richard Stallman et Linus Torvalds demeureront connus.

Ensuite, et surtout, l’industrie a besoin de l’innovation scientifique. L’Open Source peut développer et corriger des logiciels à la vitesse de la création scientifique. L’industrie informatique a besoin de la prochaine génération d’idées issues du développement Open Source.

L’exemple de Linux, une fois encore, est révélateur. Ce projet a été conçu à peu près cinq années après que Microsoft ait commencé le développement de MS-Windows NT. Microsoft a dépensé des dizaine de milliers de jours-hommes et des millions de dollars dans le développement de son produit. Aujourd’hui Linux est considéré comme un concurrent compétitif de MS-Windows NT en tant que serveur sur plate-forme PC, et les principaux logiciels correspondants sont portés par Oracle, IBM, et d’autres grands éditeurs. La quantité de logiciels développés selon le modèle Open Source. Seule une entité aux ressources colossales, par exemple Microsoft, pourrait en réaliser autant.

Pour étayer la Renaissance numérique nous avons besoin de l’approche Open Source. Elle amène le progrès non seulement dans le domaine de l’informatique théorique, mais aussi dans le secteur économique de l’informatique.


  1. NDE : « free speech » signifie « liberté de parole » et « free beer » « bière gratuite », donc « à l’œil ».
  2. Ville où se trouve le siège social de Microsoft.
  3. Fear Uncertainty Doubt : Peur, Incertitude et Doute. Cette expression désigne les campagnes d’intoxication souvent relayées par les media.
  4. IPO : Initial Public Offer.