Manuels “ Libres ” ou “ Napster ” Educatif ?1

Jean-Michel Dalle

Professeur Associé, Université Paris 6

Chercheur Associé, IMRI Université de Paris Dauphine



Dans quelle mesure le modèle “ libre ” pour les logiciels – droit inaliénable d’accès aux sources, de les modifier et de les redistribuer avec les mêmes droits une fois modifiées –, fort de ses succès récents et de sa constante dynamique de développement, peut-il s’appliquer également aux ressources éducatives ? Au delà de l’utilisation de logiciels libres dans l’éducation, peut-on, et doit-on, utiliser un modèle similaire pour l’éducation, afin de profiter au mieux des contributions de très nombreux auteurs ? Pour dire d’un mot l’idée, peut-on et doit-on aller vers le développement de “ manuels ” libres ? Telles sont les questions auxquelles cette contribution tente d’apporter des réponses. Plus exactement, il s’agit de montrer d’abord les raisons spécifiques qui fondent l’adaptation du modèle libre aux logiciels, puis de montrer que l’économie des ressources éducatives plaide pour une réponse différente. Cette réponse originale partage toutefois une philosophie commune avec la “ liberté ” des logiciels : elle a le même objectif de renforcer la dimension collaborative dans l’élaboration de ce qui devient une œuvre collective2.

Ce qui rend donc le modèle libre économiquement intéressant pour les logiciels tient avant tout à deux de leurs caractéristiques essentielles, à savoir les phénomènes de standardisation auxquels ils sont sujets, ainsi que leur nature éminemment cumulative. Le premier point est assez simple. Les logiciels sont sujets à ce que les économistes sont convenus d’appeler des externalités de réseau. Pour le dire simplement, il y a d’autant plus de bénéfice à utiliser un logiciel que d’autres l’utilisent, non seulement parce que la taille du marché conditionne la performance, mais aussi parce qu’interviennent en la matière des effets de compatibilité qui forcent les utilisateurs à adopter le même logiciel que leurs voisins. Ceci est particulièrement vrai pour un système d’exploitation comme Windows, mais s’applique également aux principaux éléments qui constituent une suite bureautique, c’est-à-dire à un traitement de texte comme Word, à un tableur comme Excel, à une messagerie comme Outlook. Le même phénomène concerne également les logiciels professionnels, et par exemple un logiciel de CAO comme CATIA de Dassault Systèmes ou encore les produits d’une société comme SAP. La conséquence de tout cela est l’apparition de standards dit standards “ de fait ” ou “ de facto ”, en quelque sorte “ produits ” par les marchés, et donc dès lors de monopoles lorsque les logiciels devenus des standards de fait sont des logiciels propriétaires.

Malheureusement, ce raisonnement simple, largement inspiré par les travaux de Paul David (1985, 1987), se heurte pour linstant à une véritable barrière qui empêche les acteurs concernés, et notamment les acteurs publics, den tirer valablement les conséquences. Cette barrière est difficile à expliquer si lon ne comprend pas quun tel raisonnement nécessite de penser des phénomènes dynamiques et non-linéaires, ce que l’économie traditionnellement ne sait pas faire. En dautres termes, les modèles mentaux des économistes, tels quils irriguent encore les décideurs publics, ne permettent pas de penser la standardisation de facto sans même ajouter quelle implique un assez sérieux dysfonctionnement des mécanismes marchands. En conséquence de quoi les mesures appropriées ne sont pas prises, ni même sérieusement recherchées : cette incurie nest pas partagée par nombre dacteurs privés, notamment américains, qui ont au contraire su surfer avec bonheur sur les vagues de la standardisation de facto. La législation de la concurrence pourrait ici trouver à redire, et considérer que de telles positions de monopole ne sont pas à long terme dans lintérêt des consommateurs. Il serait pourtant vain de reprocher à des acteurs économiques davoir exploité de telles opportunités. Il est beaucoup plus intéressant, à notre sens, de faire aujourdhui lanalyse des mesures qui devraient être prises pour remédier à de telles situations lorsquelles se produisent, puisquil est largement vain de vouloir les piloter ex ante, et surtout de se demander les raisons dun déséquilibre aussi marqué entre les éditeurs américains et les éditeurs européens. Seuls quelques éditeurs européens, comme Dassault Systèmes et SAP justement, parviennent à atténuer la domination sans partage des éditeurs américains.

Marché européen

Eu égard à ce que nous venons de souligner, il sagit dabord dune question de taille de marchés. Laccès à un marché de la taille du marché américain représente un atout considérable pour devenir un standard de fait, et les éditeurs européens qui ont réussi lon bien compris, en intégrant tous très tôt, dune manière ou dune autre, le marché américain dans leur stratégie de développement, le NASDAQ représentant de ce point de vue un point de passage presque obligé. En ce sens, la mise en place progressive dun véritable marché européen représente ici une évolution très importante. Mais on ne peut également écarter, puisque de tels raisonnements ne sont pas encore devenus des évidences, que les conceptions de nombreux acteurs en matière de standardisation ait été erronées ou plutôt mal adaptées aux logiciels et généralement aux technologies de réseaux, parce quelles avaient à lorigine été conçues par les économistes, depuis Marshall, en considérant des biens plus traditionnels, pour lesquels les effets externes pouvaient être négligés. La question des outils est aussi ici pertinente, puisque les outils mathématiques des économistes, hérité de la physique du XIXème siècle, les ont longtemps empêché de travailler de telles questions : cela ne fait pas si longtemps que l’économie a commencé à se doter doutils plus appropriés, grâce en particulier aux travaux dArthur (1989).

Dans ce contexte, lexistence dune alternative sous la forme dun logiciel libre représente aisément un atout dans la mesure où elle restaure une dimension concurrentielle sur les marchés concernés, au grand bénéfice de lutilisateur final. Dans le même temps, l’émergence de standards ouverts, cest-à-dire dont les sources sont accessibles et modifiables, rend également des services insignes en termes dadaptabilité à des situations variées, mais aussi dindépendance vis-à-vis des producteurs de logiciels, et finalement de protection des utilisateurs puisque cest le contenu même des logiciels qui est alors largement “ garanti ”, notamment contre la présence de routines indésirables. Les logiciels libres et ouverts représente une manière de faire des standards ouverts, et surtout une manière qui est susceptible de fonctionner, sous certaines conditions, alors même que le marché est dominé par un standard propriétaire (Dalle & Jullien, 2000, 2002).

La deuxième raison pour laquelle le modèle libre est bien adapté aux logiciels est peut-être moins connue. Nous avons en effet suggéré que les logiciels étaient, par nature, des biens de qualité imparfaite et souvent médiocre (Dalle, 2002) : de fait, l’existence de nombreux bugs y est la règle et non l’exception. Ainsi, le niveau de qualité que doivent supporter les utilisateurs de logiciels est incomparable avec ce qui serait simplement acceptable pour d’autres biens courants. Ce phénomène ne tient pas simplement à la relative jeunesse de l’industrie du logiciel, ou encore à l’incurie des producteurs, ou même à la multiplicité des plate-formes techniques. L’existence de bugs est une caractéristique fondamentale des logiciels parce qu’ils sont par essence des objets extrêmement complexes, qui incorporent un nombre considérable d’opérations élémentaires. Pour ne donner qu’un chiffre, la taille des logiciels que nous utilisons couramment se mesure déjà en millions de lignes de code.

Le modèle libre possède ici également des atouts indéniables. Il permet en effet une amélioration très significative de la fiabilité des logiciels puisque ceux-ci sont alors étudiés, analysés et corrigés par toute une communauté de développeurs. Plusieurs solutions seront ainsi souvent proposées pour corriger un bug donné, dont la meilleure pourra être sélectionnée. L’ouverture du code permet un tel fonctionnement, et donc une véritable cumulativité des apports individuels : il s’agit donc encore une fois d’une question d’externalités, au sens de l’économiste, cette fois-ci non pas au sens de rendements croissants d’adoption et d’externalités de réseau associés à la diffusion, mais plutôt d’externalités associées à la créativité même des développeurs c’est-à-dire à la capacité des uns à profiter des nombreux apports des autres dès lors que les codes sont ouverts.

Ajoutons enfin que le développement du modèle libre est de plus en plus soutenu par les acteurs économiques. De nombreuses entreprises sont ainsi apparues qui rendent à leurs clients utilisateurs de logiciels libres les services complémentaires nécessaires à leurs besoins. Il peut s’agir simplement d’installation et d’aide en ligne, mais aussi de service après-vente et généralement de développements sur-mesure dédiés à leurs besoins. Presque toutes ces sociétés de services en logiciels libres – baptisées par certains “ SS2L ” apportent aussi désormais des garanties juridiques qui sont des conditions nécessaires pour la plupart des entreprises utilisatrices. Au delà, l’économie des logiciels libres ne se limite pas à ces SS2L, même si elles tendent à en constituer le tissu, et probablement le contingent le plus nombreux. L’apparition des logiciels libres s’est accompagné d’autres opportunités économiques que de nombreux acteurs ont su exploiter. Dans tous les cas en effet, il est ici question de “ bundles ”, au sens économique de ce terme, c’est-à-dire qu’il est simplement question de vendre un autre bien associé aux logiciels libres puisque ceux-ci sont par essence gratuits. La solution la plus simple, du fait une fois de plus de la nature même des biens logiciels, qui souvent nécessitent mais aussi permettent une adaptation aux besoins de chaque utilisateur, est donc celle des services “ sur mesure ”. L’absence d’assistance, mais aussi de garantie, dans le monde des logiciels libres – voire de packaging et de documentation – représente une opportunité similaire. Mais il est aussi possible d’associer logiciels libres et matériels, voire de combiner aussi avec des services. C’est typiquement la stratégie adoptée par IBM et par d’autres acteurs du marché de l’informatique qui soutiennent aujourd’hui activement le développement des logiciels libres, et qui en sont devenus ce que l’on pourrait appeler les “ promoteurs ”. Ils sont en effet en mesure, plus que la plupart des nouveaux entrants qui ont maintenant beaucoup de peine à trouver des fonds, de réaliser les investissements nécessaires pour développer de telles stratégies3.

Ressources éducatives

Venons-en maintenant aux ressources éducatives4. Nous espérons avoir montré que la nature des biens logiciels était une clef essentielle pour comprendre l’efficacité du modèle libre, ce qui aura probablement suggéré qu’il n’en irait pas nécessairement de même pour les ressources éducatives : il nous reste à compléter plus précisément cette démonstration.

Tout d’abord, les ressources éducatives ne sont pas naturellement sujettes aux mêmes effets de standardisation que les logiciels puisque leur utilisation n’induit pas véritablement d’externalités de réseau. A contrario, on peut alors se demander si favoriser l’apparition de “ manuels libres ” ne susciterait pas au contraire l’apparition d’effets de standardisation puisque ces manuels bénéficieraient alors d’importantes externalités associées à la créativité de la communauté qui aurait contribuerait à les créer, mais aussi tout simplement de son soutien – suscitant ainsi également des externalités de réseau. Il est dès lors nécessaire de s’interroger sur le fait qu’une telle évolution, la standardisation des ressources éducatives, soit ou non souhaitable. Et il apparaît rapidement que ce n’est pas forcément le cas. D’un point de vue statique, l’émergence d’un standard ne serait en effet pas nécessairement compatible avec la variété et l’hétérogénéité des situations locales d’enseignement. Et d’un point de vue dynamique, l’existence d’un standard rend aussi plus difficiles toutes les évolutions, d’autant plus lorsqu’il s’agit de changements majeurs : dans un domaine comme les ressources éducatives dont les contours sont, par essence, évolutifs, puisqu’ils tendent à progressent au même rythme que la société, on pourra trouver des raisons supplémentaires de souhaiter que la diversité soit constamment maintenue.

La question de fond est sans doute ici, et consiste à savoir si lon souhaite aller vers une standardisation des pratiques denseignements. Cette question dépasse ici la problématique de l’économie et devient aussi de nature éthique et normative. A notre sens, Il faut sans doute un certain degré de standardisation dans les pratiques denseignement, que recouvre dune certaine manière la notion de “ programme ”, mais la nature des ressources éducatives est plutôt d’être un réservoir ou un vivier dans lequel chacun pourra puiser pour effectuer son enseignement, sans se contenter dappliquer un manuel mot pour mot. Bref, le programme la partition nest pas incompatible avec une forte diversité des interprétations locales, et il se peut même que lhétérogénéité des situations locales, des élèves et des classes, implique une telle diversité si lon veut préserver lefficacité des pratiques denseignement. Cela ne veut donc pas dire quil ne faut pas respecter une homogénéité au niveau des programmes. On peut dailleurs se demander à ce stade si ce ne sont pas les programmes qui devraient être, sinon libres, du moins partiellement open-source, cest-à-dire mieux définis en collaboration avec les usagers. Cest bien sûr déjà le cas, mais il y a peut-être à gagner dans cette direction. En jouant sur les mots, ce sont peut-être les programmes qui méritent d’être plus ouverts, les programmes dordinateurs comme les programmes denseignement !

Au delà de la question de la standardisation, on peut aussi dinterroger sur la place qui serait laissée à des acteurs économiques dans un modèle ou prédomineraient des manuels libres, en ajoutant ici que la production de manuels, et maintenant des contenus équivalents des cartables électroniques, implique tout de même lintervention dacteurs économiques si lon veut atteindre un certain niveau de qualité. Pensons par exemple aux images, et au nombre limité tout comme à la qualité médiocre des images libre de droits sans parler, sur cette question des droits, des textes dauteurs, quil faut bien pouvoir enseigner également. Les éditeurs daujourdhui pourraient-ils sappuyer sur les manuels libres, afin de proposer typiquement des éditions enrichies et améliorées, papier ou électroniques, mais “ de référence ”, pour les élèves. Ce nest pas impossible à imaginer, mais cela ne contribuerait sans doute pas à recréer une diversité suffisante si toutes ces “ éditions ” ou distributions étaient étayées sur un même manuel libre et standard.

Une fois encore, la question est donc celle de la standardisation. Nous avons plaidé pour le respect de la nature distribuée et hétérogène des pratiques denseignement. Pour autant, on peut aussi rêver à des manuels libres qui bénéficieraient de lapport de toute une communauté denseignants. Sil nest pas nécessairement souhaitable dencourager la standardisation, il y aurait un intérêt évident à développer les échanges et le partage des ressources éducatives entre collègues, cest à dire au sein de communautés qui sont non seulement des communautés de pratiques, mais aussi des communautés dauteurs. Comme les développeurs, beaucoup de professeurs trouveraient certainement leur compte à contribuer à une œuvre collective à partir de leurs travaux, œuvre dont ils pourraient réciproquement profiter afin de dispenser leurs enseignements. En un sens, la recherche et développement la créativité, linnovation en matière de ressources éducatives est largement du côté des utilisateurs, peut-être même plus encore que dans le cas des logiciels5. Qui écrit les manuels scolaires sinon des enseignants recrutés par les éditeurs ?

Les logiciels libres reposent sur une créativité distribuée, que lon retrouve dans les communautés denseignants : cest la finalité recherchée qui est un peu différente. L’œuvre collective dans le domaine du logiciel est centralisée, alors quelle mérite sans doute d’être beaucoup plus distribuée, et incarnée en fonction de multiples situations locales, dans le domaine des ressources éducatives. Mais justement : ne serait-il pas possible de concilier dans le cas des ressources éducatives cette dimension collective, coopérative et collaborative avec le maintien de la diversité ? Nous voudrions suggérer lidée qui consisterait à mettre en place un “ Napster ” éducatif au sein des communautés denseignement, ou mieux une technologie “ peer-to-peer ” cest-à-dire de pair à pair. Ce que Napster faisait pour la musique, c’était simplement de créer un répertoire dynamique où chacun pouvait trouver la liste des ressources possédées par les autres. Ce répertoire devenait alors une base de donnée dans laquelle pouvaient être recherchées des ressources. On sait ce quil en est advenu dans le domaine de la musique, et le fait quil sagissait largement de piratage. Nous ne considérons ici que la technologie, avec lidée quelle est finalement mal adaptée au cas de la musique, ou dautres ressources multimédia, dès lors quelle ne concerne que des communautés dutilisateurs : les biens échangés sont en effet produits ailleurs et simplement copiés.

Napster éducatif

Dans le cas des communautés denseignement, ce sont largement à des communautés dauteurs que lon sadresse. Non seulement un Napster éducatif naurait plus rien à voir avec le piratage, mais il permettrait tout simplement aux uns de savoir ce que les autres ont créé, de rechercher les ressources adaptées à leurs besoins, de les utiliser, de les améliorer, et de permettre aux autres de les exploiter à leur tour. Un tel fonctionnement permettrait sans doute daméliorer significativement la qualité et la créativité des ressources éducatives, tout en maintenant la diversité et en permettant une meilleure “ productivité ” locale puisque lon disposerait simplement de plus d’éléments sur lesquels sappuyer. Il sappuierait sur lexistence de communautés de collègues et de pairs, souvent disciplinaires, et ne manquerait pas de susciter également des phénomènes de réputation tels quils existent aussi bien dans le domaine des logiciels libres quau sein des communautés scientifiques, et dont bénéficierait la collectivité puisquils créeraient des motivations supplémentaires.

Ne faudrait-il pas, à la place dun modèle libre, proposer plutôt aux communautés denseignants les outils qui permettraient aux uns de partager avec les autres, de manière anonyme ou non, les ressources éducatives que chacun aurait créées ? Cela permettrait à ceux qui le souhaitent de publier leurs travaux et les ressources dont ils disposent et quils ont créées, et de profiter de ce que les autres ont publié. Il sagirait donc là dun véritable modèle d’édition collective, où chacun pourrait devenir son propre éditeur, mais dans lequel les éditeurs pourraient aussi trouver toute leur place. Grâce à nouveau à lexistence dun Napster éducatif, les éditions de qualité et de référence pour les élèves intégreraient en effet alors de ressources beaucoup plus riches, parce quelles seraient aussi tout simplement plus faciles à détecter. Elles préserveraient donc leur variété, voire laugmenteraient même dans le respect du programme : leurs contenus seraient enrichis par des échanges plus intense, une meilleure détection et une meilleure exploitation de la créativité des enseignants! Dans le même temps la sélection décentralisée des ressources éducatives, parallèlement à la sélection dun manuel élève, gagnerait aussi en souplesse et en adaptation à la variété des situations locales denseignement : elle correspondrait mieux aux souhaits des professeurs, et aux besoins de leurs élèves, grâce à une meilleure exploitation de la créativité distribuée, à une meilleur partage des ressources au sein des communautés denseignants.

La mise en place dun Napster éducatif consisterait donc à introduire une dimension supplémentaire douverture, analogue à celle qui prévaut désormais dans le monde des logiciels libres, mais en fonction dune architecture différente, plus décentralisée et permettant une plus grande diversité des combinaisons et des solutions locales, cest à dire dun outil de travail collaboratif mieux adapté. Dans les deux cas, il sagit clairement dexploiter les nouveaux modes de développement et dinvention collective associés à lapparition de lInternet : dans le cas de la créativité des enseignants et des ressources éducatives, il nous semble quune solution dinterconnexion de type P2P (Peer-to-Peer) ou plutôt ici C2C (“ Colleague-To-Colleague ”), représenterait une meilleure option que le libre pour la collectivité, mais aussi pour les individus.

Il reste alors, au delà de ce qui a déjà été dit que leur intérêt naturel pour le partage de ressources, à se demander si les communautés denseignants seraient prêtes et enclines, à faire usage dun tel outil ? La réponse est en effet assez simple, puisque lon pourrait presque dire quil existe déjà de multiples proto-napsters éducatifs locaux, le plus souvent aujourdhui sous la forme de sites webs. En un sens, ils existent depuis longtemps de manière locale, mais aussi sous la forme de publications comme par exemple le bulletin de lunion de physiciens. Bref, l’économiste est ici en retard sur la société comme souvent. Mais ces proto-napsters éducatifs locaux ne sont pas encore des outils de partage et de collaboration suffisants. Il ne sont pas suffisamment connectés entre eux, et ne correspondent pas toujours à une véritable créativité distribuée lorsquils sont hébergés et donc édités par des institutions. Ils ne permettent pas de créer une véritable base de données dynamique dans laquelle il serait possible de rechercher des ressources en fonction typiquement de mots clefs. Ce quil faudrait expérimenter, peut-être dans un premier temps à lintérieur dune ou deux disciplines pilotes plus quune initiative nationale pour fédérer les expériences locales qui ne changerait pas les pratiques et ne permettrait pas dexploiter pleinement la créativité distribuée des enseignants cest la mise en place dun véritable “ compte ” par enseignant associé par exemple à son numéro national didentification. Au sein de ce compte, chacun pourrait simplement publier les ressources quil aurait créées. Il faudrait simplement attribuer en plus à chaque publication quelques mots-clefs, et surtout mettre en place un outil qui référencerait et recenserait dynamiquement les ressources de tous les comptes, et permettrait dy effectuer des recherches. Alors les enseignants disposeraient au jour le jour dun véritable Napster éducatif.

Bibliographie

Arthur W. Brian (1989), Competing technologies, increasing returns and lock-in by historical events, Economic Journal 99: 116-131.

Commissariat au Plan (2002), Economie du logiciel : Renforcer la dynamique française, 76p.

Dalle Jean-Michel (2002), Open Code: the Sources of Open-Source Innovation, sélectionné pour un numéro special de Economics of Innovation and New Technology sur “The changing role of Intellectual Property Rights”.

Dalle Jean-Michel, Jullien Nicolas (2000), “NT vs. Linux, or some explorations into the economics of free software,” In: Application of simulation to social sciences, G. Ballot and G. Weisbuch, eds. Paris, France: Hermès, pp. 399-416.

Dalle Jean-Michel, Jullien Nicolas (2002), “ ‘Libre’ software : turning fads into institutions?”, à paraître dans Research Policy.

David Paul A. (1985), “Clio and the economics of QWERTY”, American Economic Review (Papers and Proceedings) 75: 332-337.

David Paul A. (1987), Some new standards for the economics of standardization in the information age, in Dasgupta, Stoneman Eds., Technology policy and economic performance, Cambridge UP, Cambridge, Mass., pp. 206-239.

von Hippel Eric (1988), The sources of innovations, MIT Press.



1 Cette contribution fut présentée à l’origine comme une conférence lors du Séminaire “ Propriété intellectuelle et économie des biens informationnels ” organisé par la Mission Veille Technologique du CNDP à Paris (ENS Ulm) le 23 Mars 2001, puis a fait l’objet d’une autre présentation lors des journées “ Autour du Libre 2002 ” à Evry (INT). Je tiens à remercier tout particulièrement Jean-Pierre Archambault pour avoir contribué à créer ces deux occasions, et plus généralement pour m’avoir encouragé à développer les idées contenues dans ces pages.

2 Cette analyse fait aussi écho à la question plus générale, souvent évoquée, de l’adaptation du modèle libre à d’autres types de biens que les logiciels. On l’aura compris, nous pensons qu’il n’y a pas de réponse générale à cette question, et que chaque type de bien nécessite en la matière une analyse un peu plus précise.

3 Sur les évolutions en cours de l’économie du logiciel, on pourra notamment se reporter au récent rapport du Commissariat au Plan (2002) sur ce thème.

4 On aura noté que nous écartions dans ces pages, sans bien sûr en minimiser l’importance, la question juridique, dans la mesure où la définition pratique d’une licence libre ou publique pour des ressources éducatives ne devrait pas s’avérer, le cas échéant, une difficulté insurmontable.

5 Pour reprendre la terminologie de Von Hippel (1988), on retrouve également ici une situation de type “ users as innovators ” – peut-être plus encore que dans le cas des logiciels.