De l'Internet aux inforoutes : saturation, facturation, r?glementation Dominique Desbois
Résumé
Cet article étudie les problèmes réglementaires posés par cette mutation de l'infrastructure des télécommunications que constitue le passage de l'Internet aux autoroutes de l'information. Il présente tout d'abord les problèmes de saturation rencontrés actuellement dans le cadre du réseau Internet et examine ensuite quelles peuvent être les politiques de régulation envisagées. Les problèmes de comptabilité apparaissent liés à l'offre de services sur le réseau et ce sont les coûts de congestion qui devraient être facturés. Le marché aux enchères semble constituer un modèle théorique intéressant pour un dispositif technique de contrôle de saturation, installé éventuellement sur les routeurs locaux. La facturation des "ressources informationnelles" sur le réseau pose le problème de la définition d'un moyen de paiement électronique sécurisé. L'interaction entre les mécanismes de prix et la structure du marché devient une question stratégique dans le cadre de la dé-réglementation suscitée par l'émergence des réseaux numériques à intégration de services.
Abstract
This paper discusses the regulatory problems about the current state of Internet and the speculations about future developments such as the information superhighway. It studies the congestion problems faced by the Internet and what kind of regulatory mechanisms can be used for congestion control on a computer network. The problems associated with Internet accounting seems to be linked with the range of network services and there is some evidence for pricing the congestion costs. An auction market may be an interesting theorical model for a congestion control mechanism that can be implemented on local routers. The pricing of "information goods" stresses the need for secure electronic currency on the networks. As integrated services data networks emerge, the interaction between pricing schemes and market structure becomes a strategical issue in the deregulation framework.
Problèmes de saturation sur l'Internet
Depuis ces cinq dernières années, le trafic sur l'Internet a connu une croissance réellement exponentielle : il double de volume chaque année. Un déterminant manifeste de cette croissance s'impose en premier lieu à l'esprit des technocrates de tous bords : quasiment, toutes les utilisations de l'Internet ont un coût marginal nul. Les organismes paient un prix fixe pour un accès illimité jusqu'à concurrence de la bande passante de leurs liaisons. Cependant l'externalité existe, car un réseau à commutation de paquets est un média partagé : chaque paquet supplémentaire envoyé par l'utilisateur-lambda introduit un coût supplémentaire pour l'ensemble des utilisateurs, car les ressources utilisées ne sont alors plus disponibles pour la communauté. Ce coût peut être évalué en termes de paquets retardés, voire perdus ou abandonnés. C'est le problème classique des parties communes dans un immeuble en co-propriété.
Sans incitation à l'économie dans l'utilisation du réseau, les phénomènes de saturation peuvent devenir dramatiques. Le problème est d'autant plus sérieux pour les réseaux numériques que la panoplie des usages est très différenciée par rapport à d'autres types de ressources. Par exemple, sur une autoroute, un individu est limité dans la consommation de ressources partagées : il ne peut conduire qu'une seule voiture. Sur un réseau numérique, un usager doté d'une station de travail récente peut émettre seulement quelques dizaines d'octets par le courrier électronique, comme il peut charger le réseau avec des centaines de méga-octets par seconde en transmettant des images vidéo, même compressées (1). En moins d'un an, n'importe quel étudiant de premier cycle devient capable de brancher sa caméra vidéo Sony sur son nouveau MacIntosh multimédia et de transmettre à sa petite amie des images vidéo en direct, demandant au moins un débit de 1 Mbps (2). La bande passante sur l'actuel réseau étant de 45 Mbps, il est clair qu'il suffit de quelques amoureux dotés d'équipements bon marché pour mettre l'Internet à genoux.
Les problèmes de saturation ne sont donc pas des hypothèses d'école : ils peuvent se manifester dès que la charge du réseau excède 2O% de sa capacité globale. En 1987, lorsque l'infrastructure de l'Internet était basée sur des liaisons beaucoup plus lentes (à 56 Kbps) (3), le réseau a dû faire face à des problèmes critiques de saturation. Les utilisateurs travaillant en session interactive à distance ont souffert de délais de transmission jugés inacceptables. Comme solution provisoire, les administrateurs du réseau NSFNET (4) programmèrent alors les routeurs pour donner une priorité plus importante aux sessions interactives de connexion à distance -utilisant le programme telnet (5)- qu'aux transferts de fichiers, utilisant le programme ftp (6).
Plus récemment, certains services sur l'Internet ont connu des problèmes de saturation : des serveurs ftp importants, le serveur Web (7) du site NCSA, le serveur Archie (8) de l'Université McGill -victimes de leur succès- ont subi une dégradation drastique de leurs performances en raison d'une charge excessive. Si chacun d'entre nous utilisait seulement le courrier électronique en mode texte (44 bits par mot en moyenne), il s'écoulerait beaucoup d'eau sous les ponts avant que cela ne conduise à saturation. Cependant, la demande pour les services multi-média s'accroît très rapidement. Les nouveaux services, tels que Mosaic (9) (1,3 million d'accès par semaine) ou ITR (10) consomment des plages de plus en plus larges de la bande passante. Si l'offre de bande passante s'est accrue de façon considérable, la demande a allégrement suivi, en raison principalement de la multiplication des applications utilisant des standards graphiques comme X-Windows (11), sur le réseau. Il est donc probable que, dans un proche avenir, la demande de bande passante excède l'offre, si un mécanisme de rationnement n'est pas institué.
La gratuité est-elle encore de mise ?
L'affectation de priorités aux différents types de trafic par des administrateurs est une solution séduisante, mais impraticable dans le long terme comme solution aux problèmes de saturation, en raison de son inefficacité comme mécanisme de rationnement. Elle a encore un inconvénient plus grave : il est impossible de l'imposer. Du point de vue du réseau, les bits ne sont que des bits, et rien d'absolument fiable ne permet de distinguer les différents types d'utilisation. Par convention, les programmes standards spécifient un identifiant unique dans l'en-tête TCP, appelé le numéro de port ; ce dispositif fut utilisé par NSFNET pour son mécanisme de priorité en 1987. Néanmoins, il est facile de changer le numéro de port dans les en-têtes de paquets par exemple, et d'affecter aux paquets issus d'un ftp le numéro de port de telnet, afin de court-circuiter le mécanisme d'affectation de priorité. Afin d'éviter ce type de fraude, NSFNET conserve le secret sur ce mécanisme d'affectation de priorité, mais on conçoit bien qu'il ne s'agit pas d'une solution à long terme.
Quels sont les autres mécanismes pouvant être utilisés pour éviter la saturation ? L'approche économique la plus triviale serait de facturer un coût d'utilisation. Mais les propositions de facturation qui ont été soumises ont rencontré une opposition de principe si vive qu'actuellement aucun schéma de facturation des services fournis par l'infrastructure n'a fait l'objet d'un examen sérieux.
D'autres mécanismes de régulation ont été proposés, notamment ceux reposant sur la coopération : certains administrateurs affirment que la pression des pairs et le respect d'une charte des utilisateurs seraient suffisants pour contrôler les coûts de saturation. Récemment, un utilisateur diffusant mondialement un test audio-vidéo sur l'ensemble du réseau à un débit de 350-450 Kbps avait bloqué les possibilités de diffusion audio planifiée par une université finnoise ; le groupe d'ingénieurs administrant le réseau a alors sommé l'administrateur du site de déconnecter la station de travail émettrice. L'utilisateur novice responsable de cette perturbation n'avait pas envisagé un seul instant les conséquences de ce type d'utilisation. Cet exemple illustre bien la faiblesse d'une régulation sous la pression des pairs : ce dysfonctionnement, généré par une utilisation inefficace du réseau, n'a cessé qu'après avoir sérieusement perturbé son fonctionnement. Au fur et à mesure que s'étend le réseau, augmente en proportion le nombre d'utilisateurs inexpérimentés qui ont accès à des applications provoquant de fortes perturbations si leur usage n'est pas maîtrisé. Quant aux utilisateurs mal intentionnés, il est vraisemblable que la pression des pairs se révèle tout à fait insuffisante.
Un mécanisme de contrôle volontaire a déjà été expérimenté par la NSFNET en 1987. Le dispositif prévoit que les utilisateurs indiquent la priorité qu'ils veulent attribuer à chacune de leurs sessions, et que les routeurs soient programmés pour gérer les files d'attente multiples associées à chaque classe de priorité. Évidemment, le succès d'un tel dispositif dépend de la volonté des utilisateurs d'affecter des basses priorités à une partie de leur trafic. Tant qu'il reste possible pour un ou plusieurs utilisateurs de saturer le réseau par méconnaissance, incurie ou abus, ce type d'approche demeure parfaitement illusoire.
De fait, nombreux sont les dispositifs, basés sur le volontariat ou la coopération, déjà mis en place. Ils sont utiles dans la mesure où la plupart des utilisateurs en ignorent l'existence ou bien n'ont pas la compétence technique pour les contourner. Par exemple, la plupart des implantations du protocole TCP (12) disposent d'un algorithme à "démarrage lent" qui permet de contrôler le taux de transmission en fonction du délai d'attente courant sur le réseau. Mais rien n'empêche les utilisateurs de modifier leur implantation du protocole TCP pour émettre "plein pot" s'ils n'ont pas l'intention de se comporter correctement.
Le sur-dimensionnement constitue une approche radicalement différente pour limiter les problèmes de saturation : il s'agit là d'un exemple de "fuite en avant" technologique. Elle consiste à accroître suffisamment la capacité du réseau pour absorber les pics sans dégradation notable des performances (13). C'est aujourd'hui le mécanisme le plus répandu sur l'Internet. Cependant, avec l'apparition d'applications à très grande bande passante et de possibilités d'accès quasi-universels, ce sur-dimensionnement pourrait devenir extrêmement coûteux. Le problème se pose en termes simples : le coût de l'accroissement de capacité diminue-t-il plus vite que le taux de croissance de la demande ?
Étant donné le caractère exponentiel de la croissance des besoins et le délai considérable pour introduire de nouveaux protocoles de transmission, les progrès technologiques permettront-ils à l'Internet de soutenir à un rythme équivalent l'élargissement de sa bande passante ? Rien n'est moins sûr ; il semble donc urgent, pour ce type de réseaux, d'envisager sérieusement des mécanismes alternatifs d'allocation de ressources, basés sur des politiques tarifaires.
Rechercher le meilleur niveau de service
L'Internet offre actuellement une seule qualité de service, celle du service à la demande : premier arrivé, premier servi, sans pour autant garantir la transmission effective du paquet. Certains paquets peuvent être retardés, d'autres peuvent être abandonnés ou ne jamais arriver.
Cependant, les différents types de données transmises impliquent des niveaux de services différents sur le réseau. Courrier électronique et transfert de fichiers ne souffrent aucun défaut, mais peuvent être mis en instance. Par contre, la diffusion de messages parlés en temps-réel supposant une bande passante plus large que pour le transfert de fichiers, doit être réalisée dans des délais très courts, mais peut supporter des distorsions significatives. La diffusion vidéo en temps réel ne tolère vraiment ni les délais ni la distorsion -ou alors à des niveaux très faibles.
En raison de ces exigences distinctes, les algorithmes de routage doivent traiter de façon adéquate ces divers types de trafic -en donnant par exemple une priorité plus grande à la vidéo en temps réel qu'au courrier électronique ou au transfert de fichiers. Mais pour ce faire, l'utilisateur doit donner des indications véridiques sur le type de trafic qu'il génère. Si un flot numérique pour vidéo en temps réel obtient la meilleure qualité de service, pourquoi ne pas déclarer que tous les bits envoyés appartiennent à des images vidéo en temps réel ?
Les dispositifs de facturation sur un réseau peuvent être considérés conceptuellemnt comme relevant d'un mécanisme d'échange d'informations. L'utilisateur indique le type de transmission, et à son tour la station de travail transmet cette indication au réseau. Afin de favoriser la véracité des déclarations, facturation et déclaration doivent être liées. Cette conception n'est pas exempte de toute critique, car elle ne tient pas vraiment compte des limites de la rationalité humaine. Cependant, à partir d'un tel contexte, on peut confier à chaque station de travail l'application de procédures comptables, aussi complexes soient-elles.
Comptabiliser les usages sur l'Internet ?
L'une des premières étapes nécessaires pour appliquer une politique de facturation basée sur l'usage est de le comptabiliser, mais sa comptabilisation pose de sérieux problèmes. D'une part, la commutation de paquets, de façon inhérente, se révèle inadaptée, car chaque paquet est indépendant. Par exemple, une conversation téléphonique d'une minute ne requiert dans un réseau à commutation de circuits que l'enregistrement d'une seule référence comptable. Dans un réseau à commutation de paquets, une conversation téléphonique d'une minute suppose en moyenne l'envoi de 2500 paquets, sa comptabilisation suppose donc d'enregistrer autant de références dans le fichier-journal. Sur l'ossature NSFNET circulent environ 56 milliards de paquets par mois. La facturation détaillée sur l'Internet, à l'instar de celle pratiquée par les compagnies du téléphone, s'avérerait rapidement trop onéreuse.
La granularité des enregistrements pose également problème. La comptabilité détaillée est pertinente lorsqu'elle suit le trafic jusqu'à l'utilisateur final. Si elle doit présenter un caractère incitatif, les incitations, pour être efficaces, doivent affecter l'usager lui-même. Mais le réseau est tout au plus capable d'identifier l'ordinateur-hôte qui envoie le paquet, tout comme les réseaux téléphoniques identifient le numéro appelant mais pas l'appelant lui-même. Il s'avère donc nécessaire d'implanter une couche supplémentaire de logiciel sur la station de travail pour identifier et comptabiliser l'origine des paquets envoyés sur le réseau. Essayez, par exemple, de comptabiliser l'usage du courrier électronique provenant des étudiants sur le site informatique public d'une grande université américaine (14) !
Plus le niveau d'agrégation des données comptables est élevé, plus cette comptabilité est aisée et moins elle est onéreuse. Par exemple, NSFNET collecte déjà des informations sur l'usage réalisé par chacun des sous-réseaux qui se connectent à son ossature - bien que ces informations soient collectées sur la base d'un échantillonnage statistique, et non de façon exhaustive pour chaque paquet. L'opportunité d'une comptabilité détaillée demeurera une question éminemment théorique tant que n'interviendront pas des innovations dans les méthodes comptables entraînant une baisse des facteurs de coût.
Facturer l'usage du réseau
Les ressources du réseau restant rares, un schéma rationnel d'allocation est nécessaire. Nous avons expliqué pourquoi les dispositifs à caractère technique ou militant ne s'avèrent pas entièrement satisfaisants. Les différentes formes de facturation des usages ont des conséquences spécifiques sur le contrôle de la saturation ; des formes différenciées de facturation selon la classe d'allocation de services se révèlent également souhaitables dans le contexte d'un réseau numérique à intégration de services (RNIS). En toute hypothèse, les schémas militants demanderont des sur-dimensionnements substantiels, pour faire face à l'explosion de la demande et à l'hétérogénéité des bandes passantes requises par la multiplicité et la diversité des applications. Les capacités en excès ont été directement ou indirectement réduites selon l'octroi de financements publics. Dans une phase de recherche et de développement de l'Internet, proposer des services télématiques publics à un coût marginal nul pouvait se justifier pour la communauté scientifique ; mais aujourd'hui la technologie est parvenue à maturité et le réseau est de plus en plus utilisé par des intérêts commerciaux. Peut-on considérer que l'usage du réseau doit rester gratuit pour les universités et les instituts de recherche, alors que téléphone et courrier postal ne le sont pas (15) ?
De fait, le Congrès des États-Unis a obtenu que l'initiative technologique développée sous le contrôle des instances fédérales pour les artères de communication à 1 Gigabit par seconde comporte une comptabilité et une facturation. Désormais, la NSF ne financera plus les services de l'ossature, laissant la gestion de cette infrastructure générale de communication aux opérateurs commerciaux ou gouvernementaux agréés. Au fur et à mesure que le réseau se privatise, la compétition s'organise de plus en plus autour de mécanismes efficaces d'allocations de ressources. Aussi voit-on apparaître une pression croissante, provenant à la fois du secteur public et du secteur privé, pour envisager sérieusement la mise en place de dispositifs de facturation. Le problème est de concevoir des mécanismes de facturation minimisant le coût des transactions et ne relevant pas de l'entrave discriminatoire pour l'accès au réseau.
Que doit-on facturer ?
La théorie économique standard suggère que les prix doivent être compatibles avec les coûts. Il existe trois éléments essentiels de coûts sur le réseau : le coût de connexion, le coût d'extensions supplémentaires de la capacité de transmission et le coût social de la saturation. A capacité constante, les coûts de fonctionnement directs sont négligeables et par eux-mêmes ne justifieraient pas la mise en place d'une comptabilité et d'une facturation.
Sur le plan conceptuel, facturer les connections aux réseaux est une opération relativement simple : la connexion demande une liaison, un routeur et une quantité certaine de travail technique spécialisé... Liaisons et routeurs sont des investissements ré-utilisables et donc facturés sur la base d'un coût annuel de location -bien que certains organismes achètent leurs propres routeurs. C'est actuellement le dispositif adopté sur l'Internet.
Facturer une extension de capacité de transmission suppose des informations sur l'utilisation. Théoriquement, il faudrait une mesure de la demande de l'organisme adhérent durant les pics de consommation, sur une période de référence, pour déterminer sa part de responsabilité dans la nécessité d'ouvrir cette extension. En pratique, une solution raisonnable serait de facturer une sur-prime pour l'utilisation durant des périodes de pointe prédéterminées, comme on le fait de façon courante pour la consommation d'électricité. Mais en réalité, les pics de consommation sur l'Internet s'avèrent moins facilement prévisibles que sur d'autres types de services. De fait, il est relativement aisé avec un ordinateur de planifier certaines activités en dehors des heures de trafic pour éviter les pics ; cette possibilité conduit à une grande mobilité des pics de consommation. En outre, une grande partie de la consommation est générée par du trafic international, pour lequel on observe des décalages horaires importants. Les statistiques sur le réseau révèlent donc des profils quotidiens d'utilisation tout à fait chaotiques.
Facturer la saturation : une bien séduisante théorie !
Il s'agit de concevoir un mécanisme de prix efficace pour minimiser les coûts de saturation. Lorsque le réseau est proche de la saturation, l'introduction d'un paquet supplémentaire par un utilisateur induit des coûts pour les autres usagers en termes de délais ou de paquets perdus. Un des dispositifs imaginés pour internaliser ce coût consisterait à imposer un prix d'usage, déterminé par un marché aux enchères local.
L'idée de base est simple. Tant que le réseau n'est pas saturé, le prix d'usage doit être nul. Lorsque le réseau est saturé, les paquets sont transférés en file d'attente selon une stratégie FIFO (premier entré, premier sorti). L'existence d'un marché aux enchères permet que la priorité soit évaluée sur la base de l'information fournie par l'usager. Pour ce faire, l'usager place une enchère sur son paquet indiquant combien il est prêt à payer pour un service immédiat. Sur les routeurs saturés, l'acheminement des paquets est basé sur le système des enchères. De façon à rendre le système attractif pour l'usager et compatible avec la technologie, l'usager ne paie pas l'enchère effectuée sur son paquet, mais l'enchère correspondant au paquet transmis par le réseau avec la priorité la plus faible. En principe, un tel mécanisme inciterait à effectuer des déclarations sincères et véritables.
Ce dispositif possède des propriétés théoriques intéressantes : non seulement sont servis en premier ceux pour lesquels le coût du délai est le plus élevé, mais le système de prix communique des signaux corrects pour décider d'une extension de capacité sur un marché compétitif pour un RNIS. Si tous les revenus provenant de la saturation sont réinvestis dans l'accroissement de capacité, alors la capacité sera augmentée jusqu'au point d'équilibre où sa valeur marginale est égale à son coût marginal. Les vertus d'un tel système ont évidemment de quoi séduire les économistes distingués qui s'interrogent doctement sur l'avenir du réseau.
De la théorie à la pratique ?
Les prix dans un marché local réel ne peuvent être mis à jour de façon instantanée et continue. Le prix efficace est déterminé en confrontant la liste des enchères à la capacité disponible en calculant le prix de rupture. En fait les paquets n'arrivent pas tous en même temps et sont donc comptabilisés sur une période de référence et il sera donc nécessaire de nettoyer les enchères par un système de fenêtre mobile temporelle. L'efficience de ce dispositif est basée sur la fréquence du nettoyage et la persistance des périodes de congestion. Au moment où les prix du marché seront modifiés, l'état de saturation pourrait avoir disparu, dans l'hypothèse d'une congestion très transitoire.
Plusieurs spécialistes des réseaux ont souligné qu'un tel dispositif soulèverait des objections parmi les organismes de formation ou à but non-lucratif, car ceux-ci ne pourraient déterminer à l'avance le coût d'utilisation du réseau. D'autres experts pensent qu'un tel argument est largement spécieux, puisque les enchères fournissent dans tous les cas un contrôle des coûts d'utilisation maximum du réseau. Bien évidemment, puisque l'on cherche à minimiser le coût de congestion, rien n'interdit aux utilisateurs, pour éviter de payer une facturation, de mettre systématiquement l'enchère de tous leurs paquets à zéro (16). Quand le réseau sera suffisamment congestionné pour atteindre un coût de saturation positif, ces utilisateurs paieront ce coût en délais plutôt qu'en espèces, comme ils le font d'ailleurs aujourd'hui.
On suppose également que les fluctuations des prix de saturation génèreront un marché global, et que des intermédiaires offriront un conditionnement du service autorisant un prix garanti aux utilisateurs finaux. Cette condition, jugée déterminante pour la création d'un futur marché des RNIS qui soit réellement compétitif, jouera évidemment le rôle d'un catalyseur dans les stratégies de restructuration capitalistique, visant à la constitution de consortiums industriels prêts à prendre le contrôle d'un marché encore flottant.
Mais avant de mettre en oeuvre ce type de solutions, beaucoup de problèmes théoriques et pratiques sur l'implantation de marchés aux enchères devront être résolus. L'étude technique réalisée sur ce dispositif portait sur un seul point d'entrée du réseau doté d'une mise aux enchères. En pratique, chaque réseau possède de multiples passerelles, chacune d'entre elles pouvant subir différents stades de saturation. Les enchères doivent-elles s'effectuer sur un concentrateur central avec une mise à jour des prix transmise continûment vers les différentes passerelles ? Ou bien une mise aux enchères doit-elle avoir lieu simultanément sur chaque passerelle ? Comment doit-on coordonner les différentes enchères ? Toutes ces questions amèneront à une confrontation des modèles théoriques avec des travaux empiriques, pour déterminer le taux optimal de consolidation et de partage d'informations sur les enchères, étant donné les coûts et les délais réellement observés.
Un autre écueil pour la mise en place d'un dispositif de facturation, c'est de déterminer qui doit payer de l'émetteur ou du récepteur. Pour des appels téléphoniques, il est clair que, dans la plupart des cas, c'est l'appelant qui doit payer. Cependant dans un réseau à commutation de paquets, les deux partenaires émettent leurs propres paquets, et dans un réseau travaillant en mode non-connecté, aucun mécanisme ne permet de détecter quel est la part de paquets provenant de la station de travail B émis en réponse aux paquets émis par A, station de travail à l'origine de la communication. Par exemple, un des usages les plus courants de l'Internet est la récupération de fichiers à partir d'archives publiques. Si l'émetteur de chaque paquet est facturé du coût de congestion du paquet, alors les serveurs d'archives, fournissant gratuitement des informations publiques, paieront quasiment la totalité des coûts de saturation du réseau généré par les requêtes des utilisateurs. Soit les serveurs publics de données mettent en place un mécanisme de facturation (ex post) des usagers pour les frais de saturation ainsi supportés, soit le réseau est conçu pour facturer correctement le coût au véritable responsable de la congestion (17). En principe, ce problème pourrait être résolu par des dispositifs similaires aux numéros verts, mais le coût de la complexité ainsi introduite pourrait être prohibitif pour un réseau à commutation de paquets.
A quelle hauteur facturer les coûts de saturation ?
D'après un rapport de la RAND Corporation datant de 1990 (18), en moyenne 80% de la facturation téléphonique aux USA serait consacrée au financement des frais de comptabilité. Le coût d'un appel téléphonique supplémentaire en période bleue est pratiquement nul, en période blanche de 5 à 10 centimes ; en revanche en période rouge, il peut passer à 50 centimes, soit 100 fois son coût de comptabilisation unitaire ! Ces ratios, qui peuvent sembler paradoxaux, traduisent en fait des équilibres délicats à maintenir entre les coûts de fonctionnement et les coûts de saturation.
Le coût moyen de l'ossature NSFNET est actuellement d'environ un million de dollars par mois pour un flot mensuel de 56 milliards de paquets, ce qui conduit à un coût unitaire par paquet (200 octets en moyenne) d'environ 0,01 centime. En comptant une moyenne de dix utilisateurs par ordinateur-hôte, on arrive au chiffre de 20 millions d'utilisateurs, ce qui implique, pour récupérer l'ensemble de la subvention NSFNET, une facture mensuelle de 40 centimes par personne. Si l'on évalue les coûts totaux de l'Internet US à dix fois le montant de la subvention NSFNET, on arrive à une facture mensuelle de 2,50 francs par usager. Les revenus tirés de la saturation du réseau seront probablement inférieurs à cette somme (19).
Le coût moyen de l'Internet est faible aujourd'hui en raison de l'efficacité de la technologie : la commutation de paquets permet une utilisation très efficiente des liaisons et des routeurs existants. Si chacun se contentait d'envoyer des courriers électroniques (environ 15% du trafic, tout protocoles confondus) en mode texte, il n'y aurait vraisemblablement aucun problème de saturation sur l'Internet. Cependant les nouvelles applications nécessitent parfois un accroissement considérable de la bande passante. Un courrier électronique vidéo peut utiliser 10 000 fois plus de bits pour transmettre le même message que son équivalent ASCII; et l'accroissement de bande passante induit par la recherche d'une plus grande convivialité, peut donc devenir très onéreux. Des politiques bien conçues de tarification des coûts de saturation ne sauraient facturer l'ensemble des usagers pour l'allocation de cette bande passante supplémentaire mais seulement ceux qui sont responsables de cette saturation.
Facturer l'information en tant que marchandise ?
Jusqu'à présent, nous avons focalisé notre attention sur la technologie, les coûts et la politique tarifaire des services de transport offerts par le réseau. Cependant, la plus-value apportée par un réseau ne réside pas seulement dans le transport, mais aussi dans la valeur de ce qui est transporté. S'il paraît souhaitable que le potentiel de développement de l'Internet se réalise dans sa totalité, faut-t-il pour autant mettre en oeuvre une politique tarifaire spécifique pour les services informationnels développés sur le réseau ?
Il existe de vastes gisements d'information présentant de sérieuses garanties d'excellence -et probablement autant d'une très médiocre qualité- qui sont actuellement disponibles sur l'Internet en tant que services gratuits. Historiquement, ils sont basés sur un effort militant pour collecter et maintenir des bases d'archivage de données, de programmes ou d'informations bibliographiques. En même temps que l'usage de ces bases se popularisait, ces éditeurs-militants ont découvert qu'il leur fallait trouver des ressources pour faire face à l'accroissement des coûts d'exploitation. Bien sûr, il est permis de rester sceptique sur la qualité ou la pertinence d'une information aussi gracieusement offerte !
Facturer des ressources informationnelles est un exercice difficile. Un service comme CompuServe facture ses utilisateurs au moyen d'une comptabilité individuelle. Cela suppose un mot de passe ; en outre, l'éditeur d'informations doit installer un dispositif sophistiqué de comptabilité et de facturation. Cependant, un des avantages majeurs de l'Internet est son caractère décentralisé : les sources d'information sont situées sur des milliers d'ordinateurs différents. Il serait trop onéreux pour un éditeur de mettre en place un système indépendant de facturation et de donner des mots de passe différents à chaque utilisateur. Les utilisateurs auraient à franchir des douzaines de systèmes d'authentification pour chaque service différent.
Un problème plus crucial encore est que nos politiques tarifaires traditionnelles s'avèrent inadaptées. La plupart de ces politiques sont basées sur le coût de reproduction que nous payons pour chaque copie d'un livre, d'un meuble, d'une maison, etc. En général cela marche, car le coût trop élevé de la reproduction nous incite à l'achat. Avec les biens informationnels, ce schéma s'effondre. C'est tout le problème de l'industrie du logiciel : une fois l'investissement réalisé, les coûts de reproduction sont très faibles. C'est également vrai pour toute information transmise sur un réseau. Imaginez, par exemple, que les boutiques de photocopie mettent en vente des polycopiés de cours sur support électronique. Qu'est ce qui empêche un jeune étudiant entreprenant d'en acheter une copie, puis de la revendre à un coût inférieur à l'ensemble de sa promotion ? Le problème est encore plus ardu pour les éditeurs de logiciels qui doivent faire face au "piratage", puisque le coût de reproduction de leurs produits est voisin de zéro.
Il existe toute une littérature économique étudiant ces problèmes de reproduction. La multiplicité des connexions fournies par le réseau posent de réels problèmes de tarification pour les services informationnels, et pourraient bien, dans le même temps, susciter d'autres interrogations. Par exemple, certains chercheurs ont imaginé un super-marché distribuant des biens informationnels dans lequel l'accès à une information enverrait automatiquement un paiement au fournisseur via le réseau. Mais encore faudrait-il résoudre les problèmes cruciaux de confidentialité des moyens de paiement et d'anonymat des achats, avant que de tels dispositifs de facturation se répandent.
Commerce électronique sur l'Internet
Certaines entreprises ont déjà commencé à faire de la publicité et à vendre produits et services sur l'Internet. Le shopping à domicile devrait être une des applications majeures des futurs RNIS, utilisant pour ce faire les possibilités de transmission numérique du signal audio et vidéo. Le commerce électronique serait censé alors instaurer un "recalibrage des niveaux de productivité", en réduisant le temps et les autres coûts (transport, stockage, distribution, administration) liés aux transactions commerciales, à l'instar des modifications introduites au moyen de la vente par correspondance dans le cadre de la sphère domestique. Mais une condition sine qua non pour l'émergence d'une économie fondée sur le commerce électronique est l'existence d'un moyen de paiement électronique sécurisé (20).
Le système des cartes de crédit bancaires fonctionne, car il repose sur des procédures à peu près fiables d'authentification, basées sur un dispositif physique et la connaissance d'un code confidentiel (21). La monnaie électronique circulant sur le réseau est difficile à protéger, puisqu'il est impossible d'installer des dispositifs physiques sur chaque station de travail en garantissant leur protection contre la fraude quelle qu'elle soit. Donc, authentification et autorisation sont basées la plupart du temps sur la seule utilisation de codes confidentiels. Une autre préoccupation est la garantie d'anonymat de l'acheteur, de façon que la trace des achats ne puisse être vendue à des agences de marketing ou des banques, ni transmise à une quelconque instance administrative ou juridique en l'absence de tout contrôle ou possibilité de recours.
Un certain nombre d'articles récents proposent des protocoles pour la monnaie électronique -espèces, chèques et crédits ; chacun d'entre eux possède des caractéristiques intéressantes, cependant aucun n'a encore connu d'application pratique. Chaum (1985) a conçu une forme anonyme d'espèces électroniques, mais qui suppose l'existence d'une banque centrale pour vérifier l'authenticité de chaque pièce de monnaie électronique qui circule sur le réseau. Medvinsky et Neumann (1993) ont proposé une forme de chèque électronique pas tout à fait anonyme, mais permettant de régler des transactions à distance avec plusieurs banques. Enfin, Low, Maxemchuk et Paul (1994) ont récemment présenté une forme de carte de crédit complètement anonyme.
Réglementer l'Internet
La croissance de réseaux comme l'Internet incite à la mise en oeuvre d'une réforme de la réglementation sur les télécommunications. Le service du téléphone constitue un monopole "naturel" et, partant, doit être réglementé. Cependant aux USA, les opérateurs locaux du téléphone font face à une concurrence croissante des réseaux numériques. Par exemple, la télécopie constitue un facteur important pour la croissance de la demande sur le réseau téléphonique. Mais la transmission numérique sur les réseaux à commutation de paquets est mieux adaptée à la technologie du fac-similé que la transmission analogique par le réseau commuté ; les télécopies sont donc transmises de plus en plus par l'intermédiaire de l'Internet. L'émergence des RNIS offrira le même service pour la transmission audio et la vidéo-conférence. Ce court-circuit est déjà mis en place par de nombreuses compagnies privées à l'instar de General Electric.
Résultat, la tendance semble être à la levée des barrières interdisant les participations croisées entre les exploitants du téléphone et les opérateurs du câble TV. Les compagnies régionales du Bell System ont déposé une pétition demandant que soient levées les dernières contraintes réglementaires du jugement définitif de la Cour Suprême qui les avait créées en 1984, lors du démantélement d'AT&T. La Maison Blanche, le Congrès et la FCC (22) développent tous des scénarios évoluant vers plus de dé-réglementation (23).
Le service de transport de l'Internet n'est actuellement pas réglementé. C'est une situation cohérente avec le paradigme juridico-constitutionnel selon lequel les "media courants" appartiennent à un patrimoine commun dont il convient de réglementer l'usage, tandis que les services proposés à partir de ces media ne le sont pas. Cependant aux États-Unis, ce principe n'a jamais été appliqué de façon cohérente : par exemple, les services proposés par les exploitants régionaux du téléphone sur leurs réseaux sont réglementés. Un certain nombre de groupes d'intérêt public militent désormais pour que de telles réglementations soient appliquées à l'Internet.
L'une des politiques prônées est l'accès universel, autrement dit l'assurance pour tous les citoyens d'un service de base à un prix très faible. Mais qu'est ce qu'un service de base ? Est-ce une simple liaison numérique ou une connexion à des services multi-média intégrés ? Dans un marché de services informationnels de plus en plus compétitif, comment peut-on financer cet accès universel ? Les utilisations à haute valeur ajoutée, qui pourraient être facturées selon une prime tarifaire par des fournisseurs en situation de monopole, sont de plus en plus soumises à la compétition et aux possibilités d'un court-circuit par la concurrence.
Question induite : les gouvernements doivent-ils considérer l'accès aux services télématiques comme relevant du service public ? Il semble que certaines initiatives aient déjà été prises dans ce sens. Par exemple, l'administration Clinton a demandé que toute publication gouvernementale soit accessible sous forme électronique. Un autre débat en cours aux USA porte sur les modalités de financement d'un accès privilégié pour les élèves et les professeurs du secondaire et du primaire.
Structure du marché des inforoutes ?
Si des secteurs d'activité comme les réseaux téléphoniques et le câble TV sont dé-réglementés, doit-on s'attendre à une guerre des prix meurtrière et à des restructurations sauvages comme dans le transport aérien ? Des interrogations semblables se font jour pour les réseaux télématiques. Par exemple, de nombreux observateurs aux USA pensent que le gouvernement fédéral, en concédant l'ossature de transport Internet à certains fournisseurs commerciaux, soutient une politique tarifaire déficitaire menée par un oligopole. À terme, les structures d'équilibre du marché risquent d'être radicalement différentes selon qu'il s'agisse du maintien des réseaux spécialisés actuels ou bien de l'émergence des RNIS.
L'interaction entre les politiques tarifaires et la structure du marché constitue un enjeu réglementaire d'un intérêt capital. Si des ossatures concurrentes continuent à offrir une tarification basée seulement sur la connexion, un opérateur pourra écumer impunément les utilisateurs à haute valeur ajoutée, en pratiquant une politique tarifaire basée sur l'utilisation, mais en offrant un meilleur service en termes de contrôle de la saturation. En revanche, un fournisseur de connexions à prix plancher sera capable de court-circuiter allègrement les fournisseurs dont la politique tarifaire est basée sur l'utilisation, en capturant la part de marché des clients préférant payer la saturation en termes de délais plutôt que de dollars. Cette interaction entre les mécanismes de prix et la structure du marché aura d'importantes implications stratégiques, car certaines politiques tarifaires peuvent se fonder sur la compatibilité entre réseaux concurrents, capables de fournir une comptabilité et une facturation efficaces. Ainsi des réglementations sur la compatibilité pourraient être bientôt édictées, en analogie avec les règles d'inter-connexion imposées aux compagnies régionales du Bell System.

Bibliographie


Notes

  1. Il faut pouvoir disposer d'un débit de 45 Mbps en moyenne pour diffuser des images TV en mode compressé.
  2. Méga-bits par seconde (106 bits).
  3. Kilo-bits par seconde (103 bits).
  4. Ossature télématique de l'Internet reliant les sites informatiques abritant les super-ordinateurs de la National Science Foundation, aux USA.
  5. Programme utilisant le protocole TELNET d'émulation de terminal permettant la connexion à distance sur d'autres systèmes informatiques situés sur le réseau ; d'après Braun et Claffy (1994) ce type d'utilisation représente environ 6% du trafic en volume.
  6. Le transfert de fichiers de données représente environ 45% du trafic en volume, dont 10% environ sont consacrés à des images en mode GIF ou JPG, Braun et Claffy (1994).
  7. Système de recherche d'informations de l'Internet basé sur la technologie hypertexte.
  8. Système de recherche de fichiers basé sur l'indexation des programmes, données ou textes stockés sur les serveurs publics de l'Internet.
  9. Interface globale d'interrogation des ressources de l'Internet rassemblant les fonctionnalités d'application telles que ftp, gopher, web, wais, etc.
  10. Internet Talk Radio, service de transmission audio empruntant les liaisons de l'infrastructure Internet.
  11. X-Windows, appelée encore X11 et proposée à l'origine par le MIT, s'est rapidement imposée comme une norme de facto pour les terminaux graphiques ; si l'interface graphique est beaucoup plus conviviale pour l'utilisateur que le mode texte, en revanche elle présente l'inconvénient de générer un trafic beaucoup plus dense pour la même quantité d'information échangée.
  12. Transmission Control Protocol, il s'agit de l'un des principaux protocoles de communication utilisés sur l'Internet.
  13. Les effets d'une saturation instantanée du réseau sont négligeables, sauf si celui-ci est proche de sa capacité maximale.
  14. Que cette mesure soit effectuée sur un échantillon statistique, peut contribuer à abaisser de manière substantielle les coûts de la mesure, mais son acceptation dépend en grande partie du niveau à partir duquel la mesure est effectuée - utilisateur individuel ou organisme - et de la distribution statistique de la demande. Par exemple, une distribution de la demande fortement corrélée dans le temps peut poser de sérieux problèmes de mesure.
  15. Certains employés d'universités utilisent désormais de façon régulière le courrier électronique pour communiquer avec familles ou amis ayant accès à des sites Internet. De même, un service de transmission de télécopie est désormais offert gratuitement entre villes reliées par le réseau, l'usager ne payant que l'appel local de téléphone pour transmettre le fac-similé à partir de son propre télécopieur.
  16. La plupart des utilisateurs tolérant un certain délai pour le courrier électronique et leurs transferts de fichiers, la quasi-totalité de ce type de trafic devrait s'écouler avec des délais acceptables et un coût de saturation nul, à l'inverse le trafic temps-réel qui devrait supporter un coût significatif.
  17. Les serveurs publics de données en Nouvelle-Zélande et au Chili ont déjà été confrontés à un tel problème : chaque paquet envoyé à des ordinateurs-hôtes étrangers leur est facturé par le réseau. Les administrateurs du réseau néo-Zélandais craignent que de tels dispositifs de facturation ne viennent entraver la production de services publics d'information. Les serveurs existants diffusent une note à la connexion attirant l'attention des usagers internationaux sur les coûts imposés de ce fait aux fournisseurs d'information.
  18. Mitchell (1990), RAND report R-3909-ICF.
  19. Si les revenus tirés de la saturation dépassent le coût du réseau, leur ré-investissement pourrait à terme contribuer à financer l'expansion du réseau.
  20. Les travaux de MacKie-Mason et Varian (1994) sur la tarification du transport télématique ont montré que l'introduction d'un moyen de paiement électronique semble souhaitable à partir du moment où les coûts transactionnels de comptabilité et de facturation sont assez faibles pour justifier la mise en place d'une tarification du réseau.
  21. Les cartes de crédit traditionnelles ne devraient vraisemblablement plus être utilisées sur les réseaux publics de transmission de données, bien que ce soit parfois encore le cas actuellement. Il est techniquement possible d'établir un compte d'ordinateur fictif et indécelable qui collecte frauduleusement les numéros de carte de crédit. Les détournements frauduleux sur le réseau téléphonique sont plus difficiles à opérer.
  22. Federal Communication Commission, instance fédérale de régulation des communications aux USA.
  23. New York Times, 12 janvier 1994.