Pour une th?orie soci?tale de l'informatique : les principes d'h?t?rog?n?it?, d'?quivalence et de compensation Pascal Robert
On a discuté longtemps (et le débat n'est toujours pas clos) afin de savoir si "faire de l'informatique" se réduisait à utiliser un ordinateur, ou bien devait se traduire par la construction d'une discipline à part entière -fondée sur l'analyse et la programmation. Pourtant, matérielle et/ou logicielle, l'informatique reste massivement appréhendée comme une technique (1), quasiment à l'instar de l'automobile ou du bâtiment. Néanmoins quelques ouvrages pionniers (2) ont montré que l'histoire de l'informatique ne pouvait se résorber au sein de sa seule technicité, et qu'il s'avère indispensable de l'ouvrir sur les dimensions économique et politique. Ne convient-il pas d'aller plus loin encore, et de proposer aujourd'hui l'esquisse d'une théorie sociétale de l'informatique ? Certes, celle-ci ne peut être qu'une oeuvre de longue haleine, c'est pourquoi il est seulement question ici de la présentation de trois principes, celui d'hétérogénéité, d'abord tel qu'on le rencontre dans le travail de Bruno Latour (3), puis dans une version spécifique à la généalogie de l'informatique ; celui d'équivalence ensuite, avancé par James Beniger et Frantz Rowe (4) au plan organisationnel et logistique, dont on dérive l'application gestionnaire ; et enfin un principe de compensation, abordé à travers l'introduction de la notion de "formatage généralisé", avant de la rapprocher de la théorie de la rectification développée par Harry Collins (5). Nous concluerons sur un éclairage du développement de la micro-informatique à leur lueur.
Ces trois principes ne s'inscrivent cependant pas exactement sur une même ligne : en effet, le second doit être reçu davantage comme un principe fonctionnel en quelque sorte, et s'il soutient une intelligibilité, elle n'en est pas pour autant critique. Les deux autres l'encadrent afin justement de le relativiser. Or, l'ambition d'une théorie sociétale de l'informatique ne doit-elle pas justement jouer de la tension qui travaille la relation du principe fonctionnel aux principes critiques ?
Le principe d'hétérogénéité
L'hétérogénéité selon Bruno Latour
Que peut bien vouloir signifier une expression telle que "théorie sociétale de l'informatique" ? Que l'informatique ne doit plus être pensée comme une technique plongée dans un milieu, qui en fonderait à la fois les conditions de possibilité et les contraintes de développement comme "technique pure".
Le courant de sociologie des techniques, qu'expriment en France les travaux de B. Latour, montre que la/le technique, ça n'existe pas. Ainsi, il n'en va pas du/de la technique et du social, tous deux dissous, mais d'un réseau d'évènements hétérogènes, qui se "réalise", se "concrétise", ou au contraire se déréalise ou se déconcrétise, selon que le projet, logiciel au départ, parvient à se "matérialiser" ou non par recrutement ou défection d'alliés -hommes ou choses. Pourquoi l'informatique échapperait-elle à un tel schéma ? La question semble d'autant plus pertinente que l'informatique, parce qu'elle traite de l'information, est beaucoup plus exposée que d'autres "techniques" au "social" : à l'interface de la forme et du contenu (6), elle travaille souvent directement sur un matériau que les approches traditionnelles identifient au social.
Cette perspective a déja été balisée par P. Lévy (7), et lui-même s'inscrit explicitement sous l'horizon théorique tracé par Latour. Cependant, pour passionnantes que soient les analyses de P. Lévy, il en vient nous semble-t-il, dans un mouvement de balancier quelque peu excessif, à totalement dissoudre toute identité de l'informatique. La persistance de l'objet, nette chez Latour -que sa démarche cherche à surprendre avant qu'il ne devienne une boite noire-, parait s'évanouir chez Lévy, puisque l'on assiste -apparemment- à sa disparition au sein d'un réseau en constante transformation.
L'histoire de l'ordinateur peut dès lors se comprendre comme l'intégration d'interfaces de plus en plus proches de l'utilisateur. Un ordinateur dont le symbole n'est plus tant une "pomme" qu'un "oignon" ! Mais un oignon dont le nombre de pelures se révèle potentiellement infini : ainsi, même lorsqu'il quitte le paradigme du calcul qui structurait "la machine univers" (8), Lévy ne semble pas parvenir à se déprendre d'un ordinateur qui/que mange l'univers ! Cette prolifération d'interfaces n'inscrit-elle pas abusivement l'ordinateur sous l'orbe de l'idéologie de la communication ? (9).
Mais à bien y regarder, l'informatique chez Lévy, et ce malgré le recours à la notion de technologie intellectuelle, reste en définitive intimement liée a l'objet -même en perpétuelle transformation- qu'est l'ordinateur : or, selon nous, l'informatique gagne à être appréhendée en quelque sorte au delà de son incarnation technologique, car ce qu'elle mobilise, c'est d'abord l'idée d'une automatisation du traitement de l'information. Voilà pourquoi c'est sur la base de cette dernière qu'il convient de réintroduire une logique hétérogène : avant même d'accepter le mélange des hommes, des signes et des choses, il convient d'accepter celui des choses relevant de genres a priori différents (10).
L'hétérogénéité généalogique
Car l'informatique ne se résorbe pas dans l'ordinateur ; ce dernier n'est qu'un avatar -momentanément le plus efficace- de la concrétisation du "procès" toujours repris, avec les techniques du moment, de rationalisation/automatisation du traitement de l'information : que ce soit par le truchement de moyens relevant traditionnellement des catégories "architecture", "mobilier", "fichiers", "imprimés", "mécanographie" etc... (11). La notion d'informatique correspond à l'énonciation d'une partie du processus qui travaille notre société et que J. Beniger nomme la "control revolution" (sur laquelle nous revenons un peu plus en détail p. 6 et 20). Ici la causalité ne recouvre pas sa forme classique, mais celle que définit P. Roqueplo : "S'il y a causalité, c'est entre une technique donnée et les conditions d'émergence des techniques ultérieures. La causalité joue non pas sur l'émergence de cette technique ultérieure, mais sur les conditions de cette émergence" (12).
Ce que nous appelons "informatique" n'est ainsi pas le fruit du hasard, mais d'un type de société qu'elle participe a son tour a spécifier et à construire. C'est bien dans ce cadre que l'ordinateur -comme moment singulier dans l'incarnation du "procès"- prend sens : son histoire, d'abord expropriée au profit du seul paradigme du calcul -sous pression de la guerre et de l'armée-, correspond à un travail de "récupération" de la logique du traitement de l'information ; elle n'est donc pas linéaire (13).
L'histoire descriptive en "pelure d'oignon" de l'ordinateur s'éclaire de la transformation qu'elle subit sous le travail de trois hypothèses :
- d'une part, celle de la généalogie hétérogène du traitement de l'information ; car dès lors, les différentes couches d'interfaces correspondent -malgré les aléas- à une réponse toujours mieux adaptée à une injonction d'accessibilité implicitement proférée par une société, dont la dynamique de la "control revolution" l'entraine à toucher de plus en plus de secteurs et d'acteurs : or, la pente lourde de cette société repose bien sur une consommation toujours plus considérable d'informations dans toutes ses gestions (économiques et politiques (14)) -dont le calcul n'est qu'un sous-ensemble ;
- d'autre part, la démonstration de J. Beniger intègre d'autres techniques, telles que le téléphone, le marketing, la presse, la publicité ou la radio etc., et souligne leur concomitance et leurs interactions (par exemple entre télégraphe ou téléphone et presse, ou publicité et presse etc.) : ainsi la mécanographie, puis l'ordinateur n'émergent-ils pas solitaires, mais au sein d'un quasi "éco-système" informationnel-communicationnel. Le principe d'hétérogénéité généalogique, vertical en quelque sorte, s'accompagne donc du travail d'un principe d'ouverture que l'on peut qualifier d'horizontal ;
- enfin, ne convient-il pas aujourd'hui de reconnaitre, avec P. Virilio que l'informatique constitue un véritable "moteur" ? (15) N'est-ce pas, en effet, cette qualité qui crée sa spécificité radicale face aux précédents outils, c'est-à-dire aux précédentes formes du traitement de l'information ? Or, moteur, "l'informatique" l'est depuis qu'il existe un traitement automatisé de l'information, la mécanographie de H. Hollerith dès la fin du XIX°s. Elle aurait suivi la voie décrite par Simondon (16), d'une concrétisation de plus en plus poussée, qui passe par l'intégration des interfaces.
Or, qu'est-ce qu'un moteur ? On peut le définir de manière générique, à la suite de J.P Séris comme "(...) une machine qui transforme une énergie quelconque en énergie mécanique" (17). Ne peut-on dès lors transposer cette définition à l'informatique ? Elle deviendrait ainsi le moteur qui transforme une information quelconque (faiblement structurée, sauf à lui assurer une compatibilité minimale avec son traitement informatisé) en une information fortement "formatée" (c'est-à-dire agrégée, rationalisée et standardisée). Entendons le rapport comme homologique : l'informatique serait dans l'ordre informationel l'équivalent du moteur dans l'ordre énergétique. Car, comme le souligne fort justement F. Dagognet, le traitement de l'information est "un authentique travail" (18). Il ne s'agit donc pas de conclure à l'existence d'une supposée énergie informatique (ce en quoi nous nous éloignons de P. Virilio). En ce sens, le moteur informatique est un moteur de deuxième degré (qui fonctionne grâce a l'énergie électrique).
L'informatique joue un rôle moteur -possède un effet moteur- essentiellement (ou d'abord) au niveau macro-sociologique. A cette échelle -celle de nos gestions socio-politiques- elle fonctionne en effet comme un "macro moteur d'inférences". L'information pléthorique et hétérogène nécéssaire a l'administration de nos démocraties du nombre (19) s'ordonne et s'architecture -mais également se rigidifie- sous son efficacité.
Une telle hypothèse nous permet de faire l'économie d'une informatique communiquante, informatique dissoute : en effet, le moteur informatique peut se brancher, s'encastrer au sein de dispositifs eux-mêmes plus ou moins concrets (donc plus ou moins réseautiques) pour les faire "tourner", sans pour autant s'y fondre. Où l'on évite la confusion prônée par (et promouvant) l'idéologie de la communication. Cette idée (du moteur informationnel), si elle conserve une dimension pleinement "sociétale" parce que ce moteur travaille une information dont nous avons vu qu'elle participe à la fois du "social" et du "technique", ou parce qu'il soutient le fonctionnement des grandes machineries sociales que sont la Sécurité sociale ou l'Insee, l'administration et les entreprises en général, nous fait également basculer vers le principe fonctionnel, le principe d'équivalence entre organisations et information : en effet, le moteur produit de l'innovation organisationelle, ce qui ne va pas sans dangers, ni une nécessaire relativisation par le principe de compensation.
Le principe d'équivalence
Le principe d'équivalence selon James Beniger et Frantz Rowe
F. Rowe, dans un ouvrage paru récemment sur l'informatisation des banques, avance cette thèse -forte- selon laquelle "(...) les technologies de l'information, et en particulier la télé-informatique sont avant tout des innovations organisationnelles" (20). Introduire une informatique équivaut ainsi à promouvoir une architecture qui ne se résorbe pas dans la seule machine, mais constitue en elle-même une logique organisationnelle. Aussi, la perspective d'une informatique/outil, utilisée et asservie par l'organisation, et dont l'impact reste limité à celui d'un instrument qui transforme certaines logiques dans le cadre donné de l'organisation sans pour autant l'affecter en lui-même, s'avère-t-elle profondément réductrice. Toute intervention informatique suit donc un principe d'équivalence à l'organisation. Cependant, montrer sa non-neutralité ne doit pas aboutir à l'inverse à absolutiser le principe -lequel ne préjuge aucunement de l'effet positif ou négatif pour l'organisation de l'innovation organisationnelle en quoi se résout l'innovation informatique. Il convient donc, selon nous, de moduler.
Car l'équivalence peut même mener à un véritable renversement paradoxal. En effet, si l'informatique équivaut à une innovation organisationnelle, alors elle peut également s'y substituer, en ce sens qu'elle absorberait l'innovation organisationelle et permettrait ainsi d'en faire l'économie au niveau concret de l'organisation du travail. B. Coriat montre par exemple (21) que le système MRP (le management des ressources de production, un système d'ordonnancement qui utilise abondamment l'informatique (22)) surplombe une réalité sans pour autant la transformer substantiellement. Où l'on rejoint -assez paradoxalement donc- l'une des thèses de J. Weizenbaum (23) sur la dimension conservatrice de l'informatique !
D'autre part, on ne peut manquer de s'interroger sur la réciproque que semble inclure le principe d'équivalence : effectivement, si toute informatique équivaut à une innovation organisationnelle, ne peut-on traduire, convertir toute organisation "en informatique", sans reste ? Ce serait alors entériner les tentations informaticiennes à de telles réductions. Or, notre troisième principe, celui de compensation, nous incite fermement a penser qu'une telle réversibilité doit être récusée : l'organisation ne peut s'exprimer par sa seule lecture informationnelle -la sociologie des organisations l'a amplement montré depuis longtemps. Inversement, une telle réflexion éclaire également le principe d'équivalence, qui doit donc être abordé sous l'espèce d'une équivalence limitée. En effet, la manipulation d'un tel principe ne doit s'effectuer qu'encadré par les deux autres : c'est pourquoi il reste, pour nous, un principe d'équivalence et non d'isomorphie.
Comprenons donc ce principe comme une ouverture sur la possibilité de l'équivalence. Tout système informatique possède un tel potentiel. Mais poser un tel constat ne préjuge en rien de son actualisation. Cependant s'il n'hypothéque pas les conditions contingentes de sa concrétisation, son refus, son échec (quelle qu'en soit la cause) signifie l'impossibilité d'embrayer sur le processus global d'informatisation -en rester de fait à ce que B. Coriat appelle une "taylorisation assistée par ordinateur" (24)-, et de bénéficier de son efficacité (quel que soit le jugement que l'on puisse porter sur cette dernière) : comme le moteur énergétique perd singulièrement la sienne lorsqu'il ne s'articule pas à un "mobile" (objet ou partie d'objet), le moteur informatique s'étouffe de ne pas travailler les architectures organisationnelles et/ou l'économie des transactions que ces organisations entretiennent entre elles ou avec des groupes sociaux plus flous, voire des individus. Le principe de compensation montrera en quelque sorte l'envers d'une telle contrainte (le formatage généralisé).
F. Rowe s'est en fait inspiré d'une thèse tenue par J. Beniger, et qu'il résume en ces termes : "L'informatique et les télécommunications ne sont pas spécifiquement des technologies du traitement et de la transmission de l'information, ce sont d'abord des techniques de contrôle des flux" (25). Il convient néanmoins d'éviter d'en déduire que les technologies de l'information ne seraient pas des techniques de traitement et de transmission de l'information, mais comprendre qu'elles n'ont d'autre fonction que de contrôler les flux. L'introduction de cette notion de flux se révèle tout à fait fondamentale, parce qu'elle charrie également dans son sillage celles de gestion et de logistique.
Le principe de l'équivalence gestionnaire
En quoi consiste en effet le geste et le savoir gestionnaire ? Que veut dire gérer ? Ne s'agit-il pas de suivre la trajectoire de l'image d'un "objet" (matériel ou logiciel) -au plus près de son évolution "réelle" ? Or, pour que l'image colle à l'objet, il faut qu'un "canal" les relie en permanence (entendons cette permanence comme un objectif vers lequel tendre), afin qu'il renseigne le dispositif de création de l'image sur le mouvement de l'objet. Il convient de contrôler au plus juste l'évolution de l'objet. La précision de l'image, donc de la gestion, en dépend directement. Ainsi, toute gestion -et ce d'autant plus qu'elle tend vers le temps réel, d'autant plus donc qu'elle prétend à une co-évolution à celle de l'objet- repose sur un mécanisme de contrôle, avant même le -et comme condition du- développement d'une logique de régulation. Pas de régulation en effet sans maitrise la plus adéquate de l'objet, donc de son contrôle.
Si gérer c'est d'abord contrôler un "objet", traiter de l'information, c'est toujours ouvrir la possibilité du contrôle. Il faut compter avec ce potentiel inhérent au traitement -singulièrement automatisé, "motorisé"- de l'information, qui l'introduit par là même à la gestion. Sous condition d'une traduction informationnelle, tout objet, quel qu'il soit, pourrait être soumis à une gestion. Où l'on reconnait certains penchants qui oeuvrent trop facilement à glisser du "contrôle de gestion" au contrôle social (26). Or, aucun objet n'est parfaitement réductible à son hologramme informationnel -et plus il est complexe et plus cette réduction se paye d'une véritable trahison.
Cependant l'acte de gestion dépasse la seule maitrise de l'objet ; il s'intéresse également de manière privilégiée au contrôle de processus. Or, si tout objet résiste à sa compression en son double informationnel, il en va tout autrement des processus. Cette équivalence de l'informatique au processus (quel qu'il soit) repose sur ce que nous nommerions volontiers la capacité de "simulation généralisée" de l'informatique. Nous entendons par là son aptitude à produire une traduction informationnelle d'échelle 1. Cette simulation généralisée transcende la conversion du processus en modèle, elle désigne d'abord son accompagnement et son redoublement. C'est elle qui fonde l'efficacité à proprement parler logistique de l'informatique (que cette logistique s'investisse dans une entreprise industrielle, de transport, de grande distribution ou militaire).
Des problèmes de conception engendrés par le déploiement de la simulation généralisée a dérivé une simulation restreinte (27) -comme production de modèles manipulables d'objets ou de processus (28)- qui vise, quant à elle, non pas à dupliquer l'objet ou le processus, mais à le rapporter (au double sens du mot, de retour et de mesure) à l'ordinateur, par rétrécissement, simplification et maitrise de ses coordonnées. Elle participe désormais à la production de la simulation généralisée, dont elle s'est toutefois autonomisée au point de donner naissance à une autre "réalité", virtuelle celle-la. Pour être plus visible et plus spectaculaire, la simulation restreinte ne doit pas oblitérer la simulation généralisée, dont le rôle dans la gestion de la complexité à laquelle est assignée l'informatique reste trop souvent négligé.
A la différence de l'équivalence gestion de l'objet/informatique, celle du processus à l'informatique reste beaucoup plus discrète, beaucoup moins ostentatoire : l'exercice de la vigilance en est rendu d'autant plus difficile. Or, le contrôle de processus par la simulation généralisée affecte pourtant, tôt ou tard, pleinement l'"objet" (lequel peut être un homme), mais indirectement, sans toucher, semble-t-il, à son intégrité : seul ce que l'on pourrait appeler son "parcours" est en cause (celui d'un homme dans une ville, qui, par exemple, paye de multiples services à l'aide d'une carte à puce, dont les relevés permettent de suivre la trace dans le temps et l'espace -une logique qui n'est pas différente de celle que met en oeuvre le suivi (le mot est clair) d'une marchandise ou d'une information bancaire).
A ce principe fonctionnel -et donc non-critique- de l'équivalence, potentiellement pervers, le principe de compensation offre un utile contre-point, une nécessaire relativisation.
Le principe de compensation
Le "formatage généralisé"
L'informatique n'échappe pas à cette tendance, qui affecte l'ensemble de nos techno-sciences, et que B. Latour cerne avec pertinence lorsqu'il avance que "chaque fois qu'un fait est vérifié et qu'une machine tourne, cela signifie que les conditions du laboratoire ou de l'atelier ont été étendues d'une façon ou d'une autre" (le gras est en italique chez B. Latour (29)). Non seulement l'informatique n'y échappe pas, mais elle en dépend peut-être plus que d'autres encore : en effet, si une automobile peut, quoique difficilement, pratiquer un peu le "tout terrain" sans avoir été conçue pour cela, l'informatique, elle, ne fonctionne pas du tout sans "formatage généralisé" préalable de la portion de réalité sur laquelle elle intervient.
Ce formatage généralisé (30) consiste en un processus d'organisation d'un milieu, de sa structuration en vue de produire une information traitable par l'ordinateur. En effet, un milieu quelconque n'engendre pas spontanément une telle information : il faut donc la construire. Ce qui se traduit d'abord par un travail d'architecturation de ce milieu aux normes informatiques. Envers de ce que l'on appelle, par euphémisme, l'adaptation. L'inadapté n'est autre que celui qui n'a pas pu/voulu se réorganiser en fonction de cet impératif. Il "résiste" dit-on. Travail politique donc.
Le "formatage généralisé" subsume cette idée d'une fabrication d'un "milieu pour l'informatique", qui permet à celle-ci d'atteindre sa pleine opérationalité, sa pleine fonctionnalité, de faire triompher la logique hyperfonctionnaliste révélée par F. Pavé (31). Ce qui ne veut bien évidemment pas dire que l'opération réussisse toujours parfaitement : il s'agit d'une tendance globale (mais qui, par là-même oeuvre à supprimer les espaces d'expression des différences).
Ce formatage représente-t-il une activité "technique" ou "sociale" ? Ni l'une ni l'autre, mais un travail "sociétal", au sens où celui-ci convoque tout aussi bien du matériel que de l'immatériel, du "hard" que du "soft", des choses, des signes, des hommes et des institutions. Car c'est bien le tissage de ces quatre instances qui crée un milieu. Ainsi les hommes cherchent-ils à acquérir la maitrise d'un langage informatique par exemple, ou bien leur travail s'ordonne-t-il tout entier à un processus informatisé qui les dépasse (les caissières de supermarché et la gestion du magasin), auquel les signes doivent également obéir (les prix qui ne sont plus affichés sur les produits, mais seulement en rayon), sans parler des choses, qui lui sont totalement subordonnées (le flux des produits reconnaissables plus à leur code-barre qu'à ce qu'ils contiennent).
En ce sens il convient d'interpréter la "numérisation" comme un véritable "effet formatage" : il s'agit effectivement de rendre l'image, le son ou toute donnée compatible à son traitement informatisé, de les préparer/transformer afin d'ouvrir une disponibilité à leur adaptation à l'informatique (opération qui fait elle-même appel à l'informatique). Or, il n'en va pas seulement de la technique au sens strict, mais également et indissociablement des entreprises qui portent le mouvement, et de toutes les "activités" (elles-mêmes mélanges d'hommes, d'institutions, de signes et de "techniques"), qui l'acceptent ou la promeuvent pour des raisons d'efficacité (dans l'intervention sur l'image, dans le stockage et l'écoute du son etc.) ou de pression du marché. Dès lors le moteur informatique peut être appliqué a faire travailler (non seulement les données mais également) ces nouveaux champs de l'image et du son, susceptibles de devenir ainsi de nouveaux gisements de production et d'emploi. (32)
Puisque l'informatique ne peut tenir sans le recours à ce formatage, elle ne peut prétendre à n'être qu'une activité purement technique... La "preuve" nous en est en quelque sorte fournie a contrario par l'idéologie technicienne (33) -ce discours qui prétend porter la vérité de la technique en la réduisant à sa seule technicité- qui oeuvre systématiquement à l'élimination de cet envers des choses : l'informatique dès lors ne s'impose que sous la pression de sa propre force, celle de sa logique supposée rationnelle, et ne s'affronte qu'à d'illégitimes et archaïques résistances. Or, nous venons de le voir, cette logique ne s'affirme pas par l'évidence de sa supériorité, mais après ou concomitament à un travail qui en facilite le déploiement.
La rectification selon Harry Collins
Ce travail correspond au niveau macro-sociologique à cette activité que H. Collins découvre au niveau micro-sociologique, lorsqu'il essaie de comprendre comment fonctionne une machine a calculer : la rectification (34). En effet, il montre que cette machine est fondamentalement incapable de faire correctement de l'arithmétique seule. Elle ne marche que parce que nous compensons ses défaillances. Elle ne fait de l'arithmétique que parce que son utilisateur, non seulement sait la manipuler, mais sait également ce que c'est que de faire de l'arithmétique. C'est le couple qui réussit ou échoue.
Il en va de même avec l'informatique, si ce n'est que la rectification/compensation n'engage pas tant un "homme" qu'un processus social. Sans préparation de son milieu d'accueil, sans que soient pré-implantées ses conditions d'exercice, elle ne fonctionne tout simplement pas et ne sert à rien. En effet, une "technique" ne parvient à se développer que si, d'une manière ou d'une autre, elle "sert a quelque chose et/ou à quelqu'un", elle remplit une fonction. Or, les conditions de sa réussite ne sont autres que celles de la pré-implantation de sa propre logique dans le milieu sur lequel elle est censée intervenir : elle ne "fonctionne" que si une fonction a été crée pour elle. N'en concluons pas cependant que la fonction crée l'organe, mais leurs conditions d'existences sont les mêmes, et ce n'est que lorque la fonction est suffisament "mûre" que l'organe peut se développer.
L'histoire de l'informatique, telle que l'on peut la lire sous l'éclairage de l'ouvrage de J. Beniger (35) le montre avec pertinence. C'est en effet dans le cadre d'un vaste mouvement -celui de la "control revolution", de la régulation des crises engendrées par l'accroissement vertigineux des volumes et des vitesses de production ouvert par la révolution industrielle, par le recours aux technologies de l'information et de la communication, que l'informatique parvient à s'imposer. Cette "control revolution" constitue, croyons-nous, en fait, un épiphénomène d'un mouvement plus profond encore, celui de la Rationalisation (36). Or, ces deux mouvements mêlent inextricablement les hommes, les signes, les institutions et les choses (plus ou moins matérielles ou logicielles elles-mêmes). Ces deux mouvements participent pleinement de l'accoutumance diffuse à une logique que l'informatique ne fait que concentrer, au plus haut degré il est vrai : celle du tri, du classement, du comptage et de l'étiquetage (37).
Ce fait dépasse les "générations" ou les types techniques. Ainsi la mécanographie d'Hollerith prend-elle son envol en cette fin du XIXème parce que :
- la démocratie américaine, ainsi que l'explique l'historien américain D. Boorstin (38) accepte et appelle un découpage statistique a priori et "rationnel" de la population, indispensable à sa gestion, en substitution aux classements européens hérités ;
- les grands trusts américains sont déja structurés et gérés dans le cadre de procédures rationalisées, sur lesquelles l'articulation de la mécanographie n'engendre pas de problèmes majeurs (39), tout en renforçant nettement le mouvement de rationalisation.
Cette version macro-sociologique et généralisée (car elle dépasse la position a posteriori) de la rectification/compensation ne joue pas seulement au niveau des seules conditions, mais également -au plus près du modèle de Collins- tout au long du déploiement de l'informatique, puisque celui-ci s'accompagne d'un important et coûteux travail qui vise à la maintenir en comblant les décalages (par une incrimination constante des résistances "humaines") et surtout par le principe du "plus de la même chose" (40) côté informatique et un renforcement du formatage côté "milieu". Nous dépensons ainsi un argent et une énergie folle à compenser les faiblesses de l'informatique et singulièrement celle de sa piètre capacité d'adaptation... par une exigence considérable envers la notre !
Le succès de la micro-informatique ne proviendrait-il pas d'un effort nouveau d'adaptation de l'informatique à l'utilisateur ? S'il se révèle difficile de récuser une telle position, il ne faudrait pas en conclure pour autant trop hâtivement a la fin de l'effet formatage. Car l'émergence de la micro constitue plutôt un changement de niveau du formatage : si la programmation ne représente plus un obstacle, si l'accès au logiciel d'application est désormais des plus aisés, il n'empêche qu'il n'accepte pas plus n'importe quelle information, et qu'il oriente toujours la production de cette dernière. Où l'on comprend mieux encore que le formatage ne joue pas seulement au niveau du traitement des données (41), mais bien à celui de leur "invention". L'ordinateur ne produit pas seulement de l'information en output, mais exige également une information déja pré-formatée en input.
La micro-informatique n'introduit pas à cet égard un quelconque desserrement du formatage...au contraire même, puisqu'elle démultiplie les puissances locales de traitement. On peut ainsi légitimement se demander si elle n'implique pas un changement d'échelle dans le formatage -lequel affecterait le "réel" plus en profondeur et plus en détail encore. Non seulement elle investirait donc de nouveaux territoires, mais elle les toucheraient plus précisément.
En ce sens la "démocratisation"/"décentralisation" tant attendue par les plus ardents défenseurs de la micro-informatique n'a pas eu lieu. Car l'information ne vient pas plus qu'avant "spontanément" à l'outil. La micro-informatique ne représente donc pas tant une nouvelle logique qu'une miniaturisation du moteur -et de sa puissance. Il s'agit d'une diffusion massive du moteur, qui peut ainsi pénétrer plus avant tous les "pores du corps social", mais pas de l'introduction d'une autre rationalité. Quelque peu paradoxalement, l'on peut avancer que, si elle démocratise, c'est encore et toujours la logique de la centralisation -qu'elle diffuse à des échelles inconnues auparavant.
Cette densification informatique, en quelque sorte, que porte la micro-informatique (loin donc, des espoirs que ses thuriféraires plaçaient en elle pensons en France a Bruno Lussato (42)), permet de transformer et de déstabiliser des outils-savoir anciens, tels que les plans et les cartes par exemple, qui se voient concurrencés par des systèmes d'information géographique dynamiques.
La micro-informatique, loin de se cantonner à l'utilisation domestique, envahit le paysage professionnel : elle soutient ainsi le développement de nouvelles gestions en "temps réel" et de nouvelles organisations. Le commercial en vient par exemple à abandonner la référence à un lieu spécifique de travail et à reporter son activité, soit chez son client, soit à son domicile, grâce a l'emploi de portables reliés au siège par un "numéro vert" (43).
Une telle densification rend de plus en plus omniprésente la "nécéssité" d'un formatage qui fait de plus en plus partie de la "nature des choses". Ainsi, lorsque la convergence, l'adéquation entre la logique du milieu et la technique devient quasiment parfaite, son effet se perd comme tel, parce que la différence tend à s'annuler : où l'on atteint a la naturalisation de la technique -ce qui, en règle générale veut également dire que les options possibles ont été éliminées (et souvent disqualifiées et/ou oubliées). C'est contre cette conséquence qu'il faut militer pour une théorie sociétale de l'informatique, qui la présente comme un construit complexe, dans son histoire comme dans son actualité.

Notes

  1. cf notre thèse, "L'impensé informatique, au miroir du quotidien in Le Monde (1972-1980)", Université Paris-I, 1994, notamment le chapitre deux.
  2. Nous pensons pour la France à Breton, Philippe, 1987, "Une histoire de l'informatique", La découverte, et Ligonnière, Robert, 1987, "Préhistoire et histoire des ordinateurs", Robert Laffont.
  3. cf notamment Latour, Bruno, 1992, "Aramis ou l'amour des techniques", La découverte, et Latour, Bruno, 1989, "La science en action", La découverte.
  4. cf Rowe, Frantz, 1993, "Des banques et des réseaux", Economica.
  5. cf Collins, Harry, 1992, "Experts artificiels", Seuil.
  6. P. Breton souligne notamment que "l'information [est un] parfait interface (...) parce qu'entité d'un coté tournée vers la technique (la forme), et de l'autre vers le social (son contenu)", in Breton/Rieu/Tinland, 1990, "La techno-science en question", Champ Vallon, p154.
  7. cf Lévy, Pierre, 1990, "Les technologies de l'intelligence", La découverte.
  8. cf Lévy, Pierre, 1987, "La machine univers", La découverte.
  9. cf Breton, Philippe et Proulx, Serge, 1989 (première édition), "L'explosion de la communication", La découverte et Boréal, et notre thèse, op cit.
  10. Une telle approche est à distinguer des "trois temps de l'esprit" que dégage P. Lévy : l'oralité primaire, l'écriture (et l'imprimerie), et l'informatique, in "Les technologies de l'intelligence", op cit, deuxième partie.
  11. cf notre article "L'informatique et son histoire : renverser la perspective ?", Terminal n°66/1995.
  12. cf Roqueplo, Philippe, 1990, "Les avatars de la communication du fait de la technique", in "Technologie et symbolique de la communication", PUG, p415.
  13. cf notre article "L'informatique et son histoire : renverser la perspective ?", Terminal n°66/1995.
  14. cf notre article "La démocratie, le nombre et l'informatique", Terminal n°65/1994.
  15. Nous avons également avancé une telle hypothèse dans notre thèse (cf op cit, l'introduction du Titre II, p223) a l'automne 1993, avant que d'avoir pris connaissance de l'ouvrage de Virilio (cf Virilio, Paul, 1993, "L'art du moteur", Galilé).
  16. cf Simondon, Gibert, 1989, "Du mode d'existence des objets techniques", Aubier.
  17. cf Séris, Jean-Pierre, 1994, "La technique", PUF.
  18. cf Dagognet, François, 1979, "Mémoires pour l'avenir", Vrin, p41.
  19. cf notre article "La démocratie, le nombre et l'informatique", Terminal n°65/1994.
  20. cf Rowe, Frantz, op cit, p96.
  21. cf Coriat, Benjamin, 1994, "L'atelier et le robot", Ch. Bourgois ; soulignons pourtant la réticence de cet auteur a reconnaitre le principe d'équivalence que nous proposons, puisqu'il prétend qu'"il faut soigneusement distinguer les innovations organisationnelles des innovations technologiques (...)" (p17) ; remarquons toutefois que B. Coriat travaille sur l'industrie et non le tertiaire : c'est pourquoi, a moins de récuser a priori ses positions, il vaut peut-être de noter que le principe d'équivalence concerne plus le tertiaire que l'industrie, ou plutôt se demander s'il ne s'applique pas au premier chef aux processus plus qu'aux opérations ; or, B. Coriat ne tend-il pas lui-même a confirmer cette seconde hypothèse lorsqu'il écrit que "la logistique est par excellence [le domaine] où innovation technique et innovation organisationnelle sont tenues par des liens de solidarité intime" (p54), et surtout que "la micro-électronique et l'informatique permettent un bond en avant dans l'économie générale des flux a l'oeuvre dans la production matérielle" (p65) ?
  22. Ce système "est largement basé sur l'usage de nouvelles technologies : (...) le traitement informatique de toutes les informations relatives aux commandes, aux stocks, a la disponibilité du personnel, aux capacités installées (...) [etc...]. Ce sont le nombre et la complexité de ces séries d'informations qu'il faut simultanément traiter qui exigent le recours a l'informatique" (op cit, p95).
  23. cf Weizenbaum, Joseph, 1986, "Computer power and human reason", Penguin.
  24. op cit.
  25. cf Rowe, Frantz, op cit, p56.
  26. cf notre thèse, op cit, chapitre 8.
  27. P. Breton montre ainsi que les contraintes du réseau SAGE de défense anti-aérien américain de la guerre froide -une capacité "logistique" donc- entraine la mise au point du Whirlwind -a la base un simulateur de vol- qui inaugure le déploiement de l'aptitude a la simulation restreinte informatisée ; cf "Histoire de l'informatique", La Découverte, 1987.
  28. cf Quéau, Philippe, 1986, "Eloge de la simulation", Champ Vallon.
  29. cf Latour, Bruno, 1989, "La science en action", La Découverte, p410.
  30. cf notre thèse op cit, chapitre six notamment ; il convient de noter a la fois la proximité et la différence d'une telle position avec celle de Simondon, beaucoup plus anthropomorphisée, lorsqu'il écrit que l'objet technique "crée de lui-même son milieu associé" (p56) in, Simondon, Gilbert, 1989, "Du mode d'existence des objets techniques", Aubier.
  31. cf Pavé, Francis, 1989 "L'illusion informaticienne", L'harmattan.
  32. A l'instar du cinéma, qui le premier, nous rappelle P. Virilio -op cit- a motorisé l'image et -donc ?- engendré une nouvelle industrie -peut-il en effet exister une industrie sans moteur, tout moteur n'embraye-t-il pas sur une industrie ?
  33. cf notre thèse, chapitre deux, op cit.
  34. cf Collins 1992, op cit, chapitre 5. Nous préférons le terme de compensation a celui de rectification employé par Collins : il est en effet a la fois plus global et moins "recteur".
  35. cf Beniger, James, 1986, "The control revolution", Harvard UP.
  36. cf Weber, Max, 1991, "Histoire économique", Gallimard.
  37. cf Dagognet, François, 1979, "Mémoires pour l'avenir", Vrin.
  38. cf Boorstin, Daniel, 1991, "Histoire des américains", Robert Laffont.
  39. cf Chandler, Alfred, 1988, "La main visible du manager", Economica.
  40. cf Watzlawick, Paul, 1975, "Changements et psychothérapie", Seuil.
  41. Peur des années 70, mais qui, pour légitime qu'elle soit, masque cet aspect décisif des choses, cf notre thèse op cit.
  42. cf Lussato, Bruno, 1981, "Le défi informatique", Fayard.
  43. cf les exemples d'IBM et de AS Birambeau in Informatiques magazine n°1, novembre 1994.