Systèmes d’information
et entreprises :
Convergence ou incertitude ?

Claire Charbit* et Jean-Benoît Zimmermann**

 

L’industrie informatique connaît, depuis les années 80, de profondes turbulences qui se sont traduites au cours de ces dernières années par une redistribution des positions de marché, l’émergence de nouveaux leaders, et l’apparition de nouveaux concepts de systèmes d’information qui bouleversent le contenu et la structuration de l’offre. Plus précisément, on évoque le passage d’un modèle vertical d’organisation de l’industrie, fondé sur une intégration forte autour d’un petit nombre de firmes globales, à un modèle horizontal qui correspondrait davantage à des positionnements de spécialisation sur une composante, voire sur une strate de l’offre (logiciel, microprocesseurs), et qui dériverait de la nature, par essence combinatoire, du produit informatique1.

Or, pour séduisante qu’elle soit, une telle mutation n’est pas définitivement acquise. D’abord parce que les forces inertielles des anciens modes d’organisation continuent de représenter une puissante résistance au changement, qui peut singulièrement infléchir le modèle émergent. Parce qu’ensuite l’incertitude qui pèse sur la configuration à venir entraîne des guerres de position sans merci, qui se fondent à la fois sur une course à la puissance, une concurrence par les prix de plus en plus étendue et une accélération du rythme de l’innovation.

La grande majorité des études disponibles s’appuient sur une analyse de l’offre et se construisent sur la prise en compte des capacités d’investissement et d’innovation des firmes, ainsi que sur la construction des réseaux d’alliance qui préfigurent les futures structures et les modèles technologiques qu’ils visent à promouvoir2. La démarche que nous présenterons à travers cet article se propose au contraire d’examiner cette transformation à travers une analyse des positions identifiables du côté des utilisateurs, et ce pour au moins deux raisons complémentaires. La première est la nécessaire prise en compte d’un bouclage offre-demande, pour valider le passage d’un ancien à un nouveau modèle en émergence, dans la mesure où les technologies de l’information chez les utilisateurs se sont stratégiquement rapprochées du cœur de leurs compétences propres, et que les conséquences de l’introduction de nouveaux concepts de systèmes d’information ont, chez ces utilisateurs, des répercussions importantes quant à leur organisation, voire même quant au contenu de leurs activités. La seconde raison qui motive notre démarche est la constatation que, dans un tel contexte d’évolution de l’offre, les utilisateurs ont à faire face à une double incertitude, à la fois technologique et organisationnelle, qui les conduit à opter pour une large variété de stratégies d’équipement, au sein d’un éventail allant de la position attentiste et d’aversion pour le risque à celle d’une attitude volontariste d’investissement sur une orientation technologique et architecturale déterminée.

Il ne s’agit pas pour autant de prétendre à une analyse des usages de l’informatique, laquelle constituerait évidemment une démarche complémentaire, indispensable à un approfondissement sérieux de la voie que nous nous proposons ici de défricher. Malgré l’intérêt évident d’une telle approche pluri-disciplinaire, nous ne pouvons à cette étape que renvoyer le lecteur aux travaux déjà accessibles dans le champ de la sociologie3. Pour ce qui nous concerne, l’objet de cet article, de l’ordre de l’analyse économique, vise à introduire l’idée que les stratégies d’offre ne peuvent se traduire de manière effective en termes de structures de marché que dans la mesure où l’adoption des concepts offerts constituera la condition permissive de formation d’une demande. Le bouclage offre-demande constitue par conséquent une forme récursive d’émergence ou de mutation des marchés. A cet égard, une enquête empirique menée auprès d’un échantillon de grands utilisateurs doit nous permettre de dégager une série d’hypothèses de travail, voire de faits stylisés, utiles à une analyse des conditions d’émergence d’un nouvelle configuration de l’offre de systèmes.

Nous suivons en cela la voie proposée par Bresnahan & Saloner (1994), concernant l’attitude des grandes firmes aux Etats-Unis, et par Saloner & Steinmueller (1996) qui ont entrepris une analyse similaire plus récente au niveau européen4. Ayant participé au volet français de cette étude, nous appuierons notre propos sur l’investigation empirique réalisée en France auprès d’une douzaine de grandes entreprises ou organisations. Nous élargirons le champ de la réflexion en resituant l’analyse de l’incertitude vis-à-vis d’un jeu de pouvoir ternaire au sein de l’organisation, dans lequel se confrontent Direction Générale, Direction Informatique et Utilisateurs finaux, triptyque dont chaque pôle apparaît porteur de logiques distinctes.

Dans la première partie de l’article, nous présentons une analyse historique de l’industrie informatique en trois grandes périodes5 vis-à-vis desquelles nous caractériserons l’évolution de ce triptyque au regard de l’évolution de l’offre et des conditions de la concurrence dans l’industrie informatique. Nous présenterons ensuite, dans la seconde partie, une analyse des résultats de l’enquête sur les groupes français, en mettant l’accent sur la manière dont les comportement de gestion de l’incertitude conditionnent les forces intertielles et celle du changement. Enfin dans la troisième partie, nous montrerons comment cette situation d’incertitude a relativisé le succès d’introduction des architectures de type client-serveur, présentées souvent comme l’archétype du nouveau mode d’organisation horizontal de l’industrie. Nous verrons que cet échec relatif a relancé la concurrence entre des modèles alternatifs et complémentaires de systèmes d’information, dont les manifestations les plus significatives sont sans-doute aujourd’hui le "Datawarehouse" et l’ "Intranet".

Informatique et entreprises : trois grandes périodes

L’industrie informatique a longtemps correspondu à un modèle d’oligopole très marqué, avec à sa tête un leader, IBM, qui dominait de très loin les autres membres de l’oligopole et imposait à l’industrie ses règles du jeu. Bien qu’on n’ait cessé de sonner le glas de la puissance du leader, son chiffre d’affaires, représentait encore 33,6% du chiffre d’affaires cumulé des 100 plus grands groupes de l’industrie informatique en 1984 et 22,6% en 1987, soit respectivement 7 fois et 4,5 fois celui de son challenger immédiat Digital Equipment Corp. Il est vrai que, sous les coups de boutoir des nouveaux venus dans l’industrie, la part relative cumulée des 100 premiers commençait, dès les années 80, à diminuer. En janvier 1992, IBM annonçait, pour son exercice clos de 1991, des pertes de 2,8 milliards de dollars, pour un chiffre d’affaires de 64,8 milliards, en baisse de 6,1% par rapport à l’année précédente. L’exercice 92, devait quant à lui, confirmer le virage amorcé, avec un déficit de 4,96 milliards pour un chiffre d’affaires en stagnation à 64,5 milliards de dollars. Pour la première fois de son histoire, IBM perdait de l’argent, après avoir connu, dès l’exercice de 1989, une chute de 35% de ses bénéfices. Cette chute relative, mais rapide, de la puissance du leader trouvait son origine bien antérieurement, dans un lent déphasage entre les principes d’organisation et d’évolution d’IBM et ceux de l’industrie informatique. Plus encore, ces résultats mettaient en avant le véritable échec des principes sur lesquels l’industrie des ordinateurs et du traitement de l’information s’était bâtie et avait fonctionné, et qui avaient fondé la puissance des grands groupes informatiques, aux Etats-Unis comme en Europe.

Au cours des quinze dernières années, l’industrie informatique est progressivement passée à une structuration complexe découlant de la nature combinatoire des activités et du produit informatique. Cette évolution a conduit nombre d’analystes à interpréter la situation présente comme une phase de transition d’un modèle "vertical" d’intégration à un modèle "horizontal" de l’organisation industrielle, dans lequel les producteurs se positionnent sur des composantes complémentaires. Les clients de l’industrie sont alors susceptibles de choisir et de mixer ces composantes en concurrence, afin de construire leurs propres systèmes d’information adaptés aux spécificités de leurs besoins. Cette nouvelle forme d’intégration combinatoire est elle-même rendue possible dans la mesure des progrès de la standardisation et des avancées des architectures de systèmes ouverts aux dépens des traditionnels systèmes propriétaires6.

D’un autre point de vue, la capacité à concevoir des systèmes d’information par l’intégration de composantes a priori indépendantes repose sur une gamme de compétences particulières. Elle induit donc une certaine bi-polarisation de l’industrie entre les technologistes "fournisseurs de technologies de plus en plus spécialisées", d’un côté et les intégrateurs, de l’autre, "avec à la clef une multiplication des alliances entre les deux camps et même dans chaque camp"7. Cette dernière position d’intégrateur constitue notamment une position de repli pour les anciens producteurs verticalement intégrés, qui leur permet de générer un chiffre d’affaires sur la base de leurs savoirs en matière d’architectures, sans risquer un positionnement sur un marché spécialisé. Elle leur donne aussi la possibilité de maintenir avec leur clientèle une apparence d’offre globale, en se faisant, par la fonction d’intégration, l’objet d’une intermédiation entre l’utilisateur et une offre éclatée de composantes spécifiques.

Du point de vue de l’utilisateur, l’architecture du système d’information mis en œuvre conditionne son organisation, en même temps qu’il s’appuie sur elle et l’irrigue. Mais ici la mise en phase des transformations de l’offre avec l’évolution des besoins des utilisateurs en matière de systèmes d’information, ne va pas nécessairement de soi et passe donc par certaines formes d’ajustement. Les changements organisationnels par ailleurs requis dans la dynamique évolutive des firmes peuvent nécessiter une transformation adaptative des systèmes d’information. A l’inverse, la transformation du système d’information d’une entreprise, qu’elle soit dictée par des impératifs techniques ou stratégiques, peut requérir de profonds changements organisationnels. Et ceux-ci peuvent éventuellement constituer un frein à l’évolution des systèmes d’information.

Nous analyserons ces questions, sur une base empirique, dans la seconde partie. Pour comprendre les déterminants de la situation actuelle,

il est néanmoins utile de revenir sur l’histoire des relations producteurs-utilisateurs et d’analyser comment l’évolution de ces relations a induit une transformation de la place et du rôle du traitement de l’information, au sein des entreprises, ou plus largement des organisations. Nous distinguerons trois grandes phases.

La première période, depuis les origines jusqu’au milieu des années 70, est l’ère des ordinateurs universels (mainframes). L’industrie informatique peut alors être caractérisée comme un marché homogène selon trois points de vue : de grands ordinateurs, produits par de grandes entreprises, pour de grands utilisateurs (Delapierre & Zimmermann, 1993). Les économies d’échelle sont la règle, aussi bien dans la production d’ordinateurs, qu’en ce qui concerne l’investissement en équipements de traitement de l’information ("loi de Grosh"). La recherche de rendements croissants qui en résulte se traduit par conséquent par une concentration du marché, aussi bien en termes de producteurs qu’en termes de base installée. A la tête de l’oligopole, IBM établit les prix et les orientations technologiques, sur lesquels les autres producteurs n’ont pas d’autre choix que de s’aligner. De cette entente de fait résulte un environnement de marché peu turbulent. En outre, l’incompatibilité entre les "systèmes propriétaires" des différents constructeurs renforce un caractère de concurrence monopolistique en fidélisant les utilisateurs auprès de leurs fournisseurs respectifs, par le biais de "coûts de migration" élevés.

Du côté des utilisateurs eux-mêmes, grandes entreprises ou grandes administrations, le traitement de l’information est une fonction très fortement centralisée, sous l’autorité de la Direction Informatique, selon le modèle qu’IBM a voulu et instauré chez ses propres clients. La Direction Informatique représente un pouvoir incontestable au sein de l’organisation cliente, fondé sur la concentration de compétences techniques et doté d’une légitimité à négocier directement avec le constructeur informatique. Son autorité au sein de la structure utilisatrice croît avec l’ampleur du marché offert au fournisseur attitré, renforçant par là même sa dépendance à l’égard du constructeur, dans la limite du budget obtenu de la Direction Générale.

Une première rupture de ce jeu intervint, dans le milieu des années 70, quand Gene Amdhal proposa des "mainframes", dont la mise en œuvre reposait sur un système d’exploitation similaire à celui d’IBM, en totale compatibilité, ouvrant alors aux clients du leader la possibilité de rompre leur indéfectible lien de dépendance avec leur fournisseur.

Pour la première fois dans l’histoire de l’industrie informatique, une concurrence par les prix commençait à s’imposer. Mais la stratégie d’Amdhal ne remettait en cause ni l’autorité de la Direction Informatique, ni même le concept d’ordinateur universel, comme concept central de marché. En 1975, les sept premiers constructeurs cumulaient 80% des ventes de l’industrie. Mais de 1975 à 1988, le marché des mainframes devait voir son taux de croissance annuel chuter de 20% à 6%, pour ne plus représenter en valeur que 15% de la base installée mondiale.

La seconde période est l’ère de l’informatique et débute dans les années 70 avec le succès des mini-ordinateurs, puis celui de la micro-informatique au début des années 80. Ces équipements, de moindre taille, construits par de nouveaux venus dans l’industrie8, visent avant tout de plus petits clients, PME aussi bien que départements individualisés de grandes organisations, pour des applications d’une nature variée selon les besoins potentiels de ces nouveaux utilisateurs : applications industrielles, administratives, scientifiques, etc. C’est à une remise en cause radicale de la dominance absolue du modèle précédent que l’on assiste ici. Les nouveaux entrants à la fois élargissent leur base de marché en explorant une clientèle nouvelle et court-circuitent les grandes directions informatiques centrales en négociant directement avec les départements utilisateurs avides de cette nouvelle autonomie. La fonction de traitement de l’information se voit ainsi partagée et distribuée à travers l’organisation, industrielle, administrative, scientifique ou commerciale.

Du côté de l’offre, les constructeurs nouveaux venus continuent d’abord de s’organiser selon le modèle verticalement intégré des fabricants de mainframes, mais l’exacerbation de la concurrence, en termes de prix aussi bien que d’adéquation aux besoins des utilisateurs, conduit peu à peu à une contestation des positions globales par des entrées de nouvelles firmes sur des segments ou composantes spécifiques, accompagnées d’une réactivation des économies d’échelles. Parallèlement, du côté des utilisateurs, le rôle de plus en plus stratégique de la connaissance au sein des organisations conduit à la recherche de systèmes intégrés d’information, susceptibles d’accompagner l’articulation étroite de toutes ses fonctions.

C’est sur ces bases qu’émerge, au cours des années 80, la troisième période qui est l’ère du traitement de l’information et qui correspond, du côté des utilisateurs, à une volonté de retrouver une cohérence globale du système d’information au niveau de l’organisation toute entière. Elle implique par conséquent une forme de reprise en main par la Direction Générale, soucieuse d’éviter une dispersion des moyens et un cloisonnement entre les diverses fonctions utilisatrices d’informatique. Les aspects combinatoires des systèmes de traitement de l’information, combinaisons de technologies et de composantes au sein d’une architecture d’ensemble, se retrouvent au plan de la structuration de l’industrie informatique. Les constructeurs doivent offrir des équipements qui puissent être incorporés dans des architectures d’ensemble, conjointement à d’autres composantes fournies par leurs concurrents. Ils doivent par conséquent converger sur des standards qui assurent la compatibilité, donc la connectibilité de leurs produits spécifiques. La recherche d’économies d’échelles a été déplacée des systèmes informatiques vers les composants standardisés, tandis que le fonctionnement de l’industrie repose, d’une manière générale sur l’existence de procédures de coordination et la convergence sur des architectures "ouvertes", qui permettent aux producteurs et aux utilisateurs de tirer parti des effets de réseaux, désormais au cœur de l’industrie du traitement de l’information.

Les trois périodes de l’industrie informatique

caractérisation fournisseurs-utilisateurs

Source : Elaboration des auteurs et Delapierre & Zimmermann (1993)

Des systèmes centralisés aux systèmes décentralisés ? Un processus de transition marqué par l’incertitude

En 1995, une enquête a été réalisée dans différents pays d’Europe auprès de grandes entreprises utilisatrices (ou ex-utilisatrices) de systèmes de type mainframe, afin d’obtenir leur témoignage sur les circonstances, les limites et les questions posées par la transition d’un système centralisé vers une informatique plus distribuée. Cette étude, dont l’objectif initial visait surtout à comprendre la mise en œuvre et les éventuels blocages d’un changement technologique, a en outre permis de saisir à quel point les différents pôles du tryptique, évoqué plus haut, rencontraient des niveaux d’incertitude variés et assignaient au changement technique des objectifs différents. Nous allons à présent illustrer ces propos en faisant essentiellement porter notre attention sur la partie de l’enquête à laquelle nous avons directement participé : celle qui concernait les grandes entreprises utilisatrices françaises.

Les formes concrètes de l’incertitude : incertitude organisationnelle, incertitude technologique

La littérature est riche de travaux conceptuels relatifs à l’incertitude. Leur application à des problèmes empiriques nécessite la définition de catégories opérationnelles susceptibles de qualifier la manière dont les agents perçoivent leur environnement incertain. Nous définirons deux types majeurs d’incertitude auxquels les entreprises ont à faire face : l’incertitude technologique et l’incertitude organisationnelle.

On peut définir l’incertitude technologique à travers trois problèmes emboîtés, de nature informationnelle et décisionnelle, auxquels les entreprises utilisatrices sont confrontées :
- quelles sont les technologies disponibles ?
- quelle est la technologie la plus appropriée aux besoins de la firme ?
- comment utiliser au mieux la technologie retenue ?

Cet ensemble de questions doit être aussi envisagé dans une perspective dynamique, dès lors que les choix des agents peuvent affecter aussi bien les technologies disponibles que les conditions de leur utilisation (coût, externalités). Il en est ainsi dans l’ensemble des processus de standardisation, qui occupent une place particulièrement importante dans les technologies de l’information.

A son tour l’incertitude organisationnelle résulte de la nécessité pour la firme de déterminer les formes organisationnelles les plus efficaces :
- du point de vue de son organisation interne ;
- du point de vue de son organisation externe, c’est à dire des relations qu’elle entretient avec son environnement.

Ainsi, tandis que l’incertitude technologique peut n’impliquer qu’un seul agent, l’incertitude organisationnelle concerne forcément l’incertitude qui pèse sur le comportement des autres et sur les relations que l’on a avec eux. Bien évidemment ces catégories analytiquement séparables sont dans la réalité intimement imbriquées.

En ce qui concerne les technologies de l’information, les utilisateurs se voient confrontés à une incertitude émergente du fait du passage actuel à une informatique modulaire. Dans ce domaine, les firmes doivent tout d’abord obtenir de l’information sur les technologies disponibles (premier type d’incertitude technologique). Elles doivent ensuite sélectionner la meilleure combinaison technologique selon leurs besoins (deuxième type d’incertitude technologique) pour identifier, enfin, le meilleur moyen d’utiliser cette technologie (troisième type d’incertitude technologique).

Par ailleurs, la mise en œuvre d’une technologie ne se conçoit pas indépendamment de l’organisation de l’entreprise utilisatrice. Les utilisateurs doivent repenser leur organisation interne, dans la confrontation avec les configurations envisageables du système d’information de l’entreprise (premier type d’incertitude organisationnelle, interne). De plus, en raison de l’évolution des conditions de l’offre, les firmes utilisatrices doivent aussi réviser les principes de leurs relations avec leurs fournisseurs (incertitude organisationnelle externe). Différentes attitudes peuvent en résulter : abandon ou transformation des relations antérieures qu’elles entretenaient avec leur fournisseur principal ; recours à des consultants afin de combler le "vide informationnel" existant entre l’offre et la demande par des conseils d’ordre technologique ou organisationnel ; constitution d’une compétence interne au point de devenir elles-mêmes conseil ou fournisseur pour d’autres entreprises (de logiciels ou de capacités informatiques) ; externalisation de leur fonction informatique (outsourcing ou infogérance), etc.

La variété des solutions retenues

Cette étude ne fournit bien sûr qu’un éclairage très partiel et ne peut en aucun cas prétendre constituer un échantillon représentatif de l’ensemble des choix. Elle donne cependant des indications intéressantes que les autres échantillons européens confortent ou nuancent.

Parmi la douzaine de grandes organisations interrogées, un quart optent pour le maintien, dans leur système d’information, du rôle central du mainframe, tandis que la moitié choisit la mixité des solutions en fondant leur système d’information à la fois sur le mainframe et sur des solutions alternatives.

Seules, parmi les organisations enquêtées, des entreprises manufacturières ou de process ont choisi d’abandonner définitivement le mainframe. Toutes les entreprises de service entendues conservent au contraire au mainframe un rôle important, voire central. Cette volonté est particulièrement manifeste pour toutes les entreprises de service dont le système informatique doit gérer un très grand volume de transactions de manière courante (banques, sociétés de distribution, d’assurances, etc.).

En se plaçant du point de vue des applications, celles qui "migrent" vers des architectures distribuées (ou bien y sont dès le départ installées) sont avant tout la CAO9 et partiellement la GPAO10. Il est clair que la CAO concerne des tâches relativement individualisées, ce qui simplifie le passage à des solutions informatiques alternatives sans remettre forcément en cause la coordination d’ensemble. Les activités administratives, à l’opposé, demeurent pour la plupart attachées au mainframe.

La tendance est donc clairement celle d’une rupture technico-organisationnelle pour les entreprises industrielles, tandis que des situations beaucoup plus variées caractérisent les entreprises de service.

Les choix technologiques et organisationnels des entreprises ne peuvent donc s’appréhender en dehors des spécificités des entreprises : aucune solution générale ne s’impose. Nous allons à présent examiner comment ces changements techniques et organisationnels sont évalués par les firmes interrogées.

Les difficultés à évaluer le changement

Dans le domaine des systèmes d’information, il est fort complexe de pratiquer une comparaison "avant/après" permettant de mesurer strictement l’évolution de la performance ou des coûts. En effet, un projet d’entreprise incluant un recours croissant à une architecture de type client/serveur11, implique le plus souvent une concentration simultanée des mainframes antérieurs. Comment distinguer alors les profits issus de cette concentration de ceux qui proviennent plus directement de la baisse de coûts informatiques générée par le recours à des solutions nouvelles ?

De plus, migrer vers des solutions alternatives ne signifie pas que l’on va faire exactement la même chose qu’auparavant, mais avec des matériels et des logiciels d’applications différents. Les solutions client/serveur ouvrent en effet la possibilité de choisir de nouvelles applications, de transformer l’organisation de la firme et d’améliorer la productivité des utilisateurs. Dans la mesure où le spectre des tâches concernées change, il est très difficile d’évaluer correctement l’évolution des performances.

En termes d’évolution des coûts, aucune relation simple n’émerge entre coût et architecture informatique. C’est plutôt la structure des coûts qui, clairement, est modifiée. Ainsi, trois difficultés sont mentionnées à l’issue ou au cours des opérations de migration, chacune mettant en évidence de nouveaux types de coûts ou des coûts cachés :
- le risque de compenser (et parfois de dépasser) la baisse de coûts informatiques par une augmentation des coûts de télécommunications induite, dont l’évaluation ne peut être véritablement anticipée ;
- la nécessité d’examiner de manière très approfondie la question des coûts de formation et de redéploiement des employés ;
- la difficulté à évaluer précisément dans quelle mesure une application peut s’avérer plus efficace selon qu’elle est utilisée sur un outil mainframe ou sur un outil client/serveur.

Ces éléments ne permettent pas de fonder la réelle supériorité d’un système sur un autre.

Le processus de décision : aspects techniques et organisationnels

La question de l’origine du changement technologique dans l’entreprise est liée à la manière dont s’articule le relation organisation/technologie.

Or cette relation, très spécifique, ne peut être comprise séparément des compétences-clés de l’entreprise.

En effet, l’initiative du changement informatique ne peut être conçue sans l’émergence d’une compétence technique interne. Ceci est particulièrement vrai dans un contexte où l’offreur n’apparaît plus forcément comme l’expert incontournable identifiant l’objet et la méthode adéquats. La montée d’une compétence interne ne se satisfait désormais plus de l’offre d’une "solution aux problèmes" quand celle-ci n’est pas accompagnée d’une information sur les processus conduisant à l’élaboration de cette solution. Ainsi, fréquemment aujourd’hui, les utilisateurs élaborent-ils eux-mêmes la composition des différents éléments du système d’information.

Or, la culture de l’entreprise peut influer fortement sur ses choix informatiques, et l’émergence ou non de compétences internes. Nous avons pu le constater pour des entreprises marquées par une culture scientifique et technique forte. L’insatisfaction vis à vis des technologies antérieures, la volonté permanente d’une plus grande performance technique pour les tâches, les projets spécifiques, à concevoir ou à exécuter, poussent au changement de solution technique (par exemple dans le domaine de la CAO). Dès lors, un ensemble croissant d’applications uniquement disponibles sur client/serveur, tout comme la volonté de disposer du meilleur outil possible (et la recherche d’une plus grande maîtrise de leur ordinateur), ont poussé leur nombreux utilisateurs compétents en la matière, au recours à des solutions alternatives au mainframe traditionnel.

Dans ce schéma, les utilisateurs à l’intérieur des organisations sont à l’origine du changement, ce qui peut induire une grande variété de solutions "individuelles" retenues au sein de l’entreprise. Dès lors la direction de l’entreprise, dans sa volonté de cohérence du tout et de diminution des coûts de la redondance, pousse la Direction Informatique à revoir l’ensemble du système d’information. Mais abandonner le mainframe peut être perçu par la Direction Informatique comme une perte de pouvoir, à la fois de contrôle et de négociation.

Il y a donc une sorte d’opposition entre :
- une volonté de performance individuelle et la recherche d’une performance technique des utilisateurs, dont le discours auprès de leur direction générale s’appuie sur la nécessité du changement technique, du maintien d’une capacité innovatrice et du dynamisme de l’entreprise pour l’emporter face aux concurrents et donc, une volonté de différenciation par la spécificité du système d’information ;
- une volonté de maintien des compétences techniques et des positions de marché acquises, une certaine aversion au risque de la part de la Direction Informatique. Le discours de cette dernière auprès de la direction générale est alors celui de la mise en garde : face au risque d’incompatibilité des matériels informatiques successifs et au risque de redondance des matériels et des applicatifs, quand les centres de décision à l’intérieur de l’entreprise ne parlent pas d’une même voix. Ces risques peuvent entraîner des coûts et des pertes de réactivité. Dans cette configuration, on constate souvent que le choix se porte sur le maintien de la solution antérieure dans l’entreprise (voire un retour à cette solution après des tentatives de mutation vers des architectures distribuées), ou sur une attitude mimétique ne retenant une solution que dans la mesure où elle semble l’emporter ailleurs, chez les concurrents notamment.

Le poids respectif de ces différents critères est fonction de la dynamique concurrentielle du secteur d’activité de l’entreprise, de la position de marché qu’elle occupe, de sa culture scientifique et technique, et surtout des enjeux de l’informatique qui intervient, à des degrés divers, au cœur de son métier. Ces éléments permettent de comprendre le succès des solutions mixtes, combinant mainframe et solutions alternatives dans un même système d’information, dans la mesure où elles offrent le moyen de contrebalancer les risques respectifs liés à chacune des deux attitudes-types que nous venons de présenter.

Ce schéma binaire ne doit néanmoins pas masquer l’existence d’autres types de comportement. Ainsi certaines directions informatiques, dont la relation avec les anciens fournisseurs de systèmes propriétaires a pu être allégée, traduisent leur volonté de permanence d’un contrôle fort, non pas dans le choix du maintien des mainframes, mais plutôt dans un attitude "techniciste" poussant le reste de l’entreprise au changement.

Quelle que soit la dynamique de refonte du système d’information : par une volonté de mise en cohérence de solutions trop variées retenues par les utilisateurs, ou bien par une poussée vers le changement technologique, nous avons constaté que les directions informatiques étaient mieux comprises lorsque de longs délais de mise en place du changement étaient prévus, afin de ménager des possibilités internes de concertation, de persuasion et de formation. Sans ces étapes, les risques de blocage et d’émergence de coûts cachés élevés sont forts.

Enfin, la relation entre les aspects techniques et organisationnels dans l’initiation d’un changement de système d’information n’est pas neutre. C’est avant tout une volonté de changement organisationnel qui pousse les entreprises à l’évolution technique de leur système d’information, bien plus fréquemment qu’une volonté de strict changement technique. Cela dit, l’évolution du système d’information des entreprises utilisatrices nous a semblé le plus souvent dictée par l’évolution de leurs compétences-clés12, plutôt que par des volontés ad hoc de changements organisationnels ou techniques.

Conclusion : un continuum de possibles

Ce travail sur les processus de migration informatique des entreprises nous a permis de dégager les conclusions suivantes :
- deux évolutions principales sont tout d’abord à noter : la concentration (des moyens informatiques) et l’ouverture (ou mise en réseau et spécialisation des moyens informatiques). Le choix de concentration des moyens informatiques (par une réduction du nombre de mainframes et une augmentation de leur puissance) est principalement justifié, dans les entreprises, par la volonté de réduire les coûts, tandis que la tendance à l’ouverture correspond à la recherche d’une plus grande réactivité, et donc d’une meilleure performance ;
- rien ne permet de généraliser (comme la lecture de la presse spécialisée pourrait parfois le laisser croire) le passage de systèmes très centralisés à des architectures très distribuées. Cette évolution ne semble pas revêtir un caractère urgent et obligatoire. On constate au contraire qu’il n’existe pas d’architecture universelle satisfaisant toutes les grandes organisations utilisatrices. Plus particulièrement, cette évolution n’a pas conduit à l’abandon général des systèmes mainframe. Il est ainsi intéressant de souligner qu’une entreprise ayant choisi d’adopter une structure informatique mixte (mainframe et non-mainframe) ne doit pas être considérée comme "en transition" entre un "vieux" système et un système "moderne". L’entreprise se situe plutôt le long d’un continuum des possibles du "tout mainframe" au "zéro mainframe", sans qu’aucune hiérarchie ni cheminement précis ne s’imposent entre les solutions présentes sur ce continuum. Même si une progressive disparition à terme de tous les mainframes est programmée, selon un calendrier bien évidemment dépendant des circonstances individuelles de la firme.

En l’absence d’une solution qui s’imposerait universellement, les choix des entreprises utilisatrices révèlent différentes attitudes face à l’incertain. Comme elles ne disposent pas de témoignages d’expériences concluantes strictement reproductibles et adaptables, deux stratégies polaires sont alors possibles :
- certaines, marquées par une profonde aversion au risque, préfèrent opter pour des méthodes déjà expérimentées dans le cadre d’un environnement mainframe ;
- d’autres, au contraire, motivées par la compétition technologique et un leadership dans ces domaines, optent visiblement pour des trajectoires plus innovatrices.

A l’issue de cette présentation de faits stylisés, caractérisant les grands utilisateurs de systèmes informatiques, nous pouvons noter que la transition d’un "marché vertical" vers un "marché horizontal" s’accompagne de l’émergence d’un vide informationnel entre une offre très éclatée et une demande très marquée par l’incertitude des choix technologiques et organisationnels. C’est dans ce vide informationnel que les intégrateurs se sont positionnés. Ces agents ne constituent pas un groupe homogène; l’intégration des systèmes peut être confiée à d’ex-constructeurs, à des SSII13 ou à des fournisseurs de logiciels réseaux (tels qu’Oracle). De plus, le poids de la composante externe de l’incertitude organisationnelle est de plus en plus fort dans la mesure où les entreprises sont amenées à s’insérer dans des structures élargies de réseaux.

L’hyperchoix, générateur d’une nouvelle incertitude

Ainsi, le passage d’un ancien mode d’organisation, vertical, à un nouveau mode, horizontal, de l’industrie n’est pas chose faite. Il ne correspond pas, pour le moins, à un phénomène de transition monotone dont l’issue serait indiscutable et dont le terme seul resterait incertain, compte tenu de la variété des dynamiques individuelles d’adoption des nouveaux concepts de systèmes d’information.

Du côté de l’offre, tout d’abord, les intérêts contradictoires des agents ne conduisent pas, dans l’état actuel, à l’émergence d’un modèle stabilisé autour duquel chacun convergerait. Avec la tendance à réintégrer l’ensemble des composantes, parfois disparates, de l’informatique distribuée au sein de systèmes d’information, le processus de standardisation s’est trouvé indéniablement ralenti. Ces systèmes se doivent de répondre dès aujourd’hui à la double contrainte de cohérence, d’une part, et d’ouverture aux nouvelles dimensions du traitement de l’information comme le multimedia, les flux à hauts débits, la multi-localisation et l’articulation avec des réseaux publics (Internet), d’autre part. La fonction d’intégration devient une clef pour la recherche d’une position de force dans le jeu concurrentiel. La démarche de normalisation qui avait été, dans les années 80, à l’origine du succès de concept de système ouvert (Saloner, 1990 ; Zimmermann, 1995) s’est peu à peu heurtée à une recherche de positions dominantes et à la résurgence des solutions propriétaires14.

Une telle situation est bien entendu génératrice d’incertitude quant à la pérennité des solutions et des architectures offertes et quant à leur capacité à intégrer les futurs produits et concepts d’une offre sans cesse élargie de composantes. Une telle incertitude ne peut par conséquent que renforcer l’aversion pour le risque du côté des utilisateurs, qui font montre d’une certaine réticence à décider d’options à fort contenu organisationnel, en avenir incertain.

En ce qui concerne les entreprises et organisations utilisatrices, la transition en cause se traduit par une nouvelle tension au sein du triptyque Direction Générale, Direction Informatique, Utilisateurs.

L’évolution vers une informatique plus distribuée, voire éclatée avait, au cours de la période précédente, les années 80, donné une place plus importante aux utilisateurs finals. La tendance au développement des réseaux et à la construction de systèmes informatiques complexes (Isckia, 1996) va encore transformer les rapports au sein du triptyque.

Aujourd’hui les enjeux sont tels que c’est l’organisation et le fonctionnement de la firme qui sont en cause dans l’intégration et le choix d’une architecture de système d’information. Les approches évolutionnistes de la théorie de la firme ont bien montré comment la firme moderne fonctionne et évolue sur la base de processus de création de connaissance, lesquels s’appuient mais ne s’identifient pas à des activités de traitement de l’information (Cohendet, 1997). Cette conception suppose la possibilité d’une certaine tension entre centralisation et décentralisation, qui à la fois préserve la cohérence d’ensemble et autorise les apprentissages à travers lesquels les connaissances se cristallisent en compétences nouvelles.

La Direction Générale tend à vouloir contrôler et contenir le processus de changement à l’œuvre, et notamment sa traduction en termes de système d’information. Un tel objectif suppose par conséquent de contrôler, harmoniser et mettre en cohérence les différentes requêtes des utilisateurs. Celles-ci se traduisent en termes de moyens locaux et partagés de traitement, mais impliquent aussi des choix relatifs aux modes et procédures de leur interaction au sein de l’organisation et avec son environnement externe. Il s’agit par conséquent d’intégrer ces requêtes et leur traduction technologique (choix d’équipements, de logiciels et de protocoles) au sein d’une architecture d’ensemble. On voit bien ici les deux dimensions d’incertitude, technique et organisationnelle, que ce problème recouvre.

Or cette préoccupation révèle une situation paradoxale. D’un côté l’informatique n’est plus affaire de spécialistes, puisque tout un chacun (l’utilisateur final) peut choisir, à son échelle individuelle, les composantes les mieux adaptées à ses spécificités d’utilisation (réduction de l’incertitude technologique). De l’autre, en revanche, la construction d’un système d’information (choix des composantes, architecture d’ensemble...) redevient affaire de spécialistes, car elle requiert des compétences particulières. C’est le nouveau rôle dévolu à la Direction Informatique (et/ou à un maître d’œuvre/intégrateur/extérieur) qui lui redonne une mission stratégique au cœur de l’entreprise. Mais en retour, c’est un regain de tension au sein du triptyque, et plus particulièrement dans les rapports Direction Générale - Direction Informatique, d’une part, et Utilisateurs - Direction Informatique, d’autre part. "The strained, unproductive partnership between CEO and CIO15 is the cause of most of the frustration over technology. CEOs love what they have been promised; they hate what they have been delivered" (Houlder, 1996).

L’introduction d’un concept de plate-forme verticalement désintégrée autour de l’architecture "client/serveur" a constitué une intéressante tentative stratégique en vue de réduire cette tension. Il est utile ici de faire quelques rapides remarques sur les raisons de son échec à constituer un modèle universel susceptible de réaliser une telle conciliation. Il est clair tout d’abord que le modèle de client-serveur, qui entendait permettre d’intégrer dans une même architecture les meilleures composantes disponibles sur le marché, s’adressait plus particulièrement à des entreprises et organisations jusque là utilisatrices de mainframes, qu’il s’agissait de supplanter, partant des insatisfactions (technologiques et organisationnelles) relatives au système en place. Sur cette base, les solutions proposées maintenaient une claire division des fonctions entre utilisation (le client) et production-détention de l’information (le serveur). Cette hiérarchie implicite relativement aux structures du système d’information a pour conséquence d’assujettir l’organisation à une structure informationnelle centralisée, en réalité peu flexible et peu évolutive, dans laquelle les "routines" informationnelles prennent le pas sur les processus de création de connaissance (Cohendet, 1997). Il est enfin significatif de constater comment un tel concept d’architecture, qui se voulait par essence ouvert, a failli dans ce sens, pour retrouver les vieux réflexes de la guerre d’influence autour de standards propriétaires. "The emerging client/server platform has not yet standardized around a few key components, leaving many unsure about who controls it. Amidst this confusion vendors fight for the control over pieces of the emerging standard. (...) Their strategies overlap and conflict in that all firms want to sell products and all firms want to use competitive success to acheive control of the emerging platform. Each of these firms would like to be the firm in position to control the design of the technology for the years to come" (Greenstein, 1997).
Partant d’une phase de tension, génératrice d’incertitude, au sein du triptyque, la tendance est à la recherche d’une conciliation qui permette de réduire cette incertitude, en offrant :
- des solutions adaptées et performantes en réponse aux besoins des utilisateurs finaux;
- la possibilité pour la Direction Générale de maintenir son contrôle sur les activités et la cohérence organisationnelle d’ensemble ;
- la possibilité pour la Direction Informatique d’exercer ses compétences propres dans la conception, la mise en place et le fonctionnement du système d’information.

Dans ce sens les récents concepts de Datawarehouse16 et d’Intranet17 constituent sans aucun doute des orientations intéressantes et significatives de réponse. L’intranet va dans le sens d’une informatique distribuée, en temps réel, entre les utilisateurs. Quant au datawarehouse, sa fonction de mémoire de l’entreprise, structurée et automatiquement alimentée (notamment dans ses relations avec la clientèle), conforte la Direction Générale dans son objectif de cohérence et de contrôle. Mais ces concepts, une fois encore, n’imposent pas sur le marché une architecture dominante des systèmes d’information.

En outre, le datawarehouse s’appuie sur des ordinateurs de très grande taille et contribue à conforter leur avenir. Plus encore, l’existence d’une offre maintenue et technologiquement évolutive de grands ordinateurs constitue en elle-même une certaine assurance de leur pérennité et conduit même certains spécialistes à annoncer un "retour des mainframes"18 qui constituerait bien davantage qu’une rémission d’un ancien marché agonisant. Ainsi le dernier né des gros systèmes IBM présente l’avantage de pouvoir traiter toutes les applications récentes les plus utilisées, et de s’inscrire dans une logique de production fondée sur l’assemblage de composants standards, entraînant dès lors des coûts plus faibles et des délais de fabrication plus courts. Cette nouvelle puissance accessible pourrait, elle aussi, trouver sa place sur un marché où les serveurs des réseaux et la dynamique des échanges internationaux de données demandent des capacités et une puissance de traitement extrêmement importantes. Et certains experts prévoient une croissance du marché de 20% par an pour les prochaines années, malgré la baisse des prix entraînée par la généralisation de la technologie CMOS19.

La diversité des solutions en présence conforte la variété des systèmes d’information observée dans l’enquête empirique. Elle remet en cause l’idée d’une supposée convergence vers un modèle émergent d’architecture informatique et d’organisation de l’offre. Et cette diversité intègre une composante de grands ordinateurs, héritière des anciens mainframes, mais profondément transformée, aussi bien en termes des technologies impliquées, que du caractère propriétaire des systèmes ou même de l’identification et des principes stratégiques des constructeurs en cause.

De cette situation de variété des solutions techniques et organisationnelles possibles, un enseignement fondamental nous semble devoir être dégagé. Si le choix d’un système d’information résulte à la fois de considérations organisationnelles et de considérations technologiques, le processus de décision des entreprises doit pouvoir donner le primat à la composante organisationnelle et lui faire correspondre la solution technique adéquate. Dans un premier temps, cette attitude garantit une plus grande maîtrise du processus de changement dans l’entreprise, ce que nous avons constaté dans notre enquête. Plus fondamentalement, lorsqu’aucune solution technologique ne s’impose de manière définitive, les décisions des entreprises se trouvent particulièrement affectées par l’incertitude à la fois technologique et organisationnelle. Dans ces conditions, les choix des firmes doivent garantir le maintien de leurs spécificités et de leur culture, plutôt que d’essayer de se conformer à des tendances générales, au demeurant fort difficiles à établir. Il ne s’agit donc pas d’assujettir l’organisation de l’entreprise aux caractéristiques techniques du système d’information, mais plutôt de procéder à l’inverse.

Conclusion

Ainsi l’émergence d’une nouvelle configuration de l’offre est-elle conditionnée par la manière dont les entreprises utilisatrices seront à même de trouver une forme de conciliation entre les trois dimensions du triptyque Direction Générale - Direction Informatique -Utilisateurs finaux, c’est-à-dire plus fondamentalement entre Organisation, Système d’Information et Applications.

 

Direction Générale
Organisation
Direction Informatique
Système d’Information
Applications
Utilisateurs finaux

 

 

Cette double incertitude relative au choix et à la construction d’un système d’information a trouvé au fil du temps des expressions différentes.
- A l’origine, c’est-à-dire dans la période où les ordinateurs universels dominaient, la question principale qui se posait aux utilisateurs était celle de savoir quel système propriétaire choisir, à charge pour le constructeur retenu de répondre par une solution globale.
- Avec l’irruption d’une informatique distribuée, les utilisateurs ont pu améliorer les performances de leurs applications, à charge pour eux de déterminer (avec l’aide éventuelle de spécialistes externes) la solution composite la plus adéquate.
- Aujourd’hui, avec la complexité croissante des compositions et des architectures possibles, les utilisateurs ont à faire face à une double incertitude (technologique et organisationnelle) grandissante, face à laquelle deux grands types d’attitudes sont possibles qui conditionnent l’évolution des relations offre-demande et, à terme, la structuration de l’offre elle-même20. On trouve d’un côté des utilisateurs demandeurs de solutions globales envers les intégrateurs, auxquels ils confient la maîtrise d’œuvre de leur système d’information. Ils confortent par là même la position de ceux-ci dans la structuration de l’offre. A l’extrême, de tels utilisateurs peuvent accepter de se défaire intégralement de leur fonction informatique en l’externalisant (outsourcing)21. De l’autre, certains utilisateurs ont pu acquérir une compétence technique suffisante en matière d’intégration de système pour construire leur propre système d’information, ou pour être en mesure d’assumer la maîtrise d’ouvrage d’un système d’information dont la réalisation technique sera confiée à un intégrateur. A la limite, certaines entreprises ou organisations valoriseront sur une échelle élargie leurs compétences en la matière, en commercialisant eux-mêmes des produits ou services d’administration de systèmes, le cas échéant en externalisant leurs propres compétences d’intégration et de traitement (facilities management).


Notes

* ENST Paris
** CNRS - GREQAM - Marseille
  1. Gérard-Varet & Zimmermann (1985), Delapierre & Zimmermann (1994-a et b).
  2. Voir Delapierre & Milleli (1994)
  3. Voir par exemple Alter (1996).
  4. Cette étude s’est déroulée sur quatre mois auprès d’un échantillon de 60 grandes entreprises européennes encore utilisatrices de grands systèmes informatiques centralisés (mainframes), ou y ayant renoncé depuis peu de temps. Ce travail reposait sur des monographies de cas, douze pour chacun des pays européens étudiés (Allemagne, Belgique-Pays-Bas, France, Grande Bretagne et Italie). La coordination a été effectuée au MERIT (Maastricht) par W. Edward Steinmueller et Garth Saloner. Cette enquête constitue le pendant d’une étude similaire menée précédemment aux Etats-Unis par T. F. Bresnahan et G. Saloner (G. Saloner and W. E.Steinmueller, 96 ; T. F. Bresnahan et G. Saloner, 94). L’enquête auprès des utilisateurs français a été réalisée par C. Charbit (ENST), D. Foray (CNRS), V. Fernandez (ENST) et J. B. Zimmermann (CNRS).
    Nous tenons à remercier tout particulièrement Valérie Fernandez pour la pertinence de ses avis et son aide bibliographique. Bien entendu, nous demeurons responsables des éventuelles erreurs ou insuffisances que cet article pourrait contenir.
  5. Nous reprenons en cela l’analyse de Delapierre et Zimmermann (1994-b)
  6. Gray (1993) et Benezech (1996).
  7. Robert (1993)
  8. Lesquels ont pu contourner les barrières à l’entrée de l’oligopole en tirant partie d’innovations technologiques, notamment de l’introduction et de la montée en puissance des circuits intégrés.
  9. Conception Assistée par Ordinateur
  10. Gestion de Production Assistée par Ordinateur
  11. On peut définir l’architecture Client-serveur comme construite autour d’une ou plusieurs machines hôtes (serveurs) gérant les données de l’entreprise à caractère commun, partageable, en relation avec des stations de travail réparties auxquelles elles fournissent les informations (selon un protocole d’accès) et avec lesquelles elles partagent à des degrés divers le traitement.
  12. Certains métiers de l’électronique ou de la mécanique requièrent aujourd’hui, non seulement dans leur production, mais dans la nécessaire réactivité de l’outil aux évolutions du marché, l’utilisation des technologies (et notamment des logiciels d’application) informatiques les plus récentes.
  13. Certains métiers de l’électronique ou de la mécanique requièrent aujourd’hui, non seulement dans leur production, mais dans la nécessaire réactivité de l’outil aux évolutions du marché, l’utilisation des technologies (et notamment des logiciels d’application) informatiques les plus récentes.
  14. Voir le dossier "Administration de systèmes - survivre à l’explosion de la complexité", Le Monde Informatique, 23 Mai 1997.
  15. Chief Executive and Chief Information Officers
  16. Le datawarehouse (entrepôt de données) est "...une application d’informatique décisionnelle qui récupère les données dans les bases existantes, stocke ces données historiques, figées et référencées, et les met à disposition à l’aide d’outils d’interrogation, d’analyse relationnelle ou multidimensionnelle ou de visualisation". Nieuwbourg (1996).
  17. Application des principes d’Internet à la communication interne d’entreprise.
  18. "In IBM’s Corner: a Brand-New Heavyweight", Business Week, June 16, 1997 et "IBM reprend l’offensive sur le marché des très grands ordinateurs", Les Echos, 10 Juin 1997.
  19. Ibidem
  20. On retrouve ici une très forte similarité avec la typologie d’utilisateurs, naïfs vs sophistiqués, proposée par Gérard-Varet & Zimmermann (1985), à cette différence près que l’incertitude qui était relative à la traduction de caractéristiques d’utilisation en performances de systèmes, englobe cette fois une dimension organisationnelle qui en complexifie singulièrement la teneur.
  21. Venkatraman (1997).

Références bibliographiques

  • Alter N., Sociologie de l’entreprise et de l’innovation, Presses Universitaires de France, Paris, 1996
  • Benezech D., La norme: une convention structurant les interrelations technologiques et industrielles, Revue d’Economie Industrielle, N°75, 1er Trimestre, 1996
  • Bresnahan T.F. et Saloner G., Large Firm’s Demand for Computer Products and Services: Competing Market Models, Inertia, and Enabling Strategic Change, Research Paper N°1318, Jakson Library, Graduate School of Business, University of Stanford, October, 1994
  • Cohendet P., Information, connaissances et théorie de la firme évolutionniste, in Guilhon B., Huard P., Orillard M. et Zimmermann JB. (sous la direction de) "Economie de la connaissance et organisations", L’Harmattan, 1997
  • Delapierre M. et Milleli C., Concurrence et transferts de technologie dans l’industrie informatique mondiale, in F.Sachwald (éd.) "Les défis de la mondialisation. Innovation et concurrence", Masson, Paris, 1994
  • Delapierre M. et Zimmermann J.B., The computer industry, from scale to network effects, in M.Humbert (Ed.), "The Impact of Globalisation on Europe’s Firms and Industries", Pinter Publ., June, 1993
  • Delapierre M. et Zimmermann J.B., La nature du produit informatique, Terminal N°65, 1994-a
  • Delapierre M. et Zimmermann J.B., La globalisation, une remise en perspective des structures techniques de l’industrie, Terminal N°66, 1994-b
  • Dréan G., L’industrie informatique, structure, économie, perspectives, Masson, Paris, 1996)
  • Gérard-Varet L.A. et Zimmermann J.B., Concept de produit informatique et comportement des agents de l’industrie" - Colloque "Structures Economiques et Econométrie - Lyon, 23 - 24 mai 1985
  • Gray Pamela, Les systèmes ouverts - une stratégie d’entreprise pour les années 90, Ediscience, 1993
  • Greenstein S., Understanding Industry Structure in Computing, OECD Workshops on the Economics of the Information Society, Workshop N°6, London 19-20 March, 1997
  • Houlder V., The changing face of corporate IT, Financial Times, February 26, 1996
  • Isckia T., L’entreprise à l’ère des nouvelles technologies de l’information, Terminal, Hiver 95-06, 1996
  • Nieuwbourg P., Systemes décisionnels : pour exploiter les richesses de l’entreprise, Décision Micro et Réseaux , N° 248, 1996
  • Robert V., Alliances à la clef, l’industrie sur la voie de la bipolarisation, 01Références N°29, Octobre, 1993
  • Saloner G., Economics issues in computer interface standardization, Economics of Innovation and New Technologies, Vol.1, pp.135-156, 1990
  • Saloner G. and Steinmueller W.E., Demand for Computer Products and Services by Large European Organizations, Final Report, Mimeo, Stanford University/MERIT-Maastricht, January 16, 1996
  • Venkatraman N., Beyond Outsourcing: Managing IT Ressources as a Value Center, Sloan Management Review, Spring, 1997
  • Zimmermann, L’industrie du logiciel: de la protection à la normalisation, in M.Baslé, D.Dufourt, J.A. Héraud et J.Perrin, Changement institutionnel et changement technologique, CNRS Editions, 1995