Presse & blogs

Flux Isérois
Le Monde diplomatique

Fri, 20 Apr 2018 18:20:06 +0200

L'Europe à la croisée des réseaux

L’Europe occidentale accuse un net retard. Aussi, l’industrie américaine de l’information l’appréhende-t-elle d’abord comme un vaste marché où ses produits ne rencontrent encore qu’une faible concurrence, et où la collaboration avec des partenaires en situation de dépendance permet d’abaisser les coûts de production par un inégal partage des tâches. C’est aussi un vaste gisement informationnel, que les services américains pourraient exploiter si les Européens le laissaient en friche. Faute d’une distribution adaptée, de remarquables réalisations pourraient être commercialisées par des services localisés sur le territoire américain. La résistance à la pénétration américaine implique une coopération entre gouvernements et passe par des alliances entre sociétés privées, mais les impératifs de souveraineté comme la logique de rentabilité entravent cet effort.

Le retard sur les Etats-Unis est inégal suivant les pays. Ainsi, le Royaume-Uni s’est engagé très tôt dans la collaboration, avec les systèmes américains : la communauté de langue n’explique pas, à elle seule, cette étroite association. Derwent (base de données pour les brevets) et les fichiers du Commonwealth Agricultural Bureau sont accessibles sur des serveurs américains. La British Library collabore depuis longtemps avec la Library of Congress et la National Library of Medecine. Inspect (base de données en électricité et électronique) réalise 40 % de son chiffre d’affaires outre-Atlantique. Pendant ce temps, la France développait des systèmes orientés essentiellement sur le marché national, sans politique d’ensemble : quelques réalisations comme Pascal du C.N.R.S. la plaçaient au second rang derrière les Etats-Unis, en volume de références, mais très loin en chiffre d’affaires. En R.F.A, après une politique de sous-traitance des systèmes américains, le gouvernement fédéral a mis sur pied un programme de subventions qui atteint 440 millions de marks sur quatre ans. Il devrait aboutir à seize systèmes nationaux d’information spécialisés. La caractéristique majeure de l’industrie de l’information en Europe (et tout particulièrement de son secteur de pointe, on line) est son haut niveau de dépendance administrative et financière à l’égard des gouvernements nationaux. Excerpta Medica (médecine), qui dépend de l’éditeur multinational Elsevier, et Derwent (brevets), qui dépend de Thompson International, sont de notables exceptions.

La suprématie américaine, sensible depuis 1971, quand les bases de données américaines furent accessibles en Europe via Tymnet, impose une logique commerciale à des organisations prioritairement tournées vers le service public. La concurrence américaine ne porte pas seulement sur le volume des données, la couverture bibliographique assurée par les géants Lockheed ou System Development Corporation (S.D.C), mais aussi sur la qualité des services offerts, les méthodes de gestion, le recours intensif aux spécialistes de la promotion et du marketing. Les Etats européens sont confrontés à des choix décisifs : rivaliser avec les systèmes américains, c’est-à-dire se soumettre aux mêmes impératifs de profit, ou préserver des filières informationnelles dans des secteurs clés. Sauvegarder la notion de service public et renoncer à rentabiliser de lourds investissements ou se lancer dans une bataille commerciale. Bien sûr, les efforts tendent à concilier impératifs de souveraineté et impératifs de profit, mais, dans les faits, on constate qu’une des deux logiques, commerciale ou politique, finit par imposer sa loi.

20 % du marché américain

La suprématie américaine peut se mesurer en nombre d’interrogations effectuées en Europe sur des systèmes basés aux Etats-Unis (on ne peut dissocier dans les chiffres qui suivent les interrogations qui émanent de compagnies américaines installées en Europe ou celles des clients européens).

En 1977, 300 000 interrogations ont été faites en Europe contre 1 500 000 aux Etats-Unis. (L’Europe considérée comme une entité représente 20 % du marché américain.) En 1978, on a enregistré 700 000 interrogations (prévisions : 1 500 000 en 1982 et 2 350 000 en 1985).

Tout le problème réside dans l’évolution du rapport entre le nombre total d’interrogations effectuées sur des systèmes américains et le nombre total d’interrogations. En 1978, il était de 400 000 sur 700 000. Et encore faut-il préciser que les 300 000 effectuées sur des systèmes nationaux ou européens (comme celui de l’Agence spatiale européenne) portaient pour beaucoup sur des bases de données d’origine américaine, distribuées par des systèmes nationaux ou européens. Ainsi le fichier de la NASA était accessible sur le serveur de l’Agence spatiale européenne, ou Medlars (National Library of Medecine), via l’INSERM.

Si l’Europe représente 20 % du marché américain, on peut en déduire que la rentabilité des grands serveurs américains serait compromise par l’utilisation de systèmes nationaux par les Européens puisque le profit de groupes comme S.D.C. ou Lockheed se réalise à la marge, précisément sur les 20 % extérieurs au marché américain. En revanche, si les systèmes d’information nationaux distribuent des banques et bases de données américaines, elles accentueraient encore leur rentabilité, tout en les émancipant de la tutelle des serveurs américains. En d’autres termes, que l’effort porte sur la distribution, et non sur la production de banques et bases de données, cela n’aboutit qu’à modifier les rapports de forces entre serveurs et producteurs américains, au profit des seconds, sans remédier à la situation de dépendance informationnelle. Jouer sur cette divergence d’intérêts entre serveurs et producteurs américains ne saurait fonder une politique.

Si les pouvoirs publics français ont fait un effort soutenu pour la production de banques et bases de données (Pascal, Thermodata, Pluridata, Ergodata ...) en Allemagne occidentale, les initiatives se sont portées vers la distribution et, en Grande-Bretagne, vers la coopération avec les partenaires américains et la recherche d’une audience internationale. On ne peut ainsi, dans aucun de ces pays, discerner un plan d’ensemble. La mise en place, au niveau de la C.E.E., du réseau Euronet oblige chacun des gouvernements à définir des stratégies.

Pendant longtemps la coopération entre Européens n’a été effective qu’à travers des systèmes internationaux UNIS et AGRIS) ou américains (Chemical Abstracts, Medlars) qui sous-traitent à leurs homologues européens une partie du travail.

En l’absence de politiques nationales, il ne pouvait y avoir de politique européenne. Il existait bien une ébauche de réseau européen E.I.N. (European Information Network), qui reliait des centres de recherche, mais sa vocation était expérimentale et les P.T.T. s’en désintéressent. Il existait surtout l’Agence spatiale européenne, qui dispose sur son ordinateur de bases de données américaines S.D.S. (Space Documentation System). Conçu au départ pour les besoins internes de l’Agence, et nettement orienté vers les technologies aérospatiales, ce système entreprend de se transformer en centre-serveur à l’image de S.D.C. et de Lockheed. S.D.S a son propre réseau, il est connecté à Cyclades et rassemble une infrastructure et une expérience qui auraient pu cristalliser l’ébauche d’un système européen alternatif. La localisation à Frascati près de Rome, c’est-à-dire à la périphérie de l’Europe, la mauvaise qualité des communications téléphoniques en Italie, la moindre qualité du service et des logiciels par rapport aux concurrents américains, n’étaient pas des obstacles insurmontables. Manquait la volonté politique des Etats membres de l’Agence spatiale européenne, et pesait l’héritage américain de S.D.S. (bases de données américaines, logiciel américain, matériel américain) ; rebaptisé I.R.S. (Information Retrieval Service), S.D.S. continuera à osciller entre sa vocation interne et son projet de concurrencer les serveurs américains.

Un marché commun de l’information

En 1971, la direction générale de l’information scientifique et technique (D.G. XIII) lance l’idée d’un marché commun de l’information et élabore un plan d’action sur trois ans (1975-1977). Ce plan d’action définit trois objectifs : la constitution d’un réseau fiable, l’encouragement à l’établissement de banques de données, un effort de méthodologie et de normalisation dans les techniques.

L’absence de réseau européen était un des obstacles majeurs au développement des systèmes d’information. En effet, l’inadaptation du réseau commuté à ce type de trafic, la jungle tarifaire et les prix pratiqués par les P.T.T. européens limitaient les échanges entre systèmes européens et favorisaient la consultation des bases et banques de données américains, via Tymnet. Pour un utilisateur parisien, il était plus facile d’accéder à Palo-Alto qu’à Francfort ou Frascati, et souvent moins cher. De plus, l’imbrication de clauses d’exclusivité et de monopoles territoriaux interdisaient même l’accès à un système situé à Londres ou à Cologne.

Pour le réseau européen, plusieurs solutions s’offrent aux fonctionnaires de Luxembourg. Réseau de bibliothèques, réseau téléphonique amélioré, réseau électronique de pointe. On écarte l’hypothèse de renforcer et étendre E.I.N, on n’arrive pas à se mettre d’accord pour exploiter S.D.S. et son réseau Esanet. Finalement, la C.E.E. décide de constituer de toutes pièces un nouveau réseau, avec la coopération des P.T.T. européens, le réseau Euronet.

Cette solution de « table rase » se heurtait à l’absence de pratiques et d’organisation communautaires des P.T.T. des pays membres. Ainsi, face au problème posé par Tymnet, chacun des P.T.T. avait adopté sa propre politique, défini ses tarifs. Au moins l’épisode Tymnet avait-il démontré qu’à défaut d’offrir un service, les P.T.T. ne pouvaient s’opposer à ce qu’une société privée l’assure, réalisant des profits sur leur propre terrain et ouvrant une brèche dans leur monopole.

La menace d’une prolifération de réseaux privés, l’obligation faite aux P.T.T. de leur louer des lignes à défaut d’imaginer une parade, ont sans doute pesé autant dans la décision des P.T.T. européens de construire le réseau commun Euronet que les importants crédits communautaires ou la promesse de profits importants. Le consortium mis en place devait se mettre d’accord sur la technologie du réseau pour éviter que ne se renouvelle en matière de télétransmission des données, ce qui s’était produit en matière de télévision couleur : la division des pays entre système SECAM et système PAL. La R.F.A. avait hérité de la deuxième guerre une technique de commutation de circuits, développée pour la liaison avec le front de l’Est et perfectionnée par la Bundespost. L’E.I.N. avait développé son système de commutation de « paquets ». L’Italie proposait une technique mixte. Ces trois technologies étaient incompatibles, les intérêts industriels antagoniques, mais l’accord était d’autant plus urgent que, de leur côté, les grandes firmes américaines risquaient d’imposer leurs normes. « Mieux vaut une absence de normes que des règles purement nationales. Celles-ci isoleraient les agents économiques, les priveraient de liaisons et de services étrangers », note très justement le rapport Nora-Minc. Les P.T.T. se mirent d’accord sur X-25 et l’imposèrent avec Telenet et Datapac (Canada) au sein de la C.C.I.T.T.

Restait le problème des tarifs : une liaison Paris-Amsterdam coûte plus cher qu’Amsterdam-Paris. La location d’une ligne de 500 kilomètres peut coûter trois fois et jusqu’à onze fois plus cher suivant qu’elle ne franchit aucune frontière ou qu’elle en traverse une ou plusieurs. Les tarifs sont bas en Hollande, élevés en R.F.A., globalement plus chers qu’aux Etats-Unis. La C.E.E. fixa pour Euronet le principe d’une tarification unique, indépendante de la distance pour ne pas pénaliser l’utilisateur irlandais ou sicilien. Pour la première fois, les P.T.T. acceptèrent de dissocier le tarif de la distance, il est vrai que toute l’évolution technologique pousse dans ce sens, les satellites tout particulièrement.

Le réseau Euronet sera opérationnel l’an prochain, et la Suisse, la Suède, ainsi que l’Espagne, s’y raccorderont. La célérité dans la prise de décision et dans la mise en oeuvre d’Euronet permet de mesurer l’inquiétude des P.T.T. européens.

On ne retrouve pas le même enthousiasme communautaire dans la constitution de banques de données proprement européennes, ni dans la mise en place d’un système commun de distribution. A ce niveau, politiques nationales et intérêts commerciaux reprennent le dessus. Si, en France, il a été impossible de coordonner les efforts d’E.D.F., de la C.G.E., de Thomson et du C.N.R.S. pour créer un système commun, on imagine combien ce type d’accords à l’échelle européenne est difficile. Il était hors des attributions de la C.E.E. d’organiser un partage des tâches et d’affecter, par exemple la chimie aux Français, l’électronique aux Anglais et la médecine aux Allemands. A défaut d’une telle concertation, les Etats agissent en ordre dispersé, chacun d’eux ne pouvant assurer de toute manière qu’une partie du travail. Si la négociation avec les P.T.T. avait été difficile, au moins ne rassemblait-elle que neuf interlocuteurs, libres de manoeuvrer et jouissant d’une position de monopole, liés par des intérêts communs (la menace des réseaux privés). Pour négocier des systèmes documentaires communautaires, ce sont plusieurs centaines d’interlocuteurs qu’il faudrait rassembler, des secteurs privé et public, tous en situation de concurrence, tous intéressés à conquérir pour leur propre base de données ou pour leur propre centre serveur une part du marché. Euronet aura eu comme effet de susciter dans chaque pays l’émergence de plusieurs centres serveurs, galvanisés à l’idée de pouvoir vendre des données sur l’ensemble du marché européen, alors qu’ils étaient confinés dans un marché national étroit.

Mais cette prolifération de centres serveurs va à contre-courant d’un marché commun de l’information. Pour être compétitifs, la plupart de ces centres serveurs chargent sur leurs ordinateurs des bases de données américaines très demandées (Chemical Abstract, Compendex, N.T.I.S...). A la limite, ce sont les mêmes bases de données qui sont accessibles dans chacun des pays. D’une part, on peut se demander quel intérêt un utilisateur français trouvera à consulter Chemical Abstract sur un serveur allemand alors qu’il sera accessible sur Télésystèmes (le serveur français). D’autre part, cette duplication des bases américaines ne va pas dans le sens d’une autonomie informationnelle. C’est souvent une information d’origine américaine qui circulera, à cela près que, au lieu d’être distribuée par S.D.C. ou Lockheed, elle le sera par Télésystèmes ou Dimdi ou Infoline ou Datacentralen, subventionnés par les gouvernements. Le troisième volet du plan d’action prévoyait une normalisation des technologies. C’était l’objectif le plus facile à atteindre car il ne dépendait que du financement communautaire et de la résolution de problèmes techniques, certes compliqués.

On a pompeusement appelé Diane la somme des centres-serveurs connectés à Euronet, alors qu’il ne s’agit que d’une addition d’intérêts contradictoires, chacun des trente ou quarante postulants, conscients de l’étroitesse du marché, espérant secrètement la mort ou l’abandon de ses concurrents. Il n’a même pas été possible d’harmoniser les tarifs, le système de facturation ou d’échange des devises. Ainsi, un utilisateur d’Euronet devra souscrire un abonnement séparé à chacun des centres serveurs, payer en différentes monnaies, apprendre plusieurs langages d’interrogation. Faute d’une politique commune des « contenus » (bases et banques de données), le « contenant » communautaire (le réseau) donne lieu à une sauvage concurrence, les intérêts commerciaux tenant lieu d’intérêt national. Comme les centres-serveurs dépendent le plus souvent des gouvernements, ces derniers favoriseront l’utilisation des serveurs nationaux par les utilisateurs nationaux (universités, laboratoires publics, administrations).

Si la duplication des bases de données les plus demandées se poursuit, on peut se demander si le trafic national ne videra pas Euronet de sa substance, le trafic de pays à pays. Auquel cas, pour amortir Euronet, il ne resterait que le trafic tiers, c’est-à-dire le trafic de données inter-entreprises, inter-filiales. Euronet est surdimensionné par rapport aux besoins actuels des échanges d’informations documentaires. Le trafic tiers, perçu seulement au départ comme résiduel, deviendrait la vocation majeure d’Euronet ; déjà Reuter, Hoechst, les banques, les dix-huit Parlements pour leur liaison avec le Parlement européen sont candidats, les tarifs Euronet étant plus intéressants que le télex ou la location d’une ligne permanente de point à point. Euronet, à défaut d’avoir structuré un marché commun de l’information, se transformerait en réseau public polyvalent.

La grande inconnue, c’est la date à laquelle Euronet sera raccordé aux réseaux américains. S’il n’a pas gêné l’expansion commerciale des bases et banques de données américaines, puisqu’elles seront distribuées par des serveurs européens, Euronet scandalise les serveurs américains qui crient à la discrimination. En effet, la même base de données coûte, du point de vue de la télécommunication, 3 dollars l’heure d’interrogation sur un serveur connecté à Euronet et 15 dollars sur un serveur américain connecté par Tymnet. Cette protection tarifaire ne saurait durer bien longtemps, et sera levée à terme par les satellites. La C.E.E. diffère le raccordement en attendant que les centres serveurs européens soient assez forts pour résister aux serveurs américains, et éventuellement, qu’ils leur disputent une part de la clientèle américaine pour des bases européennes.

Si les tendances se poursuivent (duplication des fichiers, dispersion des efforts, rivalités entre serveurs européens), la domination américaine devrait se renforcer. Il est trop tard pour constituer des bases bibliographiques concurrentielles des bases américaines, mais la compétition est plus ouverte dans le secteur des banques factuelles. Force est de constater que l’on continue en Europe à produire des bases de données, alors que les Américains produisent des centaines de banques de données, y compris à partir de gisements européens, en démarchant des laboratoires, des groupes de presse, des centres documentaires. Très peu d’initiatives ont été prises à ce jour pour contrer ce pillage qui compromet sérieusement l’avenir des industries de l’information en Europe.

On s’oriente en Europe vers les systèmes domestiques accessibles à domicile, via un terminal avec écran relié par téléphone à des banques de données d’usage quotidien. La Grande-Bretagne a pris une avance avec Viewdata-Prestel. S’il est difficile, en effet, de préserver des filières informationnelles décisives pour l’avenir, en se concertant avec des partenaires (européens ou autres), il est plus facile d’installer des terminaux chez les particuliers ou dans les entreprises. L’industrie électronique est prise de vertige devant un marché aussi colossal ; les P.T.T. renforcent leur monopole et enrayent la décélération prévisible du trafic téléphonique. Quant à l’industrie européenne de l’information, à défaut de concurrencer efficacement les compagnies américaines, elle découvre un marché vierge, facile à satisfaire.

Fri, 20 Apr 2018 16:19:59 +0200

Depuis quarante ans crises et détentes se succèdent dans les relations russo-turques

Pendant quelques semaines la diplomatie soviétique a concentré ses attaques sur la Turquie, accusée de se faire au Proche-Orient l’instrument principal des « milieux agressifs américains ». De la lettre envoyée par le maréchal Boulganine à M. Menderes, au discours de M. Gromyko à l’O.N.U., en passant par l’interview de M. Khrouchtchev au New York Times, c’était toujours la même menace qui était adressée aux hommes d’Etat d’Ankara : si la Turquie bouge le petit doigt, elle sera écrasée par les forces soviétiques qui sont toutes proches de son territoire, et elle portera la responsabilité d’une troisième guerre mondiale. Les Soviets croyaient-ils vraiment que la Turquie veut envahir la Syrie ? Ne profitaient-ils pas plutôt de l’occasion pour montrer aux Etats arabes qu’eux seuls sont les véritables défenseurs des petits pays indépendants ? Peu importe : en choisissant la Turquie comme cible favorite, la diplomatie de M. Khrouchtchev est revenue à une politique que Staline avait mise en œuvre à la fin de son règne.

Pourtant au début de leur histoire, l’U.R.S.S., qui succédait à la Russie, et la Turquie, qui naissait sur les ruines de l’empire ottoman, semblaient vouées à une collaboration fructueuse. Certes la révolution de Lénine et celle de Mustapha Kémal ne s’inspiraient nullement d’une même idéologie. Mais les deux hommes d’Etat avaient l’un pour l’autre de l’estime. Dès 1921 la Russie soviétique concluait un premier traité avec la Turquie et lui cédait les districts de Kars et d’Ardakan. C’était il est vrai du temps que Moscou condamnait toutes les formes d’annexion et que le jeune Etat communiste acceptait de donner l’indépendance aux nationalités qui la revendiquaient. Au reste, les villayets turcs étaient rétrocédés à un pays qui jouait sa partition dans la révolution mondiale ? (L’Union soviétique aide même la Turquie à réprimer la révolte des Kurdes.) Quelques années plus tard — en 1925 — les deux pays signaient un traité d’amitié. A cette époque les Etats qui proclamaient leur amitié avec le gouvernement des communistes russes n’étaient pas tellement nombreux. Et puis en novembre 1926, Tchichérine et le ministre turc des affaires étrangères étudiaient un projet de Société des nations orientales destinée à faire pièce à celle de Genève.

Bien vite l’U.R.S.S. comprit que cette solidarité des deux régimes révolutionnaires pouvait contribuer à la réalisation d’un rêve séculaire de la Russie : l’accès à la mer libre, et ce fut la convention de Montreux en juillet 1936. Depuis lors le régime des détroits a été vivement critiqué à diverses reprises par la diplomatie soviétique. Mais en 1936 le Kremlin ne pouvait que se réjouir du résultat obtenu. En effet à cette époque l’U.RS.S. n’était entourée que de puissances hostiles, à l’exception de la Turquie. Or le statut stipulait qu’en temps de paix les détroits étaient ouverts à tous les navires marchands, que le tonnage des navires de guerre des puissances non riveraines étaient limité, que la défense de la zone appartenait à la Turquie, et qu’en temps de guerre Ankara pouvait interdire l’accès aux puissances ennemies. L’amitié qui unissait alors la Turquie à l’U.R.S.S. semblait donner à Moscou tous les apaisements voulus.

Il y avait certes quelques nuages dans l’idylle. Le régime établi par Kémal Ataturk ne s’orientait pas précisément dans la direction qu’auraient souhaitée les communistes. Au lieu de proclamer la dictature du prolétariat, il préparait le terrain d’une démocratie autoritaire mais « bourgeoise ». De plus, au cours de la lutte qui opposa les communistes « grand-russes » aux représentants des populations d’Asie centrale, le parti communiste de l’U.R.S.S. en vint à inscrire au nombre des tendances condamnables la « déviation panturque ». Moscou ordonna même une réforme de l’alphabet dans ces régions afin que ses ressortissants ne puissent lire la littérature imprimée en Turquie. Cette politique ne pouvait évidemment créer une atmosphère de confiance totale entre les deux Etats.

Mais c’est pendant la guerre que les relations se détériorèrent complètement. En réalité l’U.R.S.S. ne pardonna jamais à la Turquie d’avoir signé un traité avec la France et l’Angleterre en 1939, alors qu’elle même s’entendait avec l’Allemagne, ni d’être demeurée neutre jusqu’en 1945, ni surtout d’avoir défendu sa neutralité en interdisant les détroits aux navires alliés. Moscou avait cru que la convention de Montreux lui permettrait de communiquer librement avec la Méditerranée. La deuxième guerre mondiale montra qu’il n’en était rien. La vengeance fut à la mesure de la déception. En effet la Turquie fut dès la fin de la guerre le premier pays auquel s’attaqua la diplomatie soviétique. Les hostilités étaient à peine terminées que M. Molotov présentait ses revendications au gouvernement d’Ankara. Il exigeait le retour à l’U.R.S.S. des districts de Kars et d’Ardakan, et demandait un nouveau statut des détroits. (On raconta même à l’époque que le ministre soviétique pria les Turcs de « démocratiser » leur régime.) Les Soviets voulaient surtout modifier le statut des détroits, et ils portèrent la question devant le conseil des Trois Grands. Au lieu d’être assurée par la Turquie, la défense des passages le serait par les Etats riverains de la mer Noire, qui auraient de plus le droit inconditionnel de les utiliser en temps de guerre comme en temps de paix.

Dans ce contexte le traité d’amitié ne fut évidemment pas prolongé et pendant plusieurs mois les Turcs supportèrent seuls les intimidations soviétiques. Auraient-ils résisté si l’épreuve s’était prolongée ou si les Russes avaient appuyé leur campagne d’une démonstration de force ? Ce n’est qu’en 1946 en effet que les Américains s’inquiétèrent. Ils envoyèrent alors le Missouri croiser dans les parages, puis définirent la « doctrine Truman », — garantie à la Grèce et à la Turquie — qui fut comme la préface du plan Marshall et du pacte atlantique. La grande alliance de la seconde guerre mondiale avait vécu et le monde s’organisait en deux blocs.

Les relations turco-soviétiques furent de plus en plus tendues jusqu’en 1953. Mais le « dégel » qui suivit la mort de Staline eut également des répercussions dans ce secteur, et le 30 mai 1953 le ministère soviétique des affaires étrangères déclara que « pour améliorer les relations les gouvernements d’Arménie et de Géorgie jugeaient possible de renoncer à leurs prétentions territoriales contre la Turquie » et que le gouvernement de Moscou révisait sa position sur les détroits ; il entendait trouver une solution acceptable pour les deux Etats. Puis lorsque l’U.R.S.S. offrit — en 1956 — son aide aux pays insuffisamment développés, la Turquie fut l’objet de nouvelles avances. Il y a peu de temps une délégation soviétique séjournait en Anatolie ; elle étudiait les moyens de créer des installations industrielles. Une campagne se développait pour le renouvellement du traité d’amitié, et au mois de mars 1956 la Pravda comme les Izvestia célébraient les mérites de Kémal Ataturk. Ces amabilités n’étaient certes pas sans nuances, et chaque fois que des navires anglais ou américains se promenaient dans les eaux turques la presse soviétique haussait le ton. La dernière « démarche amicale » de la diplomatie communiste date du mois de septembre. La Turquie fut alors invitée à participer à une conférence générale des Etats balkaniques.

Mais les Soviets ne devaient pas se faire beaucoup d’illusions, car déjà ils avaient menacé Ankara des pires représailles. Cependant à cette occasion le maréchal Tito s’était éloigné un peu plus de son allié turc, celui-là même qui avait œuvré le plus activement pour le pacte d’Ankara.

Et puis, quand ils ont constaté que l’offensive tournait court, ou que les risques devenaient vraiment sérieux, les dirigeants soviétiques sont allés déclarer de façon spectaculaire à l’ambassade de Turquie à Moscou que « la petite aiguille s’est un peu déplacée dans le sens de la paix ».

Bernard Féron

Thu, 19 Apr 2018 18:16:16 +0200

Un nouvel ordre de la documentation

En 1971, l’UNESCO définissait l’information scientifique et technique comme une « ressource mondiale », c’est-à-dire collective, et proposait la constitution d’un système mondial d’information scientifique UNISIST (1). Un certain nombre d’institutions internationales oeuvraient déjà dans le même sens : l’Organisation internationale de normalisation (ISO), la Fédération internationale de documentation (IFID), la Fédération internationale pour le traitement de l’information (IFIP) ou encore CODATA, dans lesquels les pays en voie de développement sont sous-représentés.

Indépendamment des multiples obstacles (politiques nationales, barrières linguistiques, inégal développement des systèmes documentaires, jungle des normes, incohérence des terminologies, etc.), UNISIST n’avait aucune autorité sur les autres organisations internationales qui, comme la F.A.O. ou l’A.I.E.A. (Agence internationale de l’énergie atomique), développaient leurs propres systèmes UNIS et AGRIS). Quant à la coordination des banques et bases de données internes à l’UNESCO, elle était confiée à un autre organisme, l’I.O.B. (Bureau intergouvernemental pour les systèmes d’information). Il ne restait à UNISIST que la définition de normes et de logiciels, l’élaboration de directives pour rendre compatibles entre eux les systèmes nationaux d’information, à défaut de rendre compatibles les systèmes internationaux, ce qui semblait, à premiers vue, plus facile.

En plus de l’I.O.B. et d’UNISIST fut constitué un autre organisme, l’I.A.T.F.I.E.T.T. (Inter Agency Task Force on Information Exchange and Transfer of Technology) qui reçut la mission de coordonner les bases et banques de données des organisations internationales. Le partage des compétences entre agences, les intérêts propres à chaque agence, les décisions de départ compromettant une comptabilité ultérieure entravent l’action de l’I.A.T.F.I.E.T.T. Les résolutions des assemblées générales ne sont pas toujours claires : elles définissent des objectifs imprécis. Outre que chaque décision prise à l’Assemblée générale de l’UNESCO (ou d’une agence internationale) dépend des représentants de près de cent cinquante Etats, ce ne sont pas les mêmes organismes gouvernementaux qui siègent dans chacune des agences. Ainsi pour la France, suivant les agences, ce sont les ministères de l’industrie, des affaires étrangères, de l’éducation, des universités ou le B.N.I.S.T. (Bureau national pour l’information scientifique et technique) qui sont représentés : l’absence de politique nationale cohérente dans ce domaine se répercute en s’amplifiant dans les instances internationales. Un exemple : l’UNESCO propose la mise en place d’une banque de données sur les politiques gouvernementales en matière de science et technologie. En faisant l’inventaire des théories et des méthodes, des plans, des programmes et des projets nationaux, des pratiques de chacun des gouvernements dans ce domaine, cette banque de données appelée SPINES pourrait aider les nations démunies (et sans doute les autres) à prendre des décisions plus réfléchies. Les représentants français s’opposent à SPINES sans qu’on puisse savoir au juste pourquoi, ni où cette attitude a été discutée.

La position de la France rejoint d’ailleurs celle des Etats-Unis et de six autres pays industrialisés : et malgré la décision de principe, SPINES ne verra pas le jour si ces huit pays n’y participent pas par la collecte de données et par la fourniture de crédits. Cet exemple est révélateur des limites de la coopération internationale, qui se réalise là où les pays data rich trouvent un intérêt. Ces systèmes sont chers, et, s’il est aisé d’en évaluer le coût, on apprécie difficilement les bénéfices. De plus l’UNESCO impose le principe de systèmes ouverts à tous les Etats membres sans discrimination, alors que ce sont évidemment « toujours les mêmes » qui engrangent les données et financent.

L’exemple du nucléaire

Le système INIS illustre bien cette logique : chacun des partenaires de l’Agence internationale pour l’énergie atomique indexe et traite toute la littérature relative au nucléaire publiée dans le pays. Des directives, un thésaurus, des procédures multilingues ont été définis en commun. Ce stock est envoyé à une « unité centrale » qui réunit les input sur bandes magnétiques et édite un bulletin. INIS couvre ainsi 95 % de la littérature publiée, cinq cent mille références. On y accède à travers l’unité nationale (ainsi, pour la France, le commissariat à l’énergie atomique) et, une fois obtenue la référence du document, on s’adresse à l’unité nationale concernée pour obtenir le document primaire. Chaque pays participe en faisant fonctionner l’unité nationale et paye une part pour le fonctionnement de l’unité centrale. Chacun a intérêt à respecter les règles communes, car on réalise très vite qu’un pays n’envoie que des documents mineurs, ou omet les documents non conventionnels, c’est-à-dire non publiés, souvent les plus pertinents (la « grey littérature », rapports, thèses, comptes rendus de séminaires, etc.). INIS profite essentiellement aux pays dotés d’une industrie nucléaire.

Quant au système AGRIS, mis en oeuvre par la F.A.O., il repose sur les mêmes principes. Toutefois un rapport de l’UNESCO constate que certains pays s’engagent pleinement pour assurer un input complet des publications agricoles nationales, que d’autres fournissent seulement des entrées symboliques, et que d’autres encore ne fournissent pratiquement aucun input... « L’échec le plus significatif d’AGRIS a été jusqu’à présent son incapacité à s’assurer un input complet des Etats-Unis. »

Aide et contrôle de l’information

La politique américaine d’assistance aux pays en voie de développement, qui passe en grande partie par l’Agence pour le développement international (A.I.D.), est inséparable des stratégies des constructeurs informatiques. Cette politique a conduit à un suréquipement en matériels, qu’aggrave encore le sous-équipement en cadres compétents. Aujourd’hui, les services américains et les industriels proposent l’installation de systèmes d’information, la formation de spécialistes, le prêt des bandes, ou tout simplement la distribution gratuite de logiciels et de fichiers magnétiques (déduits des impôts de ces firmes). Il est même question de distribuer terminaux et circuits pour relier ces pays aux banques de données américaines via les satellites américains. Ce serait le moyen rêvé de contrôler le développement des pays assistés en contrôlant l’information disponible dans cet pays, en orientant les décisions, tout en offrant aux industriels américains de l’information l’occasion de faire des affaires.

Thu, 19 Apr 2018 16:16:10 +0200

Monopole et dérèglementation

Les réseaux de transmission de données sont nés dans les années 60 comme système nerveux du dispositif militaire américain. Ils sont aujourd’hui le théâtre d’une compétition serrée entre firmes multinationales, alors que les administrations publiques américaines tentent d’imposer des normes pour limiter l’emprise de ces firmes. Les liaisons par satellites seront le prochain enjeu de cet affrontement.

Dès 1951, IBM et Burroughs montent pour l’aviation américaine un réseau de données destiné à relier les bases militaires et l’état-major en cas d’attaque surprise par missiles ou bombardiers. Le SAGE (Semi Automatic Ground Environnement) nécessite la transmission à grande vitesse de données d’observation complexes. Les études menées par la Rand Corporation aboutissent, en 1958, à la naissance d’une technique : la « commutation de paquets ». Expérimenté au départ à des fins stratégiques, le réseau Arpanet relie, par la suite, des universités travaillant pour le Pentagone et garde de son origine militaire une structure maillée. Les données circulent sur le réseau par « paquets » munis d’indication d’arrivée et de départ, avec la possibilité d’atteindre leur destination même si une partie du réseau est hors d’usage (détruite ou embouteillée).

Une société spécialisée dans l’informatique en temps partagé, Tymshare, avait besoin de lignes spécialisées pour la transmission de données, notamment pour relier côte est et côte ouest. Plus performant que le réseau téléphonique traditionnel, ce réseau servit dans un premier temps pour les besoins propres de cette firme informatique. Progressivement, des clients se mirent à l’utiliser aussi, sans recourir aux services informatiques en temps partagé pour lequel il avait été conçu. Des firmes privées, des administrations, la Library of Medecine font passer leur trafic de données par ce nouveau réseau. Pour Tymshare, la vente de ce service est marginale par rapport à son activité purement informatique (2 millions de dollars sur 50 millions), mais elle croît de 70 % par an, révélant l’existence d’un besoin insatisfait par A.T.T. (Bell System). Bientôt, trois cent quarante nœuds d’accès relient quatre cents terminaux et cent quatre-vingts ordinateurs sur la territoire américain. Dès 1971, Tymshare ouvre des lignes avec Paris et Londres ; en 1978, dix-huit pays sont connectés au réseau rebaptisé Tymnet, concurrencé par Telenet, un autre réseau créé par des transfuges d’Arpanet. D’autres multinationales comme Honeywell, General Electric, Control Data se dotent aussi d’un réseau propre.

L’ouverture de ce nouveau marché ne pouvait laisser indifférentes les entreprises de télécommunication et les administrations nationales des P.T.T. En France comme au Royaume-Uni, les P.T.T. acceptent l’irruption de ces nouveaux réseaux sur leur territoire mais prennent le contrôle des relais. A défaut de pouvoir mettre en place elles-mêmes ce type de réseau, les administrations tolèrent leur implantation, en mettant la main sur un segment du système : les concentrateurs. Leur monopole est préservé, assez artificiellement, en attendant le moment où les P.T.T. seront en mesure de l’étendre à l’ensemble du réseau.

Aux Etats-Unis, la situation est plus complexe : il n’y a pas d’administration nationale. Il y a eu, d’un côté, l’A.T.T. (American Telegraph and Telephone), qui assure un monopole de fait, et, de l’autre, la Federal Commission for Communications (F.C.C.), qui ne joue qu’un rôle régulateur et réglementaire pour éviter des situations «  préjudiciables au consommateur ». Les liaisons internationales sont confiées à trois « International carriers » agréés : R.C.A., Western Union et I.T.T. Ces « transporteurs internationaux » n’interviennent pas sur le marché intérieur, où règne A.T.T., qui, en revanche, n’opère pas au-delà des frontières.

Ce fragile équilibre oligopolistique est remis en cause par une série d’initiatives prises par des petites firmes. Ainsi, quand un fabricant de matériel téléphonique propose l’installation d’un dispositif qui améliore l’écoute des liaisons téléphoniques dans un lieu bruyant, A.T.T. tente d’interdire cet équipement appelé « hush a phone » A.T.T. est débouté. Cet arrêté fameux de la F.C.C., anecdotique dans son motif mais historique dans ses effets, ouvre une brèche dans le monopole d’A.T.T. Des firmes plus importantes entrent dans la bataille, le pouvoir réglementaire de la F.C.C. vacille, et cet organisme est bientôt ouvertement contesté, accusé de privilégier les situations acquises, d’être le chien de garde de la toute-puissante Association nationale des radiodiffuseurs (NAB). Il n’est plus question que de de-regulation (dé-réglementation). Les économistes néo-libéraux et les services de relations publiques des firmes trouvent des accents quasi libertaires pour chanter les mérites des lois du marché comme régulatrices du marché des télécommunications.

Les principes fondamentaux établis par le Communication Act de 1934 donnaient à la F.C.C. mission de « proposer, de la meilleurs manière possible, un service national et international de liaison par câbles et par radio, rapide, efficace, à des prix raisonnables ». Aujourd’hui, cette loi est rediscutée dans un climat orageux et sous une rafale de procès : chacun se lance sur les nouveaux marchés, et aucune position établie n’est plus garantie. I.T.T. concurrence fois la première fois A.T.T. sur le territoire américain en installant des liaisons téléphoniques à grande capacité, destinées aux liaisons professionnelles entre onze grandes villes ; I.B.M. s’allie avec la Comsat (gérant du réseau intelsat de satellites) et avec une compagnie d’assurances, Aetna, pour créer Satellite Business System (S.B.S.), qui assurera des liaisons téléphoniques, des transmissions de données vidéo et de fac-similés. Rank Xerox se lance dans la même aventure, avec une priorité pour le service de fac-similé. A.T.T. ne reste pas inactive face aux assauts et promet pour cette année un réseau spécialisé, le Bell Data Network, capable d’offrir des services, originaux comme le niveau d’urgence dans le traitement des paquets de données.

Plus aucune barrière réglementaire ne semble pouvoir limiter les affrontements, puisque la F.C.C. avait décidé, en 1971, que le traitement des données devait rester non réglementé, à la différence de leur transmission. Or, le développement des technologies rend problématique, sinon caduque, la distinction entre traitement et transmission de données, et des bataillons d’avocats et d’experts s’opposent sur cet épineux problème sémantique et technique. On ne saurait prévoir qui gagnera. Ainsi, le projet S.B.S. d’I.B.M. est bloqué par une cour d’appel fédérale, après avoir été autorisé par la F.C.C et attend l’arbitrage de la Cour suprême. Les remous de cette bataille ont entraîné la dissolution de l’Office of Telecommunication Policy (O.T.P.), dont la partie compétente pour les problèmes nationaux passe sous la tutelle du département du commerce. Ces recompositions, comme les atermoiements du pouvoir fédéral, marquent bien la difficulté pour celui-ci d’intervenir dans un domaine où les lois du marché contredisent toute planification, abandonnant ainsi certains secteurs à la concurrence japonaise et même européenne.

La stratégie française

Des 1971, utilisant des procédures d’origine informatique, les chercheurs de l’IRIA (Institut de recherche d’informatique et d’automatique) montent un réseau appelé Cyclades, financé pour moitié par les utilisateurs de nombreux centres universitaires. Les « paquets » sont traités suivant une technique, celle des datagrammes, particulièrement souple et originale puisque chaque bloc d’informations circule d’un commutateur à l’autre suivant un trajet optimisé en fonction du « partage des ressources » et des avaries possibles. Simple et peu onéreuse, cette procédure donne de bons résultats sur Cyclades, puis sur le réseau privé de la S.N.C.F. et celui de la marine nationale. Elle ne correspondait pas aux conceptions des ingénieurs des P.T.T. Les P.T.T. n’étaient intervenus qu’au niveau de la location de lignes, le service le moins rentable et le moins gratifiant.

La direction générale des télécommunications n’entendait pas laisser les informaticiens monter leurs propres réseaux : il lui restait donc à proposer un réseau assez ambitieux, assez performant aussi, pour justifier des crédits gouvernementaux et imposer une normalisation - tout au moins nationale - sous le contrôle des P.T.T.

Comme aux Etats-Unis, les télécommunications se développent sur le terrain de l’informatique au moment où l’informatique imagine ses propres solutions en matière de réseaux. De cette émulation surgit Transpac, reprenant les principes classiques de la téléphonie, puisque le « paquet » suit un trajet immuable, appliquant la procédure du « circuit virtuel ». Les P.T.T. expliquent aujourd’hui que ce choix technique offre moins de risques d’encombrement que la libre circulation des datagrammes, mais on retiendra surtout que Transpac nécessite des investissements importants, des noeuds de connexion chers et lourds (douze seulement sur tout le territoire), de l’ordre de 160 millions de francs.

Transpac sera un réseau public permettant à n’importe quel abonné d’appeler n’importe quel autre. Seule restriction, mais de taille : un terminal peut dialoguer avec un ordinateur, mais pas avec un autre terminal. Il ne faut pas concurrencer le télex. La tarification au nombre de signes, indépendante de la distance, favorisera le trafic des données en province. Les P.T.T. prévoient d’amortir en huit ans ces investissements lourds en matériels alors que leurs homologues privés américains ont changé trois fois d’équipement en huit ans.

La stratégie commerciale de Transpac s’insère dans une stratégie politique des P.T.T. qui consiste à couvrir tous les nouveaux services, à utiliser tout leur poids institutionnel pour pénétrer des marchés ouverts par les développements technologiques, pour élargir leur fonction traditionnelle de « transporteur » vers la vente de services, depuis la vidéoconférence jusqu’au courrier électronique. Pour préserver le monopole de la circulation du courrier, les P.T.T. organisent leur propre dessaisissement à travers des filiales, des filiales de filiales. Dans cet effort, les P.T.T. français et leurs homologues européenne se heurteront aux grands de l’industrie informatique. IBM tout particulièrement, ou s’entendront avec eux. C’est alors que le problème de la normalisation des matériels prend son importance.

La bataille des normes

Les échanges entre ordinateurs et terminaux, les interconnexions entre réseaux nationaux et internationaux ne peuvent s’effectuer avec des matériels différents que si des normes communes les rendent compatibles. La confusion est grande puisque chaque constructeur a tendance à imposer son matériel et chaque société de services son réseau comme norme de référence. Aux Etats-Unis prolifèrent les « unregulated services », les procédures, les formats, si bien qu’en 1972 se fait jour la nécessité d’une concertation. Le C.C.I.T.T. (Comité consultatif international télégraphique et téléphonique) est l’organisme habilité à fixer les normes de ce secteur au sein de l’Union Internationale des télécommunications à Genève. Ce travail est complété par les études de - l’International Standard Organisation (ISO). Ces organismes discrets, peu connus, sont le théâtre d’affrontements feutrés mais implacables où P.T.T. et multinationales de l’informatique et des télécommunications créent des rapports de forces (et des faits accomplis) destinés à influencer les décisions. Une équipe de fonctionnaires internationaux est appelée à arbitrer des conflits d’intérêts, financiers et politiques qui déterminent le profil de nos sociétés.

Ainsi, en 1975, les « P.T.T. » européens, la Bell Canada et TELENET se concertent pour imposer une norme commune et réussissent à la faire ratifier par le C.C.I.T.T. en moins d’un an. Ce fut l’avis X 25, désormais célèbre, qui prit à contre-pied. I.B.M. et les réseaux Scandinaves engagés dans la commutation de circuit, et imposa, à l’échelle mondiale, une norme dont la complexité est peut-être inutile mais oblige les constructeurs à mettre en place de coûteux interfaces. I.B.M. dut se soumettre.

Le développement des satellites marquera le prochain épisode d’une guerre livrée dans le brouillard, pour des marchés potentiels énormes et mal définis, avec des effets juridiques et politiques difficiles à cerner, des développements technologiques imprévisibles.

Rappelons brièvement le principe : le satellite en orbite géostationnaire joua le rôle d’un relais actif placé à 36 500 kilomètres de la Terre, ce qui lui permet de couvrir une distance correspondant à peu près au tiers de la surface du globe. Les liaisons par satellite ont des caractéristiques intéressantes quand il s’agit de transmettre des donnée informatiques. La tendance générale des administration des P.T.T. était d’offrir des services de plus en plus sophistiqués, dépassant le cadre du simple service de transmission ; les liaisons par satellite deviennent, dans cette nouvelle perspective, un complément essentiel aux réseaux terrestres (genre Transpac) et offrent une possibilité d’interconnexion entre réseaux nationaux. Ce sera la première fonction du satellite Telecom-I, qui sera lancé par le ministère des P.T.T. en 1981. D’ici là, un certain nombre de problèmes devront être résolus. Le temps de propagation entre deux stations terrestres reliées par satellite est d’environ 250 millisecondes, ce qui paraît minime mais pose des problèmes de coordination des systèmes informatiques. Il faut également répondre aux exigences de la transmission de données, qui ne supporte guère le taux d’erreurs accepté pour les liaisons téléphoniques. Il est souhaitable qu’il n’y ait pas plus d’un bit d’erreur pour cent millions de bits transmis. L’utilisation des satellites va révolutionner les réseaux de données et l’industrie informatique puisque chaque centre de calcul, chaque banque de données pourra disposer d’une antenne de réception et des équipements associés. Les contraintes d’implantation seront réduites au minimum, favorisant la décentralisation. Une autre qualité du satellite est lourde de conséquences : c’est son aptitude à accepter des débits, extrêmement importants de données, 64 000 bits par seconde, alors qu’il est impossible de dépasser 1 200 bits sur le réseau téléphonique.

La transmission ultra-rapide d’une banque de données d’un ordinateur à un autre, peut alors se faire très rapidement, mais le service le plus nouveau rendu par le satellite est l’adaptation simple et rapide du débit à la demande de l’utilisateur suivant une programmation préétablie ou à la demande. Les canaux de transmission peuvent alors être utilisés de manière beaucoup plus rationnelle et la mise en oeuvre de liaisons temporaires pour de courtes durées devient aisée. Un ordinateur central peut passer par le satellite pour envoyer ses données à un ensemble de fichiers ou de banques de données décentralisées. A chaque fois qu’un besoin apparaît, une technologie est proposée, à moins que ce ne soit l’inverse. En l’occurrence, il s’agit là de l’accès multiple par répartition dans le temps qui permet de synchroniser les messages de chaque station de satellite, structurer une trame d’accès répartie pour mieux utiliser les canaux de liaison. Le problème est de réduire les coûts d’équipement dans chaque station terrestre pour centraliser ces fonctions complexes dans une station directrice.

650 fois plus cité

Le projet de satellite domestiqué américain S.B.S. illustre bien les étonnantes possibilités qui vont s’ouvrir bientôt dans le domaine de la circulation des données. Deux satellites géostationnaires serviront de base de relais à plusieurs centaines de stations terrestres dont le prix est estimé, pour le moment, à 200 000 dollars l’unité et qui permettront aux compagnies qui les utiliseront, de transmettre leurs données six cent cinquante fois plus vite qu’aujourd’hui. L’apport technologique et financier d’I.B.M. dans S.B.B. permet d’envisager une transformation importante de l’organisation du commerce américain qui verra les délais de transmission d’Information tendre vers zéro, et ce sont les plus grosses compagnies (dont la décentralisation est souvent importante) qui sont les premières intéressées : Aetna insurance, Rockell International, Boeing, Texaco ; cette dernière envisage de se réorganiser de fond en comble pour bénéficier du fait que ses recherches pétrolières par sismographie en haute mer seront instantanément exploitables. Chaque station terrestre disposera d’un contrôleur informatisé capable de digitaliser toutes les informations envoyées (téléphone, fac-similé, données informatiques, télex) avant de les étiqueter, et de les envoyer sous la forme d’un flux continu de données qui peut s’écouler à la vitesse de 41 millions de bits par seconde. Il suffit donc d’une seconde pour envoyer le texte intégral de Guerre et paix.

La synchronisation répartie du réseau est également remarquable puisque chaque station bénéficie de quelques millisecondes, déterminées trois fois par seconde par le contrôleur qui prévient un ordinateur central du réseau chargé de répartir les temps d’utilisation du satellite. La sophistication de ces procédures permet une très grande souplesse d’utilisation puisqu’il n’est plus nécessaire de louer des circuits différents pour des utilisations différentes. Cette conception d’ « architecture de système de réseau » permet à IBM et à S.B.S. de vendre des services intégrés prenant en compte l’ensemble des problèmes de leurs clients et d’ « augmenter la fonctionnalité du système » ce qui, en bon français, veut dire proposer de nouvelles perspectives aux clients. Quand S.B.S. viendra installer un service de liaison téléphonique, il proposera la transmission de données. S.B.S. offre également à I.B.M. l’opportunité de renforcer son monopole informatique en le mariant à l’industrie des télécommunications dont il organisera la comptabilité, et cela malgré toutes les lois antitrust.

Wed, 18 Apr 2018 18:12:22 +0200

Dynamisme et hégémonie des firmes américaines

Avec quatre cent cinquante banques et bases de données les Etats-Unis détiennent 90 % du stock mondial de données on line. Aussi voit-on mal comment des administrations ou des entreprises pourront se passer des services américains si aucune politique d’ensemble n’est mise en oeuvre (1). Cette suprématie résulte d’un effort prolongé et largement subventionné par le gouvernement américain, qui a beau jeu, aujourd’hui, de dénoncer le soutien apporté par les gouvernements d’Europe occidentale à leurs industriels de l’information. Mais, à trop insister sur le financement gouvernemental, on manque l’essentiel : l’environnement informatique, la richesse des gisements informationnels, le dynamisme des compagnies qui exploitent ces gisements (2).

L’environnement informatique, c’est, bien sûr, le premier parc mondial d’ordinateurs (un tiers plus nombreux que dans le reste du monde) ; c’est aussi l’informatisation massive des bibliothèques, institutions culturelles, universités, entreprises, au-delà des applications de simple gestion ; c’est, enfin, une véritable culture informatique, une familiarité avec les machines, qui a permis une insertion presque naturelle des systèmes documentaires automatisés. La richesse des gisements informationnels est évidemment une retombée de la suprématie économique et scientifique des Etats-Unis, mais elle découle aussi de la reconnaissance du droit à l’information, du pragmatisme généralisé et d’une boulimie de faits. Ce n’est pas la quantité d’informations confidentielles dont dispose un individu ou une bureaucratie qui fonde son pouvoir, mais sa capacité à traiter et synthétiser une information accessible. Des études ont montré que le citoyen américain consomme en moyenne quatre fois plus d’informations (téléphone, photocopie, télex) qu’un Européen. Enfin, si l’impulsion vient de l’armée, puis du gouvernement, c’est le règne de la concurrence (le fameux « esprit d’entreprise ») qui confère aux systèmes d’information américains ce profil industriel, ce dynamisme qui en font une affaire très profitable.

On peut distinguer quatre « vagues » d’automatisation de l’information, correspondant chacune à une préoccupation dominante.

La première vague, on l’a vu, est déterminée par les besoins de l’armée, puis par ceux de la conquête spatiale. La protection du territoire suppose un traitement de l’information « en temps réel ». L’informatisation résout cette obsession militaire de l’accélération du temps de réponse, du stockage préventif de contre-mesures, de contre-stratégies, l’anticipation des événements possibles et la modélisation. La mission de « veille scientifique » que l’armée s’attribue suppose aussi une capacité à mémoriser et traiter l’ensemble de la littérature scientifique et technique. Enfin, les programmes associent des milliers d’entreprises et impliquent un échange d’informations, une coordination des expérimentations. Les bases de données puis les banques de données sont ouvertes aux entreprises sous contrat avec l’armée.

La deuxième vague bénéficie de l’expérience des matériels et logiciels militaires. En 1963, paraît le « rapport Weinberg » dans lequel le président Kennedy explique que « l’une des principales possibilités d’accroître l’efficacité de notre effort national en matière de science et de technique et de gestion gouvernementale réside dans l’amélioration de notre capacité à communiquer l’information sur les efforts de la recherche actuelle et les résultats du passé ». Une série d’organismes sont mis en place : Office of Science Information Service, Office of Science and Technology, President’s Science Advisory Committee (P.S.A.C.), Committee on Scientific and Technical Information, National Referral Center for Science and Technology, National Data Reference Data System, Science Information Exchange, Clearinghouse for Federal Scientific and Technical Information, National Technical Information Service, National Commission on Librairies and Information Services. La multiplication d’organismes dont les missions se chevauchent est l’indice d’une absence de planification. Dès 1963, tous les rapports rédigés par le P.S.A.C. déplorent la dispersion des initiatives, la prolifération désordonnée de banques et bases de données. Les fondations, le Congrès, la National Library of Medecine, les agences fédérales créent leurs propres systèmes. Bibliothèques, sociétés savantes à but non lucratif (comme l’American Institute of Physics ou l’American Chemical Society) drainent les subventions. Plus on s’éloigne d’un plan d’ensemble, plus on multiplie les sources de financement.

L’accès à un prix modique aux systèmes d’information constitués sur fonds publics (politique inaugurée par la NASA) correspond à un transfert massif de connaissances du secteur public vers le secteur privé. D’autant plus que, reprenant là aussi l’exemple de la NASA qui confie à Lockheed Missiles and Space la gestion et la commercialisation, d’un stock de deux cent cinquante mille références, se généralise le partage des tâches entre producteur de données (souvent financé par l’Etat) et distributeurs privés. Les efforts sont concentrés sur l’information scientifique et technique (I.S.T.) et la mobilisation de l’information disponible dans l’administration. On évalue à 1 milliard de dollars l’effort fédéral annuel pour l’I.S.T. L’armée s’insère discrètement dans ce nouvel ensemble, et c’est la marine qui gère le programme interministériel GIDEP (Government Industry Data Exchange Program).

Privatisation, industrialisation

Le marché est créé. Si l’administration continue de pourvoir ce marché en données, subventions et contrats, en favorisant l’échange, la diffusion et l’amélioration des logiciels, le relais est pris par des sociétés privées (édition, informatique, presse). La maîtrise des procédures d’interrogation interréactive (conversationnel, on line), c’est-à-dire la possibilité de ré-orienter la question en fonction des réponses, l’accélération du dialogue homme-machine, donnent à la demande un coup de fouet. La rivalité entre fournisseurs (Database Services, Retrieval Services) s’accentue par amélioration des performances, politiques tarifaires, stratégies de marketing, mais aussi par l’extension du marché vers le droit, la gestion, l’économie, l’actualité. Les systèmes mis en place au cours de la deuxième vague (les géants System Development Corporation et Lockheed Information Services, qui offrent chacun accès à plus d’une centaine de bases bibliographiques, Information Retrieval Services de l’Agence Spatiale Européenne, la National Library of Medecine, etc.), voient apparaître des concurrents sur leur propre terrain (Bibliographic Retrieval Services, Interactive Data Corporation) et des concurrents indirects (Data Resource Incorporated, Interactive Marketing Systems, Infobank du New York Times). En 1975, il existe 250 bases de données rassemblant 10 millions de références par an. Cent cinquante banques de données totalisent 1011 caractères, soit l’équivalent d’une dizaine de milliers de bandes magnétiques.

A côté des grosses bases de données comme Chemical Abstracts, qui, avec un budget de 30 millions de dollars et un personnel de 1500 employés, rassemble 10 milliards de caractères. Science Citation Index et ses 2 millions de références tirées d’environ 2600 journaux scientifiques, mises à jour mensuellement, se développent de petits systèmes, très spécialisés : Aptic traite de tout ce qui concerne la pollution de l’air, Foods Aliba permet de faire le point sur les technologies alimentaires et de conditionnement, Defense Market Measures System rend compte des contrats passés par le département de la défense.

En se privatisant, cette activité s’industrialise. Des sociétés qui n’y étaient présentes que « par un doigt de pied » (une banque de données, un réseau privé, un accord passé avec un grand système) investissent massivement. La chute des coûts des terminaux élargit encore la clientèle. La connexion réalisée avec l’Europe et une quarantaine d’autres pays donne au marché une dimension mondiale, en accentuant encore la concurrence. Les tendances s’inversent : on crée de plus en plus de banques de données, le monde des affaires est avide de données brutes, l’information boursière, financière et commerciale devient le moteur de l’industrie de l’information, le secteur où se réalisent les plus gros profits. 66 % du chiffre d’affaires concerne en 1976 l’information sur les entreprises et les marchés industriels, 16 % le renseignement sur les particuliers et les ménages (solvabilité des cartes de crédit, notamment), 8 % l’information économique, 7 % la bourse, 1 % le droit et la jurisprudence, 1 % l’actualité.

Une « nouvelle frontière »

Précisons tout de suite que cette estimation recouvre l’industrie de l’information au sens le plus large, puisque 25 % seulement sont transmis on line. La réglementation fédérale pour la protection des libertés et de la vie privée (Credit Act) limite la généralisation du conversationnel. L’I.S.T. ne représente qu’une faible part d’une industrie qui se centre sur le monde des affaires. L’activité des banques de données est souvent une activité d’appel vers d’autres services, et cette logique commerciale tend à privilégier la rentabilité du système sur la qualité de l’information fournie, la compétition devenant alors la seule règle.

Dans une économie qui connaît une saturation de biens, où plus de la moitié des salariés travaillent dans le traitement de l’information (au sens large), rien ne semble pouvoir freiner l’expansion de cette industrie, et les projets de banques de données « domestiques », conçues pour les particuliers, en cours d’expérimentation en Grande-Bretagne et bientôt en France, définissent une « nouvelle frontière », une clientèle à coloniser.