Maurice Ronai et Antoine Lefebure, « La guerre des données » in Le Monde Diplomatique, novembre 1979
La transmission des données est encore un vaste champ libre où s’affrontent les technologies et les stratégies commerciales en pleine mutation. Ni les administrations nationales responsables ni les juristes n’ont les moyens de contrôler la guerre qui se livre ainsi dans le brouillard. Le développement des satellites ouvre un nouvel épisode dans cette conquête des marchés…
Les réseaux de transmission de données sont nés dans les années 60 comme système nerveux du dispositif militaire américain. Ils sont aujourd’hui le théâtre d’une compétition serrée entre firmes multinationales, alors que les administrations publiques américaines tentent d’imposer des normes pour limiter l’emprise de ces firmes. Les liaisons par satellites seront le prochain enjeu de cet affrontement.
Dès 1951, IBM et Burroughs montent pour l’aviation américaine un réseau de données destiné à relier les bases militaires et l’état-major en cas d’attaque surprise par missiles ou bombardiers. Le SAGE (Semi Automatic Ground Environnement) nécessite la transmission à grande vitesse de données d’observation complexes. Les études menées par la Rand Corporation aboutissent, en 1958, à la naissance d’une technique : la « commutation de paquets ». Expérimenté au départ à des fins stratégiques, le réseau Arpanet relie, par la suite, des universités travaillant pour le Pentagone et garde de son origine militaire une structure maillée. Les données circulent sur le réseau par « paquets » munis d’indication d’arrivée et de départ, avec la possibilité d’atteindre leur destination même si une partie du réseau est hors d’usage (détruite ou embouteillée).
Une société spécialisée dans l’informatique en temps partagé, Tymshare, avait besoin de lignes spécialisées pour la transmission de données, notamment pour relier côte est et côte ouest. Plus performant que le réseau téléphonique traditionnel, ce réseau servit dans un premier temps pour les besoins propres de cette firme informatique. Progressivement, des clients se mirent à l’utiliser aussi, sans recourir aux services informatiques en temps partagé pour lequel il avait été conçu. Des firmes privées, des administrations, la Library of Medecine font passer leur trafic de données par ce nouveau réseau. Pour Tymshare, la vente de ce service est marginale par rapport à son activité purement informatique (2 millions de dollars sur 50 millions), mais elle croît de 70 % par an, révélant l’existence d’un besoin insatisfait par A.T.T. (Bell System). Bientôt, trois cent quarante nœuds d’accès relient quatre cents terminaux et cent quatre-vingts ordinateurs sur la territoire américain. Dès 1971, Tymshare ouvre des lignes avec Paris et Londres ; en 1978, dix-huit pays sont connectés au réseau rebaptisé Tymnet, concurrencé par Telenet, un autre réseau créé par des transfuges d’Arpanet. D’autres multinationales comme Honeywell, General Electric, Control Data se dotent aussi d’un réseau propre.
L’ouverture de ce nouveau marché ne pouvait laisser indifférentes les entreprises de télécommunication et les administrations nationales des P.T.T. En France comme au Royaume-Uni, les P.T.T. acceptent l’irruption de ces nouveaux réseaux sur leur territoire mais prennent le contrôle des relais. A défaut de pouvoir mettre en place elles-mêmes ce type de réseau, les administrations tolèrent leur implantation, en mettant la main sur un segment du système : les concentrateurs. Leur monopole est préservé, assez artificiellement, en attendant le moment où les P.T.T. seront en mesure de l’étendre à l’ensemble du réseau.
Aux Etats-Unis, la situation est plus complexe : il n’y a pas d’administration nationale. Il y a eu, d’un côté, AT&T (American Telegraph and Telephone), qui assure un monopole de fait, et, de l’autre, la Federal Commission for Communications (F.C.C.), qui ne joue qu’un rôle régulateur et réglementaire pour éviter des situations « préjudiciables au consommateur ». Les liaisons internationales sont confiées à trois « International carriers » agréés : R.C.A., Western Union et I.T.T. Ces « transporteurs internationaux » n’interviennent pas sur le marché intérieur, où règne AT&T, qui, en revanche, n’opère pas au-delà des frontières.
Ce fragile équilibre oligopolistique est remis en cause par une série d’initiatives prises par des petites firmes. Ainsi, quand un fabricant de matériel téléphonique propose l’installation d’un dispositif qui améliore l’écoute des liaisons téléphoniques dans un lieu bruyant, A.T.T. tente d’interdire cet équipement appelé « hush a phone » A.T.T. est débouté. Cet arrêté fameux de la F.C.C., anecdotique dans son motif mais historique dans ses effets, ouvre une brèche dans le monopole d’A.T.T. Des firmes plus importantes entrent dans la bataille, le pouvoir réglementaire de la F.C.C. vacille, et cet organisme est bientôt ouvertement contesté, accusé de privilégier les situations acquises, d’être le chien de garde de la toute-puissante Association nationale des radiodiffuseurs (NAB). Il n’est plus question que de de-regulation (dé-réglementation). Les économistes néo-libéraux et les services de relations publiques des firmes trouvent des accents quasi libertaires pour chanter les mérites des lois du marché comme régulatrices du marché des télécommunications.
Les principes fondamentaux établis par le Communication Act de 1934 donnaient à la F.C.C. mission de « proposer, de la meilleurs manière possible, un service national et international de liaison par câbles et par radio, rapide, efficace, à des prix raisonnables ». Aujourd’hui, cette loi est rediscutée dans un climat orageux et sous une rafale de procès : chacun se lance sur les nouveaux marchés, et aucune position établie n’est plus garantie. I.T.T. concurrence fois la première fois A.T.T. sur le territoire américain en installant des liaisons téléphoniques à grande capacité, destinées aux liaisons professionnelles entre onze grandes villes ; I.B.M. s’allie avec la Comsat (gérant du réseau intelsat de satellites) et avec une compagnie d’assurances, Aetna, pour créer Satellite Business System (S.B.S.), qui assurera des liaisons téléphoniques, des transmissions de données vidéo et de fac-similés. Rank Xerox se lance dans la même aventure, avec une priorité pour le service de fac-similé. A.T.T. ne reste pas inactive face aux assauts et promet pour cette année un réseau spécialisé, le Bell Data Network, capable d’offrir des services, originaux comme le niveau d’urgence dans le traitement des paquets de données.
Plus aucune barrière réglementaire ne semble pouvoir limiter les affrontements, puisque la F.C.C. avait décidé, en 1971, que le traitement des données devait rester non réglementé, à la différence de leur transmission. Or, le développement des technologies rend problématique, sinon caduque, la distinction entre traitement et transmission de données, et des bataillons d’avocats et d’experts s’opposent sur cet épineux problème sémantique et technique. On ne saurait prévoir qui gagnera. Ainsi, le projet S.B.S. d’I.B.M. est bloqué par une cour d’appel fédérale, après avoir été autorisé par la F.C.C et attend l’arbitrage de la Cour suprême. Les remous de cette bataille ont entraîné la dissolution de l’Office of Telecommunication Policy (O.T.P.), dont la partie compétente pour les problèmes nationaux passe sous la tutelle du département du commerce. Ces recompositions, comme les atermoiements du pouvoir fédéral, marquent bien la difficulté pour celui-ci d’intervenir dans un domaine où les lois du marché contredisent toute planification, abandonnant ainsi certains secteurs à la concurrence japonaise et même européenne.
La stratégie française
Des 1971, utilisant des procédures d’origine informatique, les chercheurs de l’IRIA (Institut de recherche d’informatique et d’automatique) montent un réseau appelé Cyclades, financé pour moitié par les utilisateurs de nombreux centres universitaires. Les « paquets » sont traités suivant une technique, celle des datagrammes, particulièrement souple et originale puisque chaque bloc d’informations circule d’un commutateur à l’autre suivant un trajet optimisé en fonction du « partage des ressources » et des avaries possibles. Simple et peu onéreuse, cette procédure donne de bons résultats sur Cyclades, puis sur le réseau privé de la S.N.C.F. et celui de la marine nationale. Elle ne correspondait pas aux conceptions des ingénieurs des P.T.T. Les P.T.T. n’étaient intervenus qu’au niveau de la location de lignes, le service le moins rentable et le moins gratifiant.
La direction générale des télécommunications n’entendait pas laisser les informaticiens monter leurs propres réseaux : il lui restait donc à proposer un réseau assez ambitieux, assez performant aussi, pour justifier des crédits gouvernementaux et imposer une normalisation – tout au moins nationale – sous le contrôle des P.T.T.
Comme aux Etats-Unis, les télécommunications se développent sur le terrain de l’informatique au moment où l’informatique imagine ses propres solutions en matière de réseaux. De cette émulation surgit Transpac, reprenant les principes classiques de la téléphonie, puisque le « paquet » suit un trajet immuable, appliquant la procédure du « circuit virtuel ». Les P.T.T. expliquent aujourd’hui que ce choix technique offre moins de risques d’encombrement que la libre circulation des datagrammes, mais on retiendra surtout que Transpac nécessite des investissements importants, des noeuds de connexion chers et lourds (douze seulement sur tout le territoire), de l’ordre de 160 millions de francs.
Transpac sera un réseau public permettant à n’importe quel abonné d’appeler n’importe quel autre. Seule restriction, mais de taille : un terminal peut dialoguer avec un ordinateur, mais pas avec un autre terminal. Il ne faut pas concurrencer le télex. La tarification au nombre de signes, indépendante de la distance, favorisera le trafic des données en province. Les P.T.T. prévoient d’amortir en huit ans ces investissements lourds en matériels alors que leurs homologues privés américains ont changé trois fois d’équipement en huit ans.
La stratégie commerciale de Transpac s’insère dans une stratégie politique des P.T.T. qui consiste à couvrir tous les nouveaux services, à utiliser tout leur poids institutionnel pour pénétrer des marchés ouverts par les développements technologiques, pour élargir leur fonction traditionnelle de « transporteur » vers la vente de services, depuis la vidéoconférence jusqu’au courrier électronique. Pour préserver le monopole de la circulation du courrier, les P.T.T. organisent leur propre dessaisissement à travers des filiales, des filiales de filiales. Dans cet effort, les P.T.T. français et leurs homologues européenne se heurteront aux grands de l’industrie informatique. IBM tout particulièrement, ou s’entendront avec eux. C’est alors que le problème de la normalisation des matériels prend son importance.
La bataille des normes
Les échanges entre ordinateurs et terminaux, les interconnexions entre réseaux nationaux et internationaux ne peuvent s’effectuer avec des matériels différents que si des normes communes les rendent compatibles. La confusion est grande puisque chaque constructeur a tendance à imposer son matériel et chaque société de services son réseau comme norme de référence. Aux Etats-Unis prolifèrent les « unregulated services », les procédures, les formats, si bien qu’en 1972 se fait jour la nécessité d’une concertation. Le C.C.I.T.T. (Comité consultatif international télégraphique et téléphonique) est l’organisme habilité à fixer les normes de ce secteur au sein de l’Union Internationale des télécommunications à Genève. Ce travail est complété par les études de – l’International Standard Organisation (ISO). Ces organismes discrets, peu connus, sont le théâtre d’affrontements feutrés mais implacables où P.T.T. et multinationales de l’informatique et des télécommunications créent des rapports de forces (et des faits accomplis) destinés à influencer les décisions. Une équipe de fonctionnaires internationaux est appelée à arbitrer des conflits d’intérêts, financiers et politiques qui déterminent le profil de nos sociétés.
Ainsi, en 1975, les « P.T.T. » européens, la Bell Canada et TELENET se concertent pour imposer une norme commune et réussissent à la faire ratifier par le C.C.I.T.T. en moins d’un an. Ce fut l’avis X 25, désormais célèbre, qui prit à contre-pied. I.B.M. et les réseaux Scandinaves engagés dans la commutation de circuit, et imposa, à l’échelle mondiale, une norme dont la complexité est peut-être inutile mais oblige les constructeurs à mettre en place de coûteux interfaces. I.B.M. dut se soumettre.
Le développement des satellites marquera le prochain épisode d’une guerre livrée dans le brouillard, pour des marchés potentiels énormes et mal définis, avec des effets juridiques et politiques difficiles à cerner, des développements technologiques imprévisibles.
Rappelons brièvement le principe : le satellite en orbite géostationnaire joua le rôle d’un relais actif placé à 36 500 kilomètres de la Terre, ce qui lui permet de couvrir une distance correspondant à peu près au tiers de la surface du globe. Les liaisons par satellite ont des caractéristiques intéressantes quand il s’agit de transmettre des donnée informatiques. La tendance générale des administration des P.T.T. était d’offrir des services de plus en plus sophistiqués, dépassant le cadre du simple service de transmission ; les liaisons par satellite deviennent, dans cette nouvelle perspective, un complément essentiel aux réseaux terrestres (genre Transpac) et offrent une possibilité d’interconnexion entre réseaux nationaux. Ce sera la première fonction du satellite Telecom-I, qui sera lancé par le ministère des P.T.T. en 1981. D’ici là, un certain nombre de problèmes devront être résolus. Le temps de propagation entre deux stations terrestres reliées par satellite est d’environ 250 millisecondes, ce qui paraît minime mais pose des problèmes de coordination des systèmes informatiques. Il faut également répondre aux exigences de la transmission de données, qui ne supporte guère le taux d’erreurs accepté pour les liaisons téléphoniques. Il est souhaitable qu’il n’y ait pas plus d’un bit d’erreur pour cent millions de bits transmis. L’utilisation des satellites va révolutionner les réseaux de données et l’industrie informatique puisque chaque centre de calcul, chaque banque de données pourra disposer d’une antenne de réception et des équipements associés. Les contraintes d’implantation seront réduites au minimum, favorisant la décentralisation. Une autre qualité du satellite est lourde de conséquences : c’est son aptitude à accepter des débits, extrêmement importants de données, 64 000 bits par seconde, alors qu’il est impossible de dépasser 1 200 bits sur le réseau téléphonique.
La transmission ultra-rapide d’une banque de données d’un ordinateur à un autre, peut alors se faire très rapidement, mais le service le plus nouveau rendu par le satellite est l’adaptation simple et rapide du débit à la demande de l’utilisateur suivant une programmation préétablie ou à la demande. Les canaux de transmission peuvent alors être utilisés de manière beaucoup plus rationnelle et la mise en oeuvre de liaisons temporaires pour de courtes durées devient aisée. Un ordinateur central peut passer par le satellite pour envoyer ses données à un ensemble de fichiers ou de banques de données décentralisées. A chaque fois qu’un besoin apparaît, une technologie est proposée, à moins que ce ne soit l’inverse. En l’occurrence, il s’agit là de l’accès multiple par répartition dans le temps qui permet de synchroniser les messages de chaque station de satellite, structurer une trame d’accès répartie pour mieux utiliser les canaux de liaison. Le problème est de réduire les coûts d’équipement dans chaque station terrestre pour centraliser ces fonctions complexes dans une station directrice.
650 fois plus cité
Le projet de satellite domestiqué américain S.B.S. illustre bien les étonnantes possibilités qui vont s’ouvrir bientôt dans le domaine de la circulation des données. Deux satellites géostationnaires serviront de base de relais à plusieurs centaines de stations terrestres dont le prix est estimé, pour le moment, à 200 000 dollars l’unité et qui permettront aux compagnies qui les utiliseront, de transmettre leurs données six cent cinquante fois plus vite qu’aujourd’hui. L’apport technologique et financier d’I.B.M. dans S.B.B. permet d’envisager une transformation importante de l’organisation du commerce américain qui verra les délais de transmission d’Information tendre vers zéro, et ce sont les plus grosses compagnies (dont la décentralisation est souvent importante) qui sont les premières intéressées : Aetna insurance, Rockell International, Boeing, Texaco ; cette dernière envisage de se réorganiser de fond en comble pour bénéficier du fait que ses recherches pétrolières par sismographie en haute mer seront instantanément exploitables. Chaque station terrestre disposera d’un contrôleur informatisé capable de digitaliser toutes les informations envoyées (téléphone, fac-similé, données informatiques, télex) avant de les étiqueter, et de les envoyer sous la forme d’un flux continu de données qui peut s’écouler à la vitesse de 41 millions de bits par seconde. Il suffit donc d’une seconde pour envoyer le texte intégral de Guerre et paix.
La synchronisation répartie du réseau est également remarquable puisque chaque station bénéficie de quelques millisecondes, déterminées trois fois par seconde par le contrôleur qui prévient un ordinateur central du réseau chargé de répartir les temps d’utilisation du satellite. La sophistication de ces procédures permet une très grande souplesse d’utilisation puisqu’il n’est plus nécessaire de louer des circuits différents pour des utilisations différentes. Cette conception d’ « architecture de système de réseau » permet à IBM et à S.B.S. de vendre des services intégrés prenant en compte l’ensemble des problèmes de leurs clients et d’ « augmenter la fonctionnalité du système » ce qui, en bon français, veut dire proposer de nouvelles perspectives aux clients. Quand S.B.S. viendra installer un service de liaison téléphonique, il proposera la transmission de données. S.B.S. offre également à I.B.M. l’opportunité de renforcer son monopole informatique en le mariant à l’industrie des télécommunications, et cela malgré toutes les lois antitrust.