Campagne présidentielle de 2000 : un laboratoire d’innovations technopolitiques

 Alors que l’incertitude règne encore sur l’issue de l’élection présidentielle, le débat s’ouvre sur l’évaluation de « l’effet Internet » dans cette campagne. (Notons au passage que les dysfonctionnements observés dans le décompte des voix en Floride vont probablement nourrir le débat américain sur la modernisation du processus électoral, et notamment sur l’avènement de systèmes de vote par Internet.)

 Avant même l’issue du scrutin, les instituts et les candidats eux-mêmes publiaient une avalanche de chiffres sur la fréquentation des sites de campagne, les comportements informationnels des électeurs, le coût du volet Internet des campagnes …

Nul doute que des centaines d’analystes et d’universitaires vont s’attacher dans les prochains mois à mesurer « l’effet Internet » sur le résultat de cette compétition. Internet n’a évidemment pas supplanté la télévision. L’essentiel des dépenses de campagne – pres de trois milliards de $- a été affecté à l’achat de spots sur les chaînes nationales, locales et ethniques.

Reste ouverte la question de savoir qui, des démocrates ou des républicains, aura tiré le mieux parti d’Internet.

 Ce qui est certain, c’est que cette campagne aura été un véritable laboratoire d’innovations techno-politiques.

Nous avons rendu compte, dans ces chroniques, successivement du phénomène extrêmement déroutant des sites parodiques et pirates, de la contribution des sites de campagne officiels à la collecte de fonds, de l’usage de techniques toujours plus sophistiquées de ciblage des électeurs (avec l’envoi de messages personnalisés), de la dynamique de réseau qu’ont su créer démocrates et républicains pour recruter en ligne des « volontaires », qui assuraient ensuite le « relais » pour la propagation « virale » de messages.

 Votetrading : le vote concerté

On a vu aussi, dans la dernière ligne droite de la campagne prendre forme une innovation politique extrêmement stimulante : le « votetrading » ou « vote swapping », « l’échange concerté de votes ». On doit cette innovation aux partisans de Ralph Nader, et au-delà à cette frange de la gauche américaine partagée entre le soutien à Ralph Nader, mais soucieuse, aussi, de contrer la victoire de George Bush. Le principe etait le suivant : pour atteindre simultanément deux objectifs, en apparence contradictoires : permettre l’élection d’Al Gore ( « un moindre mal »), tout en permettant à Nader d’atteindre le seuil des 5% au plan national, il fallait qu’un certain nombre d’électeurs disposés à voter Nader acceptent de voter pour Gore dans les états ou Gore avait besoin de faire le plein des voix : symétriquement, pour permettre a Nader d’atteindre les 5%, il fallait qu’un certain nombre d’électeurs disposés à voter Gore acceptent de voter Nader, dans les états où Gore avait une nette avance, ou n’avait aucune chance d’arriver en tête. L’idée a été lancée le 24 mars. Dans les jours qui suivaient, six sites surgissaient, proposant de mettre en contact, en fonction du rapport de force électoral état par état, des partisans de Nader et partisans de Gore pour qu’ils procèdent a un échange de votes. On sait maintenant que le « nadertrading » n’a pas produit les effets escomptés. Samedi 4 novembre 2000, à trois jours du scrutin, 20 000 personnes avaient conclu des conventions de vote stratégique, dont 7 368 sur le seul site de VoteSwap2000.Net. Ralph Nader a finalement recueilli pres de 3% des suffrages exprimés : les 96 000 voix qui se sont portées vers Nader en Floride auront peut-être coûté au vice-président son élection.

Le « votetrading » aura sans douté été, avec l’expérimentation du vote en ligne, lors des primaires d’Arizona, l’innovation technopolitique la plus marquante de cette campagne. Nous aurons l’occasion d’y revenir.

On présente ici les principaux indicateurs relatifs aux aspects Internet de la campagne présidentielle.

 L’impact modeste des sites internet sur les électeurs indécis

 Selon une enquête de NetElection.org, sur un total de 1 423 candidats, cette année, 71 % des républicains et 64 % des démocrates disposaient d’un site web.

À la mi-août, ils étaient une majorité d’Américains (65,7 %) à se dire prêts à suivre la campagne et s’informer des programmes des candidats via Internet.

 Profil politique des internautes américains

Le nombre de républicains connectés dépasse celui des démocrates. 36,8 % des internautes se déclarent républicains, 27,9 % démocrates. Dans la population totale (internautes et non-internautes), la proportion est inversée : il y a plus de démocrates que de républicains, mais la presque moitié de la population américaine connectée au Web correspond à la moitié la plus riche et la plus blanche, au sein de laquelle les républicains sont plus présents.

Les internautes républicains fréquentent plutôt les sites économiques et boursiers (TheStreet.com, Bigcharts.com, Schwab.com, Etrade.com, Fidelity.com et Cnbc.com). Les démocrates fréquentent plutôt les sites qui proposent un contenu gratuit et des services.

 La relativement faible fréquentation des sites

Selon NielsenNetRatings (NNR), seulement 232 356 personnes ont visité celui de Gore durant la semaine du 22 octobre et 285 388 celui de Bush : une audience combinée qui les place à la 346e place, entre le site de l’US Navy et HotJobs.com!

Le site de George W. Bush attire un nombre supérieur d’hommes (61% contre 45% sur le site de Gore), de Latinos (4,5% contre 1,6%) et de personnes âgées, alors que le site d’Al Gore est davantage visité par des femmes (55% contre 39%), des Noirs (4,1% contre 1,7%) et des personnes actives avec des revenus plus élevés.

 Internet joue essentiellement un rôle de renforcement des opinions

C’est un phénomène que les sociologues des médias connaissent bien. « Les républicains vont sur les sites républicains et les démocrates sur les sites démocrates. Quant aux électeurs indécis, ils n’utilisent pas internet. Ça ne les intéresse pas. Ils vont puiser leurs informations à la télévision et dans les journaux », explique Lee Rainie, directeur du centre de recherches Pew Internet and American Life Project « Les gens qui se connectent ne sont pas des néophytes. Ce sont déjà des junkies politiques. Cela signifie que l’impact d’Internet est très faible et qu’il n’affecte qu’une audience très restreinte », affirme M. Rainie.

http://netelection.org/
http://www.mmedium.com/cgi-bin/nouvelles.cgi?Id=4527

 Les sites de campagne seraient-ils utiles d’abord pour les militants ?

Si les sites des candidats attirent essentiellement les « junkies de la politique » déjà convaincus, leur contribution a la campagne n’est peut-être pas celle qu’on imagine. Destinés aux indécis, ils sont consultés par les « partisans ». C’est tout le problème d’un militantisme efficace que de disposer en temps réel d’argumentaires diversifiés, classifiés, faciles à utiliser. Des argumentaires que les militants s’approprient et rediffusent autour d’eux, sous d’autres formes, en direction des électeurs qui ne vont pas sur les sites de campagne.

A noter, au passage, que le parti démocrate mettait à disposition de ses partisans des outils pour constituer des « sites de campagne personnels »…

 Démocrates et républicains ont utilisé internet pour mobiliser leurs militants et leurs electeurs

 Promotion des sites et exploitation des bannières

Le camp d’Al Gore a monté une campagne unique, au milieu du mois d’août, au moment de la convention démocrate. Une bannière a été diffusée pendant une semaine sur le site de l’annuaire américain Yahoo. Selon AdRelevance, celle-ci a généré 8 073 684 « impressions », c’est-à-dire qu’elle a pu être vue plus de 8 millions de fois par des électeurs potentiels.

Face à cette démarche destinée à ratisser large, les Républicains ont opté pour une campagne très ciblée. Elle s’est déroulée en deux temps : tout d’abord, à la mi-juillet, au moment de la convention républicaine. Puis une seconde vague de publicités a été lancée début octobre, au moment des grands débats télévisés opposant les deux candidats. Plus de 20 bannières différentes ont été diffusées sur 35 sites tels que Yahoo, AOL, le Washington Post, Lycos ou encore ABC News, avec pour résultat plus de 9 millions « d’impressions ».

Plus de la moitié des bannières républicaines demandent un e-mail aux internautes. En fait, les Républicains se servent de ces bannières pour construire une base de données des adresses électroniques des électeurs en vue des prochaines campagnes, révèle AdRelevance. Plus de la moitié des bannières demandent à l’utilisateur d’entrer son e-mail, que ce soit pour gagner un agenda électronique ou un voyage à Washington.

A l’issue de la campagne, les républicains disposaient d’une base de données de pres d’un million d’adresses, contre une centaine de milliers du côté démocrate.

AdRelevance : Campaigning on the Web :
http://www.adrelevance.com/intelligence/intel.jsp

 Communication politique virale

Il y a deux manières d’utiliser le courrier électronique dans une campagne.

La première approche, « virale », repose sur la propagation de messages que les militants et les volontaires diffusent auprès de leurs proches, à charge pour ceux-ci de les diffuser a leur tour. Les deux camps proposaient sur leurs sites des messages-types.

Francis Pisani, dans Le Monde, rapportait cette anecdote :  » Fin septembre, George W. Bush voulait tenir un discours sur sa politique en matière d’éducation, dans un collège de la région de San Francisco possédant un bon programme technique, une forte présence de minorités et jouissant du soutien d’une grosse entreprise. Ses conseillers avaient trois jours pour résoudre l’équation. Ils ont relevé le défi sans peine grâce à ce que l’on appelle un  » arbre Internet  » : un principe mis au point pour se mobiliser rapidement. Il s’agit d’envoyer un message électronique à un nombre limité de personnes qui chacune le répercute à leur tour sur un nombre limité de personnes, et ainsi de suite. En quelques heures, les organisateurs de la campagne californienne de George W.Bush ont réussi le tour de force de dénicher la Sequoia High School de Redwood City, qui bénéficie d’un programme de formation financé grâce à Cisco et dont les étudiants sont en majorité latinos ! Quelques courriers électroniques supplémentaires ont même permis de recruter des volontaires et d’organiser la manifestation jusque dans ses moindres détails »

 Des bases de données de plusieurs centaines de milliers d’électeurs

L’autre approche repose sur la mise en place d’une base de données, constituées à partir des coordonnées déposées par les visiteurs des sites. Selon Peter Ragone, porte-parole d’Albert Gore dans l’Etat de Californie,  » nous communiquons avec des dizaines de milliers de personnes, que nous informons de ce que nous sommes en train de faire et que nous invitons à participer à nos activités. «

Avec ces bases de données, les deux états-majors politiques pouvaient ainsi envoyer des messages spécifiques à des écologistes de Washington comme à des retraités de Floride. Qu’il s’agisse de les sensibiliser sur l’une des dernières déclarations de leur candidat ou de les mobiliser pour une opération ponctuelle.

Les Républicains auraient consacré prés de 5 millions de $ à la collecte d’adresses et à leur exploitation. En mars 2000, le parti républicain proposait un service d’acces à Internet, e-GOP pour 19 $ 95. Les démocrates ont surenchéri, quelques mois plus tard, avec Free-DEM, plusieurs mois après : même offre d’acces Internet, portail, accès à de nombreux services, mais cette fois, l’abonnement etait gratuit.

La base de données républicaine contenait 17 000 adresses en juillet 99, pres de 800 000 dans les derniers jours de la campagne.

Wired rapporte que dans les jours qui suivirent le débat télévisé Bush-Gore, les républicains appelèrent leurs partisans à se rendre sur les sites de CNN, MSNBC et les sites de presse pour déclarer, dans les sondages en ligne que Bush avait été meilleur que Gore ( alors que les observateurs estimaient que Gore avait légèrement surpassé Bush). Larry Purpuro, l’un des chefs d’orchestre de la stratégie Internet du camp républicain, la ruée des partisans de Bush vers les sondages en ligne a joué un rôle décisif à un moment-clé de la campagne.

Cette base de données est également utilisée pour la collecte de fonds. Un publipostage coûte environ 40 cents, avec un taux de retour de 1 %. (Soit 10 dons pour 1000 envois). Un courrier électronique peut être adressé à un million de personnes au lieu de mille pour un coût nettement moindre. Le taux de retour est inférieur, mais le montant moyen des dons en ligne est de 100 $ (contre 40 $). Purpuro précise que les républicains n’ont adressé de messages qu’a des personnes qui avaient volontairement communiqué leur adresse. A quelques jours du scrutin, Purpuro annonçait qu’il préparait un envoi massif de mails pour convaincre les gens d’aller voter : « electronic- get-out-the-vote » (EGOTV). Il se faisait fort de mobiliser ainsi, dans les dernières heures, environ 10 pour cent des électeurs Républicains.

Purpuro estime que dans deux ans, et à coup sûr dans quatre ans, les elections se joueront sur Internet autant qu’a la télévision. S’il envisage la diffusion gratuite de Cd-Rom ( »pour diffuser des messages sans passer par le filtre des médias »), il estime que le courrier électronique restera probablement l’instrument de communication principal, grâce aux possibilités de « ciblage » et de personnalisation.

 USA Today rapporte que les démocrates avaient prévu d’atteindre, par e-mail, 30 millions de personnes dans les dernières heures de la campagne, à partir d’une base de données de 1,5 millions d’adresses (un facteur démultiplicateur de 20).Les démocrates avaient également mis en place une messagerie instantanée qui permettait aux partisans de Gore de se concerter en temps réel, avec des messages du type :  » ma grand mère veut voter Gore : je ne peux pas l’emmener au bureau de vote. Quelqu’un peut-il le faire pour moi ?  » Les républicains, de leur cote, auraient assemblé une base de données de 810 000 adresses, avec le projet de générer un flux de 5 à 10 millions de messages…

Une société en réseaux, solidaire, libre et ouverte. Contribution au Congrès du Parti socialiste de Grenoble de novembre 2000

1) Une mutation socio-technique

La société en réseaux se construit sous nos yeux, sous la pression conjuguée du progrès technique, des intérêts commerciaux, de nouvelles demandes sociales.

Si nous n’en saisissons pas encore la forme finale, nous savons que son impact sur l’économie, le travail, la vie quotidienne, la vie sociale, sera d’une profondeur similaire à celui de la révolution industrielle.

Le gouvernement de Lionel Jospin a donné, avec le programme d’action  » société de l’information  » (PAGSI) une impulsion décisive pour l’introduction des NTIC dans l’école et la culture, la stimulation de l’innovation, la réforme des services publics, la mise au point d’un système de régulation.

Les parlementaires socialistes se sont, à leur tour, saisis de ces questions.

Le Parti socialiste, en revanche, a pratiquement été absent des débats sur la société de l’information. (La contribution de la droite n’a pas, il est vrai, été marquante).

Il est urgent que les socialistes élaborent et proposent leur approche de la société en réseaux.

Non pas comme un domaine d’action en soi, mais comme un enjeu qui traverse l’ensemble de nos propositions, Ce sera l’un des enjeux du Congrès.

L’information et les réseaux, ressorts d’une croissance durable

L’économie des réseaux accroît la polarisation des richesses et des compétences, et par conséquent les inégalités entre les nations, au sein des sociétés, entre les générations, les territoires, les activités.

Elle est l’expression achevée d’un capitalisme informationnel qui étend son emprise au travail intellectuel, au savoir, aux œuvres de l’esprit. Pour autant, nous devons impérativement comprendre les modèles économiques qui s’installent. Car demain, se créeront dans cet espace une part importante des richesses de notre pays, et des emplois.

En France comme ailleurs, la croissance est, pour une part au moins, tirée par le secteur des technologies de l’information : elles devraient représenter près de 7 % de la production nationale en 2000. Elles contribuent pour 20 % à la croissance globale sur les trois dernières années.

Sans adhérer naïvement au credo du «  nouvel âge économique « , les activités informationnelles sont devenues un moteur essentiel de nos économies. Les survalorisations boursières de la net-economie ne doivent pas occulter l’émergence d’entreprises nouvelles productrices de richesses. Ni les gains de productivité que les TI rendent possibles.

Ambivalences du travail en réseau

L’évaluation des effets du recours aux technologies de l’information nourrit, depuis un demi-siècle, des interrogations récurrentes : déqualification ou requalification ? Perte de contrôle des salariés ou montée d’autonomie ? Ces interrogations n’ont jamais été aussi actuelles.

Les technologies de l’information favorisent la remise en cause des organisations tayloriennes : on voit les entreprises réduire les niveaux hiérarchiques, redistribuer les responsabilités au profit des opérationnels, se réorganiser horizontalement, autour des processus, ou en équipe-projet.

Cette réorganisation des entreprises se traduit par une individualisation croissante du travail, une moindre solidarité collective et le développement de formes  » flexibles  » de travail. L’éclatement géographique de l’entreprise, le développement du télétravail,  » nomade  » ou à domicile, remettent en cause les notions de temps et de lieu de travail.

Les salariés prennent la mesure des changements :

 Les exigences nouvelles de productivité, de flexibilité, de disponibilité, dans le temps et dans l’espace

 Les risques de surveillance, de marginalisation des formes de représentation, de remise en cause des principes du droit du travail.

 Les opportunités, aussi, en termes d’autonomie dans le travail.

On voit ainsi se dessiner les termes et les enjeux de nouveaux compromis à négocier.

Si la souplesse est désormais une condition structurelle de compétitivité des entreprises, nous devons éviter qu’elle se développe au détriment de toute forme de garantie sociale et consolide l’existence d’une force de travail  » jetable  » et sous-payée. L’anticipation des transformations doit limiter les risques liés à l’éclatement de la société salariale.

De nouvelles capacités d’autonomie et d’expression pour les personnes

Les technologies de l’information amplifient l’efficacité des organisations.

Elles augmentent aussi la capacité d’action et d’expression des personnes.

Il y a, depuis longtemps, dans nos sociétés prospères et éduquées, une formidable aspiration a l’autonomie. Dans toutes les sphères de la vie sociale : famille, école, travail, loisirs, citoyenneté.

Cette poussée d’autonomie s’appuie et tire parti des outils que la société et que le marché mettent a la disposition des individus. Après le téléphone et l’ordinateur, Internet confère aux individus de nouvelles capacités d’action.

Internet n’est pas seulement un espace fonctionnel où l’on résout des problèmes : c’est aussi un espace d’expression. Les ordinateurs, les logiciels musicaux, graphiques, de 3D, les caméras numériques mettent à la disposition des artistes – mais aussi des amateurs – des outils de création d’une puissance inégalée.

Cette poussée d’autonomie (auto-édition, auto-médiation, auto-formation) intéresse certains acteurs du marché, mais n’est pas nécessairement favorisée par les acteurs dominants, notamment les conglomérats qui résultent des mega-fusions. Ceux-ci tendent à reproduire sur l’Internet la distinction traditionnelle entre consommateurs-récepteurs et producteurs-émetteurs : introduction d’une asymétrie au niveau des débits (l’information va vers le consommateur plus vite qu’elle ne part de lui), promotion de terminaux « grand public » tirant toutes leurs ressources du réseau et de ceux qui en contrôlent l’accès, technologies de diffusion présentées comme l’avenir radieux de l’Internet…

La privatisation rampante du savoir

En reconnaissant le travail des auteurs, la société a mis sur pied une forme d’équilibre : une législation qui protège les créateurs, à condition que, sur le long terme, les richesses intellectuelles reviennent dans le domaine public. Aujourd’hui cet équilibre est en passe d’être rompu.

Acquérir et s’arroger un droit de propriété sur le savoir devient un élément central du jeu concurrentiel et des relations de l’entreprise avec les salariés co-producteurs de ces connaissances.

Données brutes, archives photographiques et audiovisuelles, logiciels, algorithmes, méthodes pédagogiques : le renforcement continuel des droits de propriété intellectuelle permet aux entreprises les plus riches et les mieux dotées de s’assurer le contrôle de larges pans des productions futures.

On voit se déployer, dans le domaine du logiciel, des stratégies de protection et de verrouillage qui pénalisent la concurrence et l’innovation. La recherche comme la création culturelle se nourrissent avant tout du partage des savoirs et de la circulation des œuvres. De plus en plus nombreux sont ceux qui aujourd’hui dénoncent les aspects profondément contre-productifs de cette extension des rapports de propriété.

Logiciel libre : les logiques marchandes ne sont pas nécessairement les plus productives

Le logiciel est un des domaines les plus intéressants du point de vue des rapports entre technique et phénomènes sociaux. Le logiciel libre dessine une forme inédite d’alternative aux rapports marchands de production et de propriété.

Le triomphe du capitalisme informationnel, dont Microsoft est le fleuron, n’a pas étouffé le logiciel libre. La communauté d’utilisateurs, de développeurs et de contributeurs de LINUX compte aujourd’hui des millions de personnes.

Le modèle du libre abolit, en partie, la distinction entre usager et créateur. Il expérimente une logique de production mobilisée tout entière par la recherche d’une meilleure adéquation entre besoins et produit, c’est-à-dire par la qualité et l’efficacité sociale. Les performances des logiciels libres suggèrent que les logiques de production marchandes et centralisées des grandes firmes du logiciel ne sont pas nécessairement les plus efficaces ou les plus productives. Le logiciel libre installe ainsi au cœur de l’économie informationnelle les conventions et les manières de faire caractéristiques du monde de la recherche et de l’université : l’échange, l’émulation, la coopération distribuée.

2) Une société en réseaux solidaire

Une large fraction de nos concitoyens risque de rester à l’écart des technologies de l’information.

D’autres inégalités se profilent derrière les disparités d’accès à Internet : inégales capacités à tirer parti des outils, inégale maîtrise des technologies intellectuelles. Les inégalités numériques se surajoutent et aggravent les inégalités préexistantes : revenu, niveau de formation, précarité, isolement social ou géographique.

Lionel Jospin pointait, dès 1997, le risque du fossé numérique.  » Si ce savoir nouveau n’est pas donné à l’école, le fossé se creusera entre les jeunes dont les parents peuvent acheter un ordinateur et ceux qui n’ont pas cette chance. Nous refusons que le fossé séparant ceux de nos concitoyens qui maîtrisent ces nouveaux outils du reste de la population s’accroisse. « 

Le gouvernement décidé, le 10 juillet, d’allouer 3 milliards de F à des actions de formation et d’initiation du grand public à Internet :

  • 7000 lieux publics d’accès à Internet, et parmi eux de 2 500 espaces publics numériques. La formation de base à Internet y sera assurée par 4 000 emplois-jeunes.
  • La formation aux NTIC de 1,2 millions de demandeurs d’emploi avant 2002.
  • Des facilités fiscales pour encourager les entreprises à équiper leurs salariés

L’Etat, les collectivités locales, les entreprises et le mouvement associatif doivent s’organiser pour donner à tous les citoyens les bases nécessaires permettant de mieux maîtriser les outils et les savoir-faire.

La mutation du système éducatif

Il est crucial, pour une véritable égalité des chances, que les enfants soient familiarisés avec la pratique des nouveaux outils.

L’équipement et la connexion des classes ont été une des priorités du gouvernement. Son impulsion a été relayée par les collectivités territoriales. La quasi-totalité des lycées et collèges sont connectés ou le seront dans l’année. En trois ans, le nombre d’élèves par ordinateur est passé de 12 à 7 en lycée, de 26 à 15 en collège. Le raccordement des écoles (30 % aujourd’hui) sera achevé avant la fin de l’année scolaire 2001-2002. Un brevet Internet et multimédia vient d’être créé pour les élèves de troisième : il sera généralisé à la sortie de l’école primaire à partir de 2003.

Après le rattrapage, l’objectif serait d’assurer une meilleure utilisation des équipements, une intégration des NTI dans les pratiques pédagogiques. Cette évolution suppose un effort soutenu des enseignants. 28 000 nouveaux enseignants devraient être formés chaque année. Pour la formation des 900 000 enseignants en exercice, il faudra inventer de nouveaux dispositifs.

La question n’est pas de savoir si Internet va prendre la place des professeurs et se substituer a l’enseignement traditionnel. Un bon usage de l’Internet nécessite de savoir ce que l’on y cherche et comment trouver les éléments pour conduire une réflexion. Il importe donc, pour les élèves, d’être structurés dans leur acquisition de connaissances, dans leur maîtrise de l’expression, de l’orthographe, du calcul. De nouvelles cohérences sont à trouver entre technologies éducatives, pédagogie, disciplines et programmes d’enseignement Des avancées ont déjà été faites dans les enseignements technologiques et professionnels et les sciences expérimentales.

L’informatique est porteuse, aussi, de nouvelles manières de d’apprendre et de penser. Les expériences virtuelles, les possibilités infinies de manipulation des données, inaugurent un rapport à la réalité et à la connaissance qui ne s’identifie ni au savoir théorique, ni à l’expérimentation directe sur les choses : la connaissance par simulation.

Ce sera un défi central pour le système éducatif de jeter des ponts entre la conception classique du savoir (théorique) et cette conception plus expérimentale du savoir fondée sur la simulation, l’appréhension intuitive, l’exploration des situations.

Les technologies éducatives pourraient permettre à des jeunes en échec scolaire ou à des adultes non-qualifiés d’accéder à des savoirs complexes.

Vers un État interactif

Les technologies de l’information sont un vecteur de réforme des organisations administratives. Elles rendent possible une transformation radicale de la relation entre la société qui tient à ses services publics et l’ensemble de l’appareil administratif.

Cette modernisation doit concourir à l’équilibre des territoires. Grâce aux réseaux, le guichet administratif peut être à proximité des citoyens et non centralisé dans la région parisienne ou dans les préfectures. La relation traditionnelle d’assujetti de l’usager aux demandes et formalités de l’administration sera de moins en moins bien vécue. L’administration doit devenir un fournisseur de services et de droits, capable d’une relation personnalisée et d’un traitement des dossiers transparent et accéléré.

Cette transformation impliquera des réorganisations profondes : partage d’informations et travail en réseau. L’organisation verticale par segment de compétences, par tradition administrative, par échelon de compétence, ne correspond plus à la demande des citoyens. Il faut un guichet unique accessible de tous points du territoire, des centres d’appels, une organisation des circuits d’information en fonction des demandes des usagers, des garanties de protection des données personnelles. Les technologies de l’information le permettent si l’administration se réforme par projet, au service de la société et des citoyens.

Réseaux, service universel, aménagement du territoire

La société en réseaux ne sera une réalité tangible qu’avec le développement des hauts débits.

Le développement des infrastructures des opérateurs se fait aujourd’hui essentiellement au profit des zones économiquement denses. Au risque de creuser un peu l’écart entre ville et campagne, entre régions, entre métropoles et villes moyennes. Aucun élu en charge du développement économique d’une commune ou d’une région ne peut se résigner à cet état de fait.

Si, pour le téléphone, l’égalité d’accés était assurée par le service universel, il nous faut désormais réinventer un service universel des hauts débits qui prenne en compte la nouvelle donne des télécommunications. Nous sommes, en effet, passés d’une situation mono-opérateur, mono-service (le téléphone) et mono-technologie, à une situation multi-opérateurs, multi-services et multi-technologies (ADSL, boucle locale radio, câble).

Ce service universel demandera cependant plusieurs années à se développer, il convient donc de commencer par le plus urgent : l’éducation. En donnant aux collectivités territoriales la capacité de gérer ce service universel des hauts débits, par exemple par des contrats locaux limités dans le temps, visant à relier chaque école d’un territoire.

L’autre voie, c’est l’intervention des collectivités locales dans la mise en place d’infrastructures collectives : tranchées, goulottes, fibre noire… La démarche parfois maladroite de certaines villes a conduit le Parlement à imposer des restrictions à l’action éventuelle des collectivités dans le secteur des télécommunications. La Loi Voynet sur l’aménagement du territoire oblige désormais les collectivités à démontrer la carence des opérateurs avant de lancer un projet

Les autres pays ont une vision plus simple du problème. D’une manière générale et c’est la position européenne, il n’y a pas de raison d’empêcher une collectivité de mettre en place un certain nombre de services de télécommunications pour des usages qui concernent son fonctionnement ou son développement. Pour le régulateur ou l’organisme de contrôle de la concurrence, la question est ensuite de savoir s’il peut il y avoir ou non distorsion de concurrence. Cette question n’est pas propre aux télécommunications mais à toutes les structures publiques ou mixtes qui assurent des fonctions qui pourraient être couvertes par le secteur privé.

3) Une société en réseaux, libre et ouverte

La société en réseaux n’implique pas un retour de l’État pour réglementer et interdire. Elle appelle un État garant de la démocratie, de la liberté qui la fonde et de l’égalité qu’elle permet. Le caractère mondial d’Internet, sa capacité à faire prévaloir le temps réel : tout invite non à renoncer aux régulations, mais à en inventer de nouvelles, plus adaptées, plus efficaces, plus souples aussi parfois, mais toujours garantes de nos valeurs.

La liberté dans la société de l’information : une responsabilité partagée

La tradition républicaine cherche à concilier la liberté d’expression tout en préservant les droits de chacun, pour constituer un espace public responsable où chacun peut s’exprimer dans le respect de tous.

Dans la loi sur la communication audiovisuelle, PS, gouvernement et majorité parlementaire ont dessiné la voie d’un équilibre entre liberté individuelle et collective et responsabilité. Chacun peut participer librement à l’espace public. Un droit à l’anonymat relatif a été reconnu, pour la première fois.

Cette voie doit être poursuivie sur de nombreux chantiers à venir : l’évolution de la loi informatique et liberté, au moment où les données personnelles se mesurent comme des actifs financiers ; la conservation des fichiers, à la fois instrument de justice et outil de police.

Organiser les droits attachés aux œuvres pour assurer une diversité culturelle durable.

La société en réseaux confère à la création, à la production intellectuelle une valeur inégalée.

La reconnaissance des droits des auteurs n’en est que plus essentielle. Elle demeure le rempart à la marchandisation que porte aussi la société en réseaux.

Ces droits devront s’adapter pour que les créations collectives – toujours plus nombreuses – puissent être produites surtout diffusées plus aisément.

Ces droits devront s’adapter à un système technique entièrement fondé sur la reproduction : en effet, à l’ère du numérique, à chaque étape de la production et de la diffusion, on reproduit, on duplique, on copie.

Les changement apportés par le numérique et l’Internet conduisent à repenser l’équilibre entre plusieurs objectifs d’intérêt général :

 La protection et la juste rémunération des auteurs

 La préservation, voire l’extension d’un «  domaine public «  de données, d’œuvres, et de connaissances, notamment dans le cadre de l’enseignement et de la recherche.

 Le droit du public à la culture et à l’information

 La présence de la création artistique et de la production scientifique françaises sur le réseau des réseaux

En tout état de cause, si la collectivité souhaite favoriser l’accès des étudiants et chercheurs aux œuvres, ou promouvoir la circulation des œuvres françaises à l’etranger, c’est à elle, et non aux auteurs, d’en supporter la charge.

La loi doit protéger les auteurs face aux pouvoirs économiques, éditeurs et diffuseurs, qui disposent, en contrôlant l’accès au public, d’un pouvoir de négociation. Mais un niveau excessif de protection dans une région du monde ne se retourne-t-il pas contre les auteurs ? Soit qu’il incite les autres acteurs économiques à faire appel aux auteurs d’autres pays, soit qu’il grève la compétitivité des éditeurs et diffuseurs nationaux .

La multiplication et la circulation des copies créent un manque à gagner pour les auteurs et les diffuseurs et peut menacer leur équilibre économique. Mais une protection excessive contre la copie ne va-t-elle pas à l’encontre de la culture du partage et de la collaboration qui constitue l’un des apports majeurs de l’Internet ? Et ne conduit-elle pas certains auteurs (ou leurs ayants-droits) à se comporter en rentiers, dans un monde où la richesse réside de plus en plus dans les flux et l’innovation, et de moins en moins dans les stocks ?

Libérer les individus des logiques de captation à l’œuvre dans cette dernière version du capitalisme.

La compétition dans la nouvelle économie est âpre. Appuyés sur leur portefeuille de clients et d’abonnés, les opérateurs de réseaux et les diffuseurs tentent d’accéder aux contenus en absorbant les éditeurs et les producteurs. Ces stratégies de «  contrôle des contenus «  et de «  captation des abonnés «  visent à enfermer chacun — mesuré à son pouvoir d’achat — dans des logiques d’abonnés.

Internet est un réseau ouvert, continu avec tous les réseaux. Le livrer aux opérateurs de services propriétaires, c’est enfermer la connaissance de chacun, la curiosité de savoir, la liberté de choix, au bouquet de service permis par une capitalisation boursière. La régulation pour l’interopérabilité, l’accès à des réseaux ouverts doivent être une priorité, du gouvernement ou de tout organisme ayant à réguler l’Internet.

4) Vers une démocratie plus participative

Internet affecte l’agencement et le partage des rôles dans l’organisation de la vie publique. Les médias de masse perdent leur rôle central dans l’organisation du débat public. C’est une bonne nouvelle pour les partis. Ils vont s’émanciper de la massifiante et réductrice intermédiation de la télévision, mais ils risquent de se diluer dans un cyberespace public éclaté.

Les technologies de l’information ne sont pas nécessairement porteuses d’une logique de démocratie directe. Il est possible, au contraire, que les nouveaux mécanismes de consultation publique améliorent la qualité des processus législatifs et renforcent la légitimité de la démocratie représentative.

De nouvelles formes de dialogue entre les citoyens et les institutions

L’ouverture d’une boîte aux lettres sur les sites institutionnels engendre un afflux de questions et d’interpellations. C’est un défi et une opportunité majeures pour les institutions que cette confrontation permanente avec les demandes des citoyens.

Internet fait chuter le coût de l’expression politique

Internet est un media de publication. Un individu, un collectif, peuvent créer un site et se frayer ainsi, a moindres frais, une place dans l’espace public, à côté des médias et des partis. Un site ou une liste permettent la constitution de véritables communautés virtuelles et civiques autour d’un thème ou d’une cause.

Internet amplifie les capacités de mobilisation de la société civile…

Internet favorise les formes non conventionnelles de participation ; il facilite la naissance ou le fonctionnement de collectifs en diminuant les coûts d’organisation. Les associations, pauvres en moyens logistiques, les formations et les mouvements sociaux qui n’ont pas accès aux grands médias, furent les premiers à tirer parti d’Internet pour inventer de nouvelles formes de mobilisation. Nous avons tous en mémoire les conditions dans lesquelles l’AMI fut rendu public, la constitution, d’une coalition mondiale anti-OMC lors du sommet de Seattle, la floraison de sites après la catastrophe de l’Erika.

…Et revitalise le débat public

Internet rend possible le déploiement d’une  » démocratie participative  » en permettant aux citoyens, selon des procédures plus ou moins formalisées, de s’exprimer sur des mesures, des projets de loi. Ces consultations publiques enrichissent le processus législatif en recueillant un grand nombre d’avis, en élargissant le cercle des  » parties intéressées « . Si on prend au sérieux la démocratie participative, il faudra réunir un certain nombre de conditions (et de moyens humains) pour que les consultations publiques soient effectives et productives.

Résister à l’attraction du vote en ligne

Le vote électronique, à distance, a longtemps été considéré comme un horizon possible, mais lointain. L’organisation, en mars dernier, d’elections primaires en ligne, en Arizona, a fait basculer brutalement l’élection en ligne dans le champ du possible. Les partisans de l’élection en ligne avancent des arguments de simplicité et de confort pour les électeurs, l’augmentation du taux de participation, l’obtention immédiate des résultats, la chute du coût d’organisation des elections.

Si l’instauration de l’élection en ligne semble renforcer la démocratie représentative, en faisant reculer l’abstention, elle sape, à terme, les bases de la démocratie représentative, en facilitant l’émergence d’une  » démocratie instantanée « .

Il nous faudra rappeler que le débat public, la confrontation des opinions et des options ont besoin de temps. Il nous faudra rappeler surtout que la participation politique requiert effort, ritualisation et secret. Si l’on souhaite résister à l’attraction des elections en ligne, c’est l’acte électoral lui-même qu’il convient de rendre plus moderne, plus attractif. La généralisation de  » machines à voter  » modernes constitue, à terme, la meilleure alternative à la séduction du vote à distance.

5) La mise en réseau du Parti socialiste

Avec 20 et peut être 25 % des électeurs connectés à Internet, les campagnes électorales de 2001 et de 2002 consacreront Internet comme un théâtre et comme un vecteur essentiels de la compétition politique.

Le PS, comme les autres formations politiques, a été contraint, pendant trente ou quarante ans, de passer par le filtre de la télévision pour s’adresser aux citoyens. Il retrouve, via Internet, le moyen de rétablir un contact et un dialogue directs avec les citoyens. Tout en dynamisant son fonctionnement, ses débats et sa démocratie internes.

Plus que dans sa partie visible, le site Internet officiel, c’est peut-être dans la partie immergée du parti – les communications internes – que s’opère, via le courrier électronique, une transformation des modes de fonctionnement. La virtualisation des communications internes ouvrira très vite la voie à un fonctionnement en réseau : essor des communications latérales ou transversales, accélération de la concertation, élaboration coopérative de documents.

Vers un portail socialiste

Le Parti socialiste a donné une forte impulsion à l’usage du courrier électronique en équipant les fédérations d’un micro et d’une connexion Internet. Il n’y a pas eu d’impulsion équivalente pour la création de sites. Le Parti pourrait mettre à la disposition des fédérations et des sections des outils, une équipe. Avec la mise en place d’un portail socialiste, les citoyens pourront aisément entrer en contact, dialoguer, avec les socialistes de leur département ou de leur commune.

L’accueil et l’exploration de nouvelles formes de militantisme et de fonctionnement

Autour d’Internet s’inventent de nouvelles formes de participation à la vie politique : animation d’un site, d’une liste de discussion, bulletins électroniques, interventions sur les forums… Si le PS ne parvient pas à intégrer ces nouvelles formes de militantisme, elles se développeront en dehors de lui.

L’architecture du parti est aujourd’hui essentiellement territoriale. Les militants qui partagent les mêmes préoccupations et pôles d’intérêt se saisiront d’Internet pour se retrouver, échanger, débattre, d’un coin à l’autre du pays. Ces  » communautés d’intérêt « , véritables réseaux thématiques, au sein même du Parti, transversaux aux sections et aux fédérations, annoncent une nouvelle dynamique de débat et d’élaboration collective.

Un fonctionnement en réseau, ouvert, décloisonné, pourrait permettre au PS d’attirer des citoyens, notamment les jeunes, que son organisation actuelle rebute ou tient à distance.

– Signataires –

Patrick Bloche, député, premier secrétaire de la Fédération de Paris

Danièle Pourtaud, sénatrice de Paris

Cécile Helle, députée du Vaucluse

Maurice Ronai, temPS réels

Cécile Alvergnat, membre de la Commission Nationale Informatique et Libertés, temPS réels

Vincent Carlotti, secrétaire Fédéral de la Fédération de Haute Corse

Yves Attou, délégué national à la formation

Hicham Affane, délégué national à la citoyenneté

Gilles Catoire, conseiller général, maire de Clichy

Marc Vasseur, conseiller municipal de Villeneuve d’Ascq (59)

Jean-Philippe Calmus, Paris 4

Jean-Louis Bessis, Paris 6

Jean-Dominique Reffait, Pontault-Combault (77)

Lucie Maiques-Grynbaum, temPS réels

Pascal Nicolle, Paris 18

Matthieu Lerondeau, temPS réels

Olivier Rey, Bobigny (93)

Jean-Bernard Magescas, temPS réels

Philippe Lasnier, Paris 4

Cyril Rojinsky, temPS réels

Jean Gonié, Paris 14

 Se rendre au bureau de vote est un rituel à conserver

Entretien accordé à InternetActu en septembre 2000

 

Comment percevez vous le débat sur le vote en ligne ?

Cela fait 30 ans, depuis que l’informatique et les télécoms se développent, qu’on annonce l’émergence d’une démocratie électronique. Pour tous ceux qui l’ont décrite, rêvée, annoncée, la cyber-démocratie ou la démocratie électronique était principalement un renouvellement des manières de débattre et de prendre des décisions. C’était l’émergence d’une démocratie un peu plus directe où tout le monde participait à la décision. Les auteurs imaginaient qu’il s’agirait d’un système permettant de fonder une autre démocratie, mais ils n’imaginaient pas qu’il servirait à élire des gens. Ce qui est frappant dans le cas des élections en Arizona. Finalement le chemin par lequel la démocratie électronique passe c’est d’abord par les élections. Pas de grands débats publics où tout le monde participe, où les citoyens ont accès à l’information, sont plus documentés, prennent des décisions fondées sur une connaissance ou une délibération collective.

Et comme il y a, notamment aux États-Unis, un taux d’abstention incroyable, l’élection en ligne acquiert d’emblée une espèce d’évidence car elle fait chuter ce taux d’abstention, elle augmente, ou donne l’impression qu’elle augmente, la participation à la vie politique. De ce point de vue, je pense que le vote en ligne peut se mettre en place parce qu’on a tous envie d’augmenter le taux de participation et d’avoir des élus plus légitimes, élus par un plus grand nombre de gens.
Je ne suis pas pour ou contre. Ce que j’essaye de saisir c’est la manière dont cela se développe. Et cela se développe d’abord à travers l’élection en ligne. Bizarrement on pensait que cette pratique allait affaiblir la démocratie représentative et finalement elle la renforce dans un premier temps. Pour ensuite, je pense, la miner de l’intérieur. Les technologies de l’information ne sont pas porteuses par elles-mêmes d’une logique particulière. On les utilise pour faire ce qu’on faisait avant, et non pas à organiser de grands débats publics.

Et vous le regrettez ?

Je ne regrette pas, j’observe. Mais cette tendance est d’autant plus évidente que les élections coûtent très cher et que là nous bénéficions d’une technologie prodigieuse pour faire chuter ces coûts et, à l’extrême, faire chuter le taux d’abstention. Alors évidemment avec la commodité, le confort, la facilité de voter qu’elles impliquent, les élections en ligne exercent une attraction incroyable. Il sera très difficile d’y résister. En tout cas pour les élections politiques.

Mais ces élections en ligne sont-elles un plus ?

Non. Élire des députés en ligne, pour moi, n’a pas la même signification que de se rendre dans un bureau de vote. Je reviens au débat américain : lors des élections dans l’Arizona, il a essentiellement porté sur des objections de type  » Est-on sûr, techniquement, de garantir totalement la confidentialité, le secret » ou la question de l’inégalité (fossé digital-ndlr). Selon moi il s’agit de deux objections assez faibles car on peut garantir la sécurité et qu’à terme, tout le monde, ou quasiment, aura accès à ces moyens. L’objection ne porte pas sur le fait que, provisoirement, une partie de la population en est exclue. L’objection est plus radicale porte sur le sens du geste électoral, limité à un simple clic. Ce qui aligne la participation politique sur le comportement du consommateur devant un catalogue du commerce électronique. L’acte électoral entouré d’un certain rituel disparaît.

Mais n’avait-il pas, de fait, déjà disparu dans l’esprit des gens, au vu des importants taux d’abstention ?

Tout l’environnement administratif de l’acte électoral doit être complètement simplifié pour remettre dans le circuit un certain nombre de gens qui en sont tenus à l’écart par les lourdeurs des procédures. Je pense qu’on peut d’abord considérablement rénover, moderniser, simplifier le processus électoral classique et qu’il y a beaucoup à faire du côté des téléprocédures pour faciliter l’inscription sur les listes. Au reste, cela fait des années qu’on parle de l’inscription automatique des jeunes sur les listes. Là aussi l’informatique peut servir, en interconnectant les fichiers pour avoir des listes électorales parfaitement à jour, où les jeunes sont inscrits automatiquement, où les changements d’adresses sont automatiques… D’autre part, le vote électronique dans les bureaux de vote peut faire chuter considérablement le coût d’une élection grâce aux machines à voter en réseau, permettant d’avoir des résultats rapides et d’organiser des élections simultanées. A partir du moment où on modernise le bureau de vote, l’urne, le système classique, je pense qu’il y a beaucoup de progrès à faire.

Mais le vote à domicile n’est, selon vous, pas souhaitable ?

Là, on change de système. J’ai tendance à distinguer le cas des élections politiques des autres types d’élections. J’admets qu’un certain nombre d’élections, pour les associations, les assemblées générales d’actionnaires, où les taux de participation sont extrêmement faibles, peuvent trouver là un moyen d’élargir l’électorat en facilitant la participation par l’élection à distance, l’élection à domicile.
Pour les élections politiques c’est réducteur. Se rendre au bureau de vote est un rituel. La participation à la vie politique suppose un minimum d’efforts, dont celui de se déplacer. D’autant qu’il existe une objection de taille : comment fait-on pour protéger le secret, le vote individuel, ce que garantit, organise l’isoloir ?

Un rituel, dont un grand nombre d’électeurs s’est éloigné. Comment les faire revenir ?

La question c’est de savoir pourquoi ils s’en sont éloignés. Cela veut dire que la vie politique a perdu une partie de l’attraction, de l’intérêt qu’elle exerçait jusqu’alors. Alors à ce problème-là, qui est fondamental, est-ce que la réponse peut être technique ?…

Un rapide tour d’horizon des sites de partis permet de voir que rien n’est fait pour susciter le débat. Mais si on imagine que dans cinq ou dix ans, tout le monde, usagers et politiques, aura intégré l’outils Internet, et que, le jour du vote, chaque citoyen fait sa revue de presse en ligne, le tour des partis, des débats avant de voter à domicile, l’idée peut sembler séduisante  ?

C’est un vaste débat et je pense qu’il faudra résister à cette séduction. Parce qu’il s’agit d’un vote impulsif. Le vieux système qui consiste à se déplacer pour aller voter organise une certaine lenteur. Lors de la campagne électorale, les gens débattent et le jour du vote ils se déplacent pour y aller. Ce qui crée les conditions d’un minimum de réflexion. Le vote électronique, on le pressent, est un vote rapide. D’autre part, ces pratiques où les citoyens, avant de se prononcer, se documentent, s’informent, vont se développer indépendamment du vote électronique à domicile. Les démarches personnelles d’information, de documentation se font sur le net. Il est vrai que tous les partis ont pris un retard considérable mais ils vont le résorber, sinon ils disparaîtront. Le risque pour les partis politique est d’être dilués sur l’Internet politique. Aujourd’hui l’acteur privilégié du débat politique, c’est la télévision. Or, si une partie du débat politique se déplace vers Internet, le propre de l’Internet est justement que ce n’est pas organisé. Chacun se débrouille et peut capter l’attention. Aujourd’hui, le site d’ATTAC a plus d’audience que les sites de l’ensemble des partis politiques. C’est une situation à laquelle les partis vont réagir en développant des vrais sites politiques car l’Internet les banalise, les met sur le même plan que tout le monde. Un individu à la limite peut avoir plus d’audience qu’un parti politique. Les partis vont finir par le comprendre.

C’est une des mutations majeure de la cyber démocratie des prochaines années ?

Oui, de ce coté-là c’est une évolution à la fois fatale et heureuse. Les partis perdent le monopole de l’organisation des débats et de l’expression des idées. Pour le coup on aura une démocratie beaucoup plus ouverte. Le citoyen pourra se prononcer pour des petits partis, avec des idées intéressantes, nouvelles. Cela va dans le sens d’un renouvellement plus que d’un cloisonnement. Ce qui va bouger c’est tout l’environnement de la décision politique collective. Aujourd’hui le débat politique a lieu à la télévision, qui d’une certaine manière règle le débat, avec l’effet pervers qu’elle présélectionne un certain nombre d’intervenants. Nous allons passer dans un système où le vote est impulsif et où, en plus, toutes les forces ont pratiquement un égal accès à l’expression des idées et des programmes. Il faudra réguler différemment le système, et l’organiser différemment. Il y a d’autres moyens de réduire le taux d’abstention. Maintenant que la question est posée, il va falloir inventer et résoudre tout ce qui complique l’acte électoral.

Asymétrie et clash des civilisations militaires

Défis, menaces, conflits, ripostes, attaques, moyens, guerre asymétriques... La notion de « défi asymétrique » introduite en 1997 par la Quadrennial Defense Review (1)a suscité depuis un monceau de gloses, commentaires et de théorisations (2)…

La figure de l’asymétrie n’est pas nouvelle dans le vocabulaire militaire américain. On distingue depuis longtemps dans les académies les engagements symétriques, opposant des forces de même nature (aviation vs forces aviation, forces terrestres vs forces terrestres) et asymétriques, opposant des forces de nature différente (aviation vs forces terrestres, aviation vs marine)3. On retrouve l’asymétrie dans les textes fondateurs de la Révolution dans les affaires militaires (RMA) : celui qui maîtrise l’intégration des systèmes de renseignement-surveillance, de commandement-contrôle et de précision acquiert un avantage informationnel. Il voit sans être vu et agit sans être inquiété. Une objection couramment faite à la RMA était précisément celle de la vulnérabilité des systèmes avancés (le « talon d’Achille »).

Lire la suite

Hollywood et le Pentagone coopèrent dans les effets spéciaux et les techniques de simulation

Le Débat Stratégique Nº46 — Septembre 1999. Par Maurice Ronai

originellement publié sur: http://www.ehess.fr/cirpes/ds/ds46/simulation.html

Les forces armées américaines ont perçu très tôt l’intérêt de favoriser la production des films de combat. L’US Navy mit ses navires à la disposition de Hollywood bien avant la Première guerre mondiale. La coopération Hollywood-ministère de la Défense s’intensifie pendant la Seconde guerre mondiale, se distend pendant et après la guerre du Vietnam, pour se réactiver sous la présidence Reagan.

Le succès de Top Gun (1986) a ouvert une nouvelle période dans les relations entre Hollywood et le Pentagone. Les forces armées mettent de plus en plus complaisamment à la disposition des producteurs personnel, installations, avions et navires et ne facturent qu’une petite partie des coûts. En contrepartie, elles exercent un contrôle sur les scénarios, et notamment sur l’image des forces armées. Les studios y trouvent leur compte : ils préfèrent tourner à bord d’un vrai porte-avions, ou disposer d’un vrai F-16, quitte à soumettre leurs scénarios aux experts du Pentagone. Chacune des armes a installé des bureaux auprès des studios pour étudier les scénarios, suggérer des modifications ou des idées de scènes. Hollywood soumet chaque année deux cents scénarios au Pentagone.

Officiellement, les experts militaires s’assurent de la vraisemblance des scènes de combat ; en fait, le Pentagone veille surtout à l’image que ces films donnent des forces armées. Les studios refusent parfois de se soumettre aux injonctions des militaires : Crimson Tide (qui montre un commandant de sous-marin prêt à déclencher une guerre atomique, 1995), GI Jane (une jeune femme veut intégrer les Navy Seals et se heurte aux manœuvres d’empêchement de l’état-major de la Marine) ou Courage Under Fire (une femme officier est abandonnée au combat, en pleine guerre du Golfe, par ses subordonnés) ont été tournés sans l’apport logistique et matériel de la Navy et de l’Army.

Lire la suite

On ne nait pas whistleblower. On le devient

On sous-estime toujours l’influence du cinéma. Et sa capacité à inspirer des comportements vertueux.

Le 9 janvier 1997, Christophe Meili, 28 ans, gardien à l’Union des banques suisses (UBS) à Zurich, faisait, comme à l’habitude, sa ronde à travers les couloirs vides de la banque.

Dans la salle des broyeuses, il découvre un tas de documents destinés au pilon. Le jeune gardien constate qu’il s’agit en fait de documents ultrasensibles, puisque relatifs à la collaboration de l’UBS avec les autorités de l’Allemagne hitlérienne. Christophe Meili met les documents de côté puis les transmet aux organisations juives de Zurich. Christophe Meili fut licencié par l’UBS.

Quand lui demanda pourquoi il avait pris cette décision, il répondit qu’il était encore marqué par La liste de Schindler, le film de Steven Spielberg.

Le nouveau concept stratégique de l’OTAN porte la marque des désaccords euro-américains

Article publié dans Le Débat Stratégique Nº44 -Mai 1999

L’adoption du nouveau concept stratégique devait être la grande affaire du Sommet de l’OTAN, les 23-25 avril. Fin septembre 1998, l’OTAN adressait un projet de texte aux pays membres. Sa formulation fut jugée trop ambitieuse. Les ministres optèrent pour une voie moyenne : ni réécriture radicalement nouvelle du concept adopté en 1991, ni simple mise à jour (remplacement de l’URSS par la Russie…). Les diplomaties européennes ont été très actives tout au long de l’automne, mais la discussion semblait bloquée en l’absence de contribution américaine. L’administration américaine a finalement proposé, en novembre dernier, une version offensive et extensive du concept stratégique. Pour Madelaine Albright, l’OTAN doit devenir « une force de paix du Moyen Orient jusqu’à l’Afrique centrale ». Les Européens sont alors entrés dans une logique de freinage, s’efforçant d’atténuer la raideur des formulations américaines. Lire la suite

De la dissuasion à la prévention

Introduction de « Prévention et défense préventive. Débats américains » Maurice Ronai et Sami Makki CIRPES, Paris, mars 1999


La prévention tend à devenir la figure centrale, la forme dominante du langage stratégique, en Europe comme aux Etats-unis.

La prévention n’efface pas la forme stratégique dominante précédente : la dissuasion. Elle en prend le relais, comme la dissuasion, avait, en son temps, pris le relais de la forme « guerre ».

De la dissuasion à la prévention

La forme dissuasion reste pertinente et légitime dans son domaine d’élection : la dissuasion du nucléaire par le nucléaire. Avec l’effondrement de l’URSS et l’ampleur du désarmement organisé par les traités FNI et START, la dissuasion proprement nucléaire perd son caractère prioritaire.

En dehors du domaine nucléaire (en dehors de sa « niche militaro-strategique », pour reprendre une de ces métaphores managériales qu’affectionnent les auteurs américains), la dissuasion comme forme stratégique générale est de moins en moins opérante.

La dissuasion suppose un adversaire : elle s’exerce sur un décideur ou un centre de décision. Avec la prédominance de situations complexes, de conflits à trois camps, de menaces diffuses, difficilement attribuables ou assignables à un acteur central, la forme dissuasion perd une grande partie de sa pertinence.

Au nouvel état du monde, caractérisé par la prolifération de conflits locaux, interétatiques et surtout intraetatiques, correspond une nouvelle forme (ou langage) stratégique : la « prévention ».

Lire la suite

L’ambition préventive de l’administration Clinton

Extrait de « Prévention et défense préventive. Débats américains » Maurice Ronai et Sami Makki CIRPES, Paris, mars 1999


Pendant la campagne présidentielle de 1992, William Clinton avait esquissé une critique radicale de la politique du Président Bush : « Durant les quatre dernières années, nous avons vu les effets corrosifs d’une politique étrangère ancrée (rooted) dans le passé, déconnectée de nos valeurs propres, rétive au changement et incapable de relever les défis (du changement). Sous la Présidence Bush, on s’est contenté de gérer les crises plutôt que les prévenir. ».

Warren Christopher, lors de son audition devant le Sénat en septembre 1993, avant sa nomination, oppose lui aussi la gestion (réactive) et la démarche préventive. « Nous ne pouvons pas nous permettre de colmater, crise après crise… Nous devons avoir une diplomatie qui anticipe et prévienne des crises comme celles d’Irak, de Bosnie ou de Somalie plutôt que les gérer ».

Clinton et Christopher, à travers cette opposition gérer/prévenir les crises esquissent ce qui va devenir un thème central du vocabulaire stratégique américain : dans le monde d’après guerre froide, en l’absence d’ennemi majeur ou équivalent, le leadership s’exerce sur un mode « préventif » ou « ordonnateur » : être leader, c’est se mettre en situation d’influencer, de modeler (shape) les événements plutôt que de les subir, de prévenir les menaces plutôt que d’avoir à y réagir.

Ce thème de la prévention est étroitement imbriqué avec les deux autres axes de la stratégie clintonnienne : enlargement et multilatéralisme assertif.

Lire la suite

1993-1997 : De la « stratégie de prévention » au shaping

Extrait de « Prévention et défense préventive. Débats américains » Maurice Ronai et Sami Makki CIRPES, Paris, mars 1999


La Bottom Up Review était destinée à ajuster la structure des forces (et le budget de défense) à la nouvelle période.

On a retenu (avec juste raison) de la Bottom Up Review (BUR) qu’elle formula des options plutôt conservatrices pour la structure des forces, avec l’adoption du scénario des deux conflits régionaux majeurs simultanés.

On peut aussi voir la Bottom Up Review comme une tentative (inaccomplie) de réorienter l’appareil militaire vers la mise en œuvre de nouvelles missions. De manière moins nette que William Perry trois ans plus tard, la BUR valorise les missions « en temps de paix » (peace time engagement), la « défense par d’autres moyens » à côté des missions traditionnelles (deter and defeat).

Le texte de la BUR définit la stratégie de défense comme une « stratégie d’engagement, de prévention et de partenariat ».

Les trois termes (engagement, prévention, partenariat) sont étroitement articulés.

Ce qu’il s’agit de prévenir ici, à travers l’engagement et le partenariat (c’est à dire les anciennes alliances, qu’il convient de revitaliser, et les nouveaux arrangements institutionnels, qu’il convient de mettre en place), ce sont quatre dangers :

– Dangers liés à la prolifération des armes nucléaires et autres armes de destruction massive, ainsi qu’à l’existence de vastes stocks d’armes dans l’ex-Union Soviétique

Lire la suite