J’etais auditionné au Sénat le Mardi 4 mars 2014 par la mission commune d’information sur la gouvernance mondiale de l’Internet,
Je m’interrogerai tout d’abord avec vous sur le principe directeur d’une gouvernance de l’Internet. On a souvent tendance, pour certains sujets, à se cristalliser sur les aspects institutionnels, notamment autour du rôle de l’Internet corporation for assigned names and numbers (ICANN).
J’essaierai ensuite de caractériser le moment diplomatique dans lequel nous nous trouvons et de commenter l’annonce du Gouvernement américain, vendredi dernier, qui envisage de se dégager du contrôle de l’ICANN.
Je tenterai enfin d’esquisser un chemin pour aller vers la mise en place d’une gouvernance multilatérale de l’ICANN…
Quels sont les principes directeurs ? L’Internet a pris une place telle dans nos sociétés qu’il est devenu un enjeu majeur des relations internationales. Il existe une tension entre un réseau conçu techniquement comme sans frontière, et un système qui repose sur la souveraineté d’États disposant de juridictions géographiquement définies. L’idée de certains pionniers selon laquelle l’Internet pourrait bénéficier d’un régime d’exemption, qu’il serait hors le monde et pourrait se développer à côté du monde réel et s’en isoler, a perdu de plus en plus de validité avec l’intrication du monde réel et du monde virtuel, bien plus encore si l’on pense à l’émergence de l’Internet des objets.
L’Internet est donc rattrapé par les règles des États et par les règles territorialisées, les États souhaitant y rétablir leur souveraineté. Cette question est légitime. J’essaye cependant de faire valoir que les États démocratiques devraient s’imposer une forme de retenue. L’exigence de souveraineté doit être conciliée avec d’autres exigences, d’autres impératifs, notamment pour préserver le caractère mondial et universel de l’Internet, ainsi que certaines de ses propriétés les plus précieuses.
Le 2 septembre 1969, des scientifiques, en Californie, relient deux ordinateurs entre eux, au moyen d’un câble d’environ cinq mètres. En 1975, on dénombrait aux États-Unis 200 000 ordinateurs, 25 millions en 1985, 90 millions en 1995, 225 millions en 2005. On en compte 1,4 milliards aujourd’hui, auxquels il faut ajouter 400 millions de tablettes et 1,6 milliard de Smartphones, tous majoritairement connectés à l’Internet. Il s’agit d’un véritable changement d’échelle.
Pendant des années, l’Internet s’est développé sans le concours de l’industrie des télécommunications, celle-ci le regardant avec méfiance, le considérant comme un réseau bizarre, sans centre. L’Internet a prospéré sans l’industrie des systèmes d’exploitation, et sans les constructeurs d’ordinateurs personnels, qui ont longtemps refusé d’intégrer des modems à leurs ordinateurs.
Si l’Internet s’est répandu sans le concours des industries, c’est qu’il devait avoir des propriétés particulières. En un sens, comme l’a expliqué un expert en sécurité reconnu, Bruce Schneier, l’histoire de l’Internet est un accident fortuit, résultant d’un désintérêt commercial initial des entreprises, d’une négligence des gouvernements et de l’inclinaison des ingénieurs à construire des systèmes ouverts, simples et faciles.
Cette incompréhension des industries installées vis-à-vis de ce qui allait devenir l’Internet a permis à des sociétés comme Google, Yahoo ou Amazon de proposer des services innovants et d’acquérir très vite une puissance leur permettant d’acheter d’autres acteurs, afin de les empêcher de développer leurs innovations. Google, à lui seul, a ainsi absorbé 152 sociétés depuis sa création -dont deux françaises ! L’Internet devait donc avoir des propriétés peu communes pour rencontrer un tel succès, s’imposer aux industries numériques de l’époque et devenir, en vingt ans, l’infrastructure mondiale des échanges scientifiques, culturels et économiques ! Ces propriétés s’ancrent dans la technologie et dans l’architecture du réseau, qui donne aux individus le pouvoir d’émettre des contenus, autant que de les recevoir, et s’assure que leurs messages seront transmis avec la même priorité que ceux des grands groupes internationaux.
Certains de ces sujets ont été abordés par M. Silicani, comme la distinction entre le transport et le service, les fonctions de traitement des informations, ou le principe du end-to-end – ou « bout à bout » – qui fait que l’intelligence est située à l’extrémité du réseau, et non en son centre, comme avec les réseaux traditionnels.
Il s’agit donc d’un réseau dans lequel les fonctions de traitement sont assurées aux extrémités par les ordinateurs et par les usagers. C’est cette particularité qui a permis à des développeurs, des innovateurs, et des start-ups, de mettre ces technologies à la disposition du public, personne ne pouvant les en empêcher.
Ces propriétés – l’ouverture, l’interopérabilité, la neutralité, l’architecture du bout à bout – ont ouvert un champ inouï d’innovations, de circulation des connaissances et de développement des échanges.
Je dois, à ce stade, évoquer la thèse de Lawrence Lessig, juriste américain, qui a exposé dans son livre, paru en 1999, « Code is law », sa théorie des deux codes. Il existe, selon lui, un code juridique -la loi, le droit- qu’il appelle le code de la côte Est, et un code informatique, inscrit dans les logiciels, qui structure l’architecture de l’Internet, le code de la côte Ouest. Il expliquait dans son ouvrage que sur l’Internet, c’est le code informatique qui prévaut et définit les comportements, bien plus que le droit ou la loi. Il montre que la liberté du cyberespace est inhérente à son architecture et que, si celle-ci est modifiée, les libertés seront supprimées. Il prévient aussi que le code de l’Internet n’est ni figé, ni définitif, et que les États et les entreprises auront à coeur de modifier l’architecture, en y ajoutant de nouvelles couches, de manière à rendre l’Internet plus régulable. Ces prévisions se sont assez largement réalisées !
Je voudrais attirer l’attention sur les trois grandes atteintes aux principes architecturaux de l’Internet. La premiere est au coeur de votre mission : il s’agit de la fameuse fragmentation. Certains pays ont entrepris de construire une forme d’Internet national, afin de se mettre à l’abri des influences extérieures. On pense à la Chine, qui a édifié un immense pare-feu -la nouvelle muraille de Chine- qui est en fait essentiellement un dispositif de filtrage assuré par 300 000 censeurs.
Éric Schmidt, dirigeant de Google, et très bon observateur des pratiques de filtrage dans le monde, a dressé une typologie des États qui tentent de filtrer et de contrôler l’Internet. Il distingue trois modèles. Le premier est le modèle flagrant, comme la Chine, où sévissent les censeurs. Le second est le modèle qu’il qualifie de honteux, comme la Turquie. Le troisième modèle, qu’il qualifie de culturellement et politiquement acceptable, est celui de la Corée du Sud ou de la Malaisie.
La seconde atteinte à l’architecture et au principe fondateur réside dans la surveillance de masse. On commence, grâce aux révélations d’Edward Snowden, à avoir une idée de l’ampleur de la surveillance et de la diversité des moyens mis en oeuvre. La Quadrature du Net (LQDN) a entrepris de recenser les programmes mis en place par l’Agence nationale de la Sécurité (NSA) ; elle a déjà répertorié 112 programmes et annonces. Il lui en reste 217 à documenter…
Parmi ces programmes de surveillance, il en est qui portent uniquement sur le fait de se brancher sur des infrastructures ; d’autres modifient l’architecture de l’Internet. On sait maintenant que la NSA est intervenue dans l’établissement des normes américaines en matière de chiffrage, qu’elle a collaboré avec des entreprises pour intégrer, dès la conception même des logiciels, des portes dérobées dans les solutions de chiffrement, ce qui a fait dire à Bruce Schneier : « La NSA a transformé l’Internet en une gigantesque plate-forme de surveillance ; le Gouvernement américain a trahi l’Internet. Nous devons le reprendre en main et le réparer ».
La troisième atteinte aux principes fondateurs se trouve dans l’hyperconcentration autour d’un petit nombre de plates-formes. L’Internet a été originellement conçu comme un réseau décentralisé, dans lequel chaque ordinateur est son propre serveur, dans une architecte pair-à-pair. Assez rapidement, cet Internet historique a vu émerger des plates-formes centralisées, autour desquelles les usagers se sont progressivement agrégés.
Ces plates-formes centralisées ont progressivement entrepris de développer leurs activités dans des secteurs jusqu’alors séparés de l’Internet, comme le mobile. Ceci constitue un changement majeur dans la dynamique du réseau, ces géants ayant reconstitué, au-dessus de l’Internet décentralisé, ou à côté, dans l’univers des mobiles, de véritables empires privés.
On peut les analyser comme une autre forme de fragmentation du réseau, de nature différente, mais comparable à celle que certains États entreprennent de mettre en oeuvre. Certaines de ces plates-formes – Google notamment – ont même entrepris de développer leurs propres infrastructures de transport. M. Silicani a abordé ce point l’autre jour. C’est là aussi une atteinte potentielle à la neutralité.
Ces trois évolutions – la fragmentation, la surveillance de masse et la centralisation autour de quelques acteurs – se nourrissent et se renforcent mutuellement. La centralisation des usages et des trafics autour de quelques plates-formes a considérablement facilité la tâche de la NSA. Ce n’est pas elle qui a créé les services Web centralisés, comme Facebook ou Google, mais elle les a utilisés.
De même, les révélations d’Edward Snowden sur la surveillance encouragent ou légitiment les démarches des États qui essaient de constituer des réseaux nationaux ou régionaux. Peut-être évoquera-t-on l’hypothèse de la chancelière allemande, à propos d’un réseau Internet européen…
Après la description de ces trois types d’atteintes, j’aurais tendance à assigner comme mission à la gouvernance de l’Internet de faire en sorte que celui-ci reste un réseau mondial et ouvert, qui permette la circulation des échanges scientifiques, culturels et économiques.
Il ne s’agit pas simplement de proclamer des principes ; il faut également veiller à ce que l’architecture technique de l’Internet continue de les garantir ! J’essaie de lier ici la dimension des principes juridiques et l’architecture technique, qui sous-tend et garantit leur mise en oeuvre, pour faire en sorte que la porte qui s’est ouverte en 1969, avec l’invention de l’Internet, et en 1990, avec l’arrivée du Web, ne se referme pas.
Quelques remarques sur le moment particulier dans lequel nous sommes entrés depuis quelques mois…
Les États-Unis étaient déjà en position de faiblesse ou d’isolement diplomatique après la fameuse conférence internationale de l’Union internationale des télécommunications (UIT), à Dubaï, qui a donné lieu à un bras de fer entre les nations souhaitant pouvoir partager le contrôle des infrastructures critiques du réseau, et les États-Unis, qui s’y refusaient.
Le document au coeur de cette conférence a été adopté, contre l’avis des États-Unis. Une majorité s’est donc dégagée : c’est la première fois que les États-Unis se retrouvaient en minorité, la France figurant avec eux parmi les 55 États à avoir refusé le texte adopté par 89 États. À l’époque, on a évoqué une sorte de guerre froide autour du contrôle de l’Internet, où l’on retrouvait la Russie et la Chine dans le camp de ceux qui souhaitaient placer l’Internet dans la sphère de l’ONU, ou d’organes dépendants de l’ONU.
Ce sont les révélations d’Edward Snowden qui ont permis aux gouvernements et aux opinions de prendre la mesure de l’écart incroyable entre la doctrine américaine de liberté de l’Internet et ses pratiques. Très vite, toutes les instances mondiales de gestion de l’Internet ont déclaré que le Gouvernement américain avait miné la confiance sur l’Internet, et plusieurs chefs d’État et de Gouvernement ont pris position, comme la Présidente brésilienne, Angela Merkel ou le Gouvernement français. Une résolution a été portée à l’ONU par le Brésil et l’Allemagne. Une conférence Netmundial doit se tenir fin avril à Sao Paulo. La pression qui s’exerce sur le Gouvernement américain ne provient pas seulement des États, mais aussi de leur propre industrie de l’Internet, qui a pris ses distances. La pression vient aussi d’une partie de l’opinion publique américaine et du Congrès, ainsi que du milieu judiciaire, le juge Richard Leon ayant, dans une décision très remarquée, estimé que la collecte massive de métadonnées est contraire à la Constitution. Je pense que ceci ouvre à l’Europe une fenêtre d’opportunité pour obtenir des États-Unis de véritables avancées, que l’on attend depuis assez longtemps.
J’en viens à l’annonce par le Département du commerce américain du transfert des fonctions clés des noms de domaine à l’ICANN… Cette annonce était attendue. Elle a été esquissée dans le rapport que le Président Obama a demandé à une commission d’experts fin 2013. Mais l’annonce de ce transfert a pris tout le monde de vitesse. On pensait que les Américains attendraient la conférence du Brésil pour annoncer leurs intentions. Tel n’a pas été le cas. C’est une manière de signifier qu’ils entendent garder la main et qu’ils n’agissent pas sous pression.
Cette annonce constitue une ouverture très partielle ; on compte deux acteurs dans la gestion du serveur racine du Domain name system (DNS), l’ICANN et la société privée VeriSign, la première enregistrant les noms de domaine, la seconde les publiant. Or, le communiqué du National Telecommunications and Information Administration (NTIA) n’évoque que le retrait du Gouvernement américain de l’ICANN, à qui il confie la transition et lui demande de faire des propositions, court-circuitant ainsi la conférence prévue en avril au Brésil. Le Gouvernement américain privilégie ainsi l’ICANN, avec qui l’État américain entretient des relations historiques, personnelles et institutionnelles.
Le communiqué précise surtout que le Gouvernement américain ne veut pas d’une solution de supervision intergouvernementale. Même si ce n’est pas nouveau, il réaffirme sa position historique avec force. Le communiqué précise que le Gouvernement américain validera la proposition de l’ICANN, l’administration américaine prenant ainsi la décision finale.
Le débat est donc loin d’être clos.
On ne sait pas qui supervisera le fonctionnement technique de l’Internet, ni quel sera le mécanisme de responsabilité. À qui l’ICANN devra-t-elle signifier que ses missions ont bien été exécutées ?
Une fenêtre risque de se fermer, la diplomatie américaine ayant repris fort habilement l’initiative. Il existe cependant une opportunité à saisir pour obtenir des avancées des États-Unis, sans pour autant faire le jeu de la Chine, de la Russie, ou de l’Arabie saoudite.
Deux sujets qui, jusqu’à présent, étaient distincts, sont maintenant liés. Il s’agit de l’idée, réactivée par les révélations d’Edward Snowden, d’un traité international et, par ailleurs, de la question de la gestion multilatérale de l’ICANN. Selon moi, ces sujets ne doivent pas être traités dans le cadre de l’ONU, mais dans la perspective d’un traité euro-américain ouvert à d’autres nations démocratiques, comme les grands pays émergents que sont l’Inde, le Brésil, l’Argentine, l’Afrique du Sud et les pays d’Amérique latine. Seuls les pays signataires de ce traité pourraient être associés à la supervision de l’ICANN. C’est à cette seule condition que les États-Unis pourraient accepter une supervision mutualisée de l’ICANN.
Toutefois, si ce traité est trop flou, tous les États pourraient le signer ; il faut donc que cette démarche marginalise les propositions les plus radicales émanant des régimes autoritaires. Selon moi, le contenu doit garantir l’universalité du réseau, assurer la liberté d’expression de l’Internet, considérer ce dernier comme une infrastructure indispensable à la démocratie, promouvoir sa sécurité et sa stabilité, protéger la vie privée et préserver les propriétés techniques essentielles de l’Internet, conditions du respect et de la pérennité des principes.
Un traité de cette nature conférerait un statut quasi constitutionnel aux principes architecturaux de l’Internet. Les gouvernements signataires pourraient ainsi faire valoir leur souveraineté, veiller au respect de leur législation sur leur territoire, à condition toutefois de ne pas porter atteinte à ces principes. Les gouvernements pourraient continuer à se livrer à l’espionnage, sans nuire à l’intégrité de l’Internet, la NSA devant alors s’interdire un certain nombre de pratiques.
Cette voie pourrait passer par une démarche en liaison avec nos partenaires allemands, avant de passer à l’échelle européenne -mais je mesure la complexité de l’exercice, ainsi que l’accélération du calendrier diplomatique que cela suppose.
Mme Catherine Morin-Desailly, rapporteure. – L’Union européenne n’a-t-elle pas été insuffisamment présente et malhabile dans cette affaire ?
M. Maurice Ronai. – La Commission européenne n’a pas, à ma connaissance, pris d’initiatives. Ce sont l’Allemagne et le Brésil, rejoints par la France, qui ont été en première ligne, sans que leur démarche ne trace de perspective bien claire. La Commission européenne, entraînée par le Brésil, a fait une fixation sur l’ICANN.
On a dû vous dire que ni l’ICANN, ni le serveur racine du DNS n’ont joué de rôle dans les programmes de surveillance de la NSA. Celle-ci a utilisé un nombre incroyable de moyens techniques mais, rien, pas même dans les révélations d’Edward Snowden, ne vient prouver que la NSA aurait essayé d’utiliser les mécanismes de l’ICANN.
On peut par ailleurs dire que l’Europe est en effet assez absente de ce théâtre diplomatique…
Mme Catherine Morin-Desailly, rapporteure. – Il y a quelques jours, Tim Berners-Lee évoquait la signature d’une charte internationale reposant sur l’engagement des internautes. Comment voyez-vous ce rattachement, ainsi que celui des États que vous avez cités ? Quelle part les entreprises, publiques ou privées, peuvent-elles avoir dans tout cela ?
M. Maurice Ronai. – Je ne suis pas sûr d’adhérer à l’idéologie du multistakeholderism. Je pense que les États doivent prendre eux-mêmes un certain nombre d’initiatives. L’ICANN restera certainement probablement fondée sur le principe tripartite qui l’anime -et c’est très bien ainsi- mais sa supervision et, plus généralement, sa gouvernance, relèvent plutôt des États. En tout état de cause, si certains domaines de l’ICANN sont tout à fait opérationnels, les événements n’ont pas démontré que la gestion tripartite fonctionne si bien que cela…
Mme Catherine Morin-Desailly, rapporteure. – La Commission européenne a proposé une définition de la neutralité du Net dans son projet de législation intitulé : « Continent connecté ». Quelle appréciation portez-vous sur cette définition ? Et sur le recul du juge américain à l’égard de la neutralité ?
M. Maurice Ronai. – Ce texte européen est en discussion ; on observe, à l’échelon européen, le même débat que celui que nous avons eu en France, puisqu’il est possible d’affirmer dans un texte le principe de neutralité et d’y introduire des dispositions permettant aux opérateurs de conditionner un certain nombre d’activités à des contreparties financières, comme le peering payant, instaurant une forme de priorisation du trafic pour les opérateurs prêts à y souscrire.
Je n’ai pas à trancher : on voit bien qu’il existe, autour de l’affirmation de ce principe auquel tout le monde semble souscrire, un bras de fer terrible sur la mise en oeuvre de celui-ci. Le fait de l’inscrire à un niveau très élevé dans la hiérarchie juridique, comme le propose le Conseil national du numérique (CNN), ne tranche pas le débat, la réalité s’affichant alors dans les dérogations.
Je suis partisan de dissocier la notion de neutralité des réseaux de la notion de neutralité des plates-formes et des magasins d’applications, qui constitue une problématique plus récente et légitime mais qui ne doit pas marginaliser le débat sur la neutralité des réseaux. Les décisions qui ont été prises aux États-Unis en la matière démontrent bien l’ampleur et l’acuité des enjeux, d’où la nécessité pour les régulateurs et les législateurs de fixer un cap qui apparaisse plus clairement.
Mme Catherine Morin-Desailly, rapporteure. – Dans l’un de nos rapports, nous avons formulé un certain nombre de propositions, notamment au regard de ce qu’est devenu Google. Vous avez-vous mêmes fort bien décrit le phénomène d’hyperconcentration et de cannibalisation par cette entreprise. Y a-t-il des dispositions particulières à prendre s’agissant de Google, par exemple en l’assimilant à une infrastructure essentielle ?
M. Maurice Ronai. – D’un point de vue économique, oui ; d’un point de vue juridique, je ne sais pas… C’est là tout un chantier. Il existe une jurisprudence européenne sur les infrastructures essentielles. Elle est très contraignante et date de vingt ans ; elle porte sur un sujet très ponctuel.
Une première tentative a eu lieu par le passé dans le domaine des données marketing. Un opérateur concentrant des informations auprès des pharmaciens générait une base de données sur la consommation pharmaceutique à l’usage des industriels. Un concurrent a fait valoir que ces données constituaient une infrastructure essentielle, d’un point de vue économique. Il n’a cependant pas obtenu gain de cause. Je préfère que des juristes s’expriment sur ce point. Dans le droit actuel, cette notion est difficile à manipuler.
M. André Gattolin. – Vous avez souligné les atteintes portées au principe de l’architecture originelle de l’Internet. La financiarisation de l’Internet est également un élément important, puisque ce n’était pas sa vocation première. La concentration et la hiérarchisation instaurées par les plates-formes, ou la volonté de Google d’entrer dans la production et le développement de ses propres réseaux et infrastructures de distribution, relèvent malheureusement de logiques commerciales.
M. Maurice Ronai. – Je partage votre diagnostic ! Cela m’inspire une interrogation : où est la ligne de partage entre ce qui relève de la régulation et de la gouvernance ? Ce n’est pas seulement une question de terminologie. Beaucoup de sujets que vous avez abordés relèvent de la régulation et du droit de la concurrence. La gouvernance traite de sujets pour partie de nature différents.
Bien sûr, les régulations nationales doivent respecter un certain nombre de principes édictés à l’échelon international. C’est en cela que les principes qui auraient un caractère constitutionnel pourraient non seulement lier les acteurs, mais également les États qui accepteraient des règles contraignantes. C’est une approche quelque peu différente. On peut concevoir une régulation nationale ou européenne, mais pas une régulation mondiale.
M. André Gattolin. L’Internet n’a-t-il pas vécu dans son utopie originelle et n’est-il pas à présent confronté aux principes de réalité de l’économie classique, reconstituant ainsi les logiques de concentration, de valorisation, les données personnelles venant se substituer aux principes de la publicité ? Peut-on établir un tel parallèle, ou l »économie peut-elle être au contraire transformée par les principes originels de l’Internet ?
M. Maurice Ronai. – Les gens qui ont conçu l’Internet n’étaient pas des utopistes. Le fait que ce système ait pu s’imposer a quelque chose d’assez mystérieux, d’où l’intérêt de comprendre les propriétés qui ont rendu possible son succès, et l’importance de les préserver.
Je trouve que cette problématique est actuellement assez absente du débat. C’est pourquoi j’insiste sur ce point. J’adhère à tous les autres arguments de régulation, de souveraineté, à la nécessité de faire prévaloir la loi sur un territoire, mais j’attire l’attention sur cette autre dimension qui s’exprime assez peu dans le débat.
Le chemin que je dessine, dont je mesure la complexité, comporte une troisième condition, qui nécessite de se doter d’une diplomatie numérique.
C’est une notion qui a pris aux États-Unis un sens particulier, notamment sous le mandat d’Hillary Clinton. Elle regroupait alors des initiatives en faveur du développement des systèmes numériques en Afrique, des actions de soutien au cryptage pour permettre aux participants de communiquer, et aux développeurs des pays du Tiers-monde de travailler sur des applications mobiles.
J’essaye de distinguer la diplomatie numérique, que commence à utiliser le quai d’Orsay avec son compte Twitter, de la diplomatie du numérique, qui mériterait d’être renforcée. Elle a été esquissée, puisque le quai d’Orsay a désigné un haut représentant spécial, mais on n’en connaît pas la doctrine. Je ne suis pas sûr qu’elle dispose par ailleurs de beaucoup de moyens. Il n’y a pas non plus de circuit interministériel très stabilisé, alors que les sujets liés au numérique sont bien présents dans toutes les instances européennes et internationales.
Les conditions ne sont donc pas réunies pour que la France se fasse entendre sur cette question. Une première esquisse avait eu lieu lorsque Bernard Kouchner était ministre des affaires étrangères. Il avait tenté de monter une grande conférence mondiale sur la liberté d’expression sur l’Internet. Celle-ci avait été annulée au dernier moment. L’e-G8, sous Nicolas Sarkozy, avait accouché à Deauville d’une déclaration très creuse. C’était un premier pas, mais il n’a pas été suivi par d’autres.
On peut dire que l’intervention du Président de la République au Conseil européen procédait un peu de cette démarche, mais il n’y a pas eu une très grande continuité à ce sujet, la doctrine juridique étant peu lisible. Cela vaut pour la France, mais également pour l’Europe.
Mme Catherine Morin-Desailly, rapporteure. – Comment cela pourrait-il maintenant s’organiser de manière efficace ?
M. Maurice Ronai. – Une démarche franco-allemande pourrait s’imposer…
M. André Gattolin. – Nous sommes allés en Allemagne la semaine passée, et nous avons été frappés par leur dynamisme, mais nous n’avons pas recueilli le même son de cloche dans tous les ministères allemands…
M. Maurice Ronai. – Le Parlement européen vient de publier un incroyable rapport sur la surveillance de la NSA, le rapport Moraes.
Je ne sais si vous avez eu écho des échanges entre Claude Moraes et Edward Snowden. Une des questions portait sur le fait de savoir ce que peuvent faire les parlements. La réponse d’Edward Snowden m’a beaucoup frappé : « L’une des actions prioritaires de la Direction des affaires étrangères de la NSA est de faire pression ou d’inciter les États membres de l’Union européenne à changer leurs lois pour rendre possible la surveillance de masse. Les juristes de la NSA, ainsi que du Government communications headquarters (GCHQ) du Royaume-Uni, travaillent dur à rechercher dans les lois et les protections constitutionnelles des failles utilisables pour justifier des opérations de surveillance indiscriminée, attrape-tout, qui ont été au mieux involontairement autorisées par les parlementaires. Cette façon de créer par interprétation de nouveaux pouvoirs à partir de lois vagues est une stratégie intentionnelle pour éviter l’opposition du public ou l’insistance des parlementaires sur le respect des limites légales ». Cette interprétation s’appuie sur une enquête du Guardian.
La France ne figure pas parmi les pays désignés par Edward Snowden. Ce sont plutôt les pays dans lesquels la Direction des affaires étrangères de la NSA pouvait peser sur l’élaboration du cadre réglementaire de surveillance -Nouvelle-Zélande, Allemagne et Pays-Bas- où la NSA était parvenue à s’ingérer dans le processus législatif. Ceci n’a toutefois pas de rapport direct.