Le CASD a rendu publique une communication-cadre consacrée au BigData que j’avais présentée devant le Collège de la CNIL en février 2016.
L’objet de cette communication était de faire le point sur les solutions offertes par la loi et par le futur règlement européen (RGPD) pour encadrer cette nouvelle génération de traitements.
Dans cette communication, je prenais mes distances avec les diagnostics tranchés sur la nécessité de revoir de fond en comble les principes qui sous-tendent le modèle de régulation européen, notamment les principes de finalité et de consentement.
En voici les grandes lignes.
« La révolution des données massives (« big data ») cristallise un changement d’époque. La CNIL a été créée à la fin des années 1970 pour protéger la vie privée des citoyens par rapport aux grands fichiers publics. C’était un univers simple, assez statique. Les mégadonnées dessinent un univers différent. Nous sommes passés des fichiers aux données. Les données sont partout. Elles sont produites par les individus ou les entreprises, utilisées par l’ensemble des acteurs publics et privés.
Le régulateur n’évolue plus dans le même univers. Il doit s’intéresser à l’usage qui est fait de ces données et non plus seulement à leur collecte. Il y a un foisonnement de données que l’on n’arrive pas toujours à contrôler et que l’individu a du mal à appréhender. On ne sait pas toujours a priori quelles vont être les finalités pertinentes, puisque c’est justement par ce croisement – parfois à l’aveugle – des données que naissent de nouvelles connaissances et qu’apparaissent de nouveaux services.
L’essor des mégadonnées donne lieu à un débat sur l’inadaptation des législations et notamment aux principes de finalité et de recueil du consentement. Un certain nombre d’acteurs utilisent ces interrogations pour tenter de déconstruire le modèle de régulation à l’européenne ».
L’essor du « big data » donne lieu à toute une série de réflexions qui tournent autour de la transparence, de l’évaluation et du contrôle des algorithmes. Ces problématiques ne sont pas nouvelles pour la Commission (articles 10 et 39 de notre loi). Le projet de loi numérique introduit des dispositions relatives à la transparence des algorithmes qui vont désormais coexister avec celles qui figurent dans la loi de 1978.
Un certain nombre de solutions techniques pourraient permettre de concilier l’essor du « big data » et le respect des libertés individuelles : certaines sont d’ores et déjà opérationnelles. D’autres technologies pourraient permettre d’exécuter des calculs sur des données personnelles et obtenir des résultats utiles sans pouvoir accéder ni voir les données des personnes ».
Dans cette phase de transition, j’estimais qu’il convient d’explorer toutes les pistes qui permettront d’appréhender et d’encadrer cette phase nouvelle de l’univers numérique.
Je proposais, à cet effet, une grille d’analyse selon deux critères principaux : l’origine des données et l’objectif poursuivi par le traitement.
« Cette grille d’analyse permet de différencier les traitements en fonction de leurs caractéristiques et de leurs enjeux, pour déterminer le régime juridique qui leur est a priori applicable. Cette approche vise à permettre à la fois une ouverture et une diversification possible des usages des données, allant de pair avec un renforcement des droits et des moyens de contrôle des personnes pour les traitements ayant un impact sur elles ».
Communication cadre relative au « big data ». Rapport présenté en séance plénière 18 février 2016