Retombées budgétaires du recours aux logiciels libres : la mise sous tension concurrentielle du secteur du logiciel

Extrait de l’étude réalisée par Items à la demande du Ministère de l’Intérieur. Confidentielle, cette étude a fait l’objet d’une demande d’accés au titre de la loi de 1978 par l’Association de Promotion du Logiciel Libre (APRIl). Elle est disponible sur le site de l’APRIL.

LES LOGICIELS LIBRES METTENT SOUS TENSION CONCURRENTIELLE LES MARCHES DU LOGICIEL

Les solutions libres sont plus en plus reconnues et admises dans les organisations          59 publiques et privées. Les acteurs du marché (éditeurs, intégrateurs, utilisateurs) intègrent ce modèle de développement dans leurs stratégies.

Si le logiciel libre suscite encore aujourd’hui des controverses, celles-ci sont de nature essentiellement technique et économique.

Internet avait rencontré, lui aussi, des oppositions, il y a 10 ans, et suscité des controverses. La question d’être pour ou contre internet ne se pose plus.

Il est assez largement admis que les logiciels libres redessinent aujourd’hui le cadre concurrentiel dans les secteurs de l’informatique, des télécommunications et de l’électronique grand public :

•          Les constructeurs et les éditeurs diffusent de manière libre certains composants de leur offre afin que ceux-ci se diffusent de la manière la plus large auprès des utilisateurs. C’est par exemple la stratégie de Sun avec un grand nombre de composants Java. (C’est aussi d’une certain manière la stratégie de Microsoft avec Explorer, même si dans ce cas précis, il ne s’agit que d’une licence d’utilisation gratuite[1]).

•          Les acteurs non dominants sur un marché recourent aux logiciels libres pour concurrencer l’acteur ou les acteurs dominants, non pas en l’attaquent frontalement mais en s’appuyant sur des communautés libres qui vont favoriser l’émergence de solutions concurrentes,

•          Les intégrateurs favorisent le développement de solutions libres pour restaurer leur indépendance vis-à-vis des éditeurs et redevenir l’interlocuteur principal des organisations utilisatrices.

•          Des sociétés de services en logiciels libres centrent leurs activités sur la valeur ajoutée en proposant des applications complémentaires, des formations, de l’assistance, etc.

L’économie des logiciels libres s’insère donc dans l’économie générale des logiciels tout en présentant des particularités.

Elle repose largement sur la fourniture de services notamment de maintenance autour des progiciels ou la création, plus embryonnaire, de logiciels sur mesure en utilisant des briques logicielles qui existent déjà.

Dans de nombreux secteurs, le logiciel libre ouvre la concurrence, contribue à

« déverrouiller » les marchés, fait peser sur les éditeurs historiques une pression concurrentielle qui s’était considérablement atténuée.

LOGICIELS LIBRES ET COMMUNAUTES

Basé souvent sur un développement communautaire, le logiciel libre requiert :

•          Un nombre assez large de développeurs

•          La stabilité de la communauté de développement,

•          Un intérêt de cette communauté à faire évoluer de manière continue un logiciel à la fois     pour    l’enrichir  et pour résoudre les problèmes  de fonctionnement.

Les      modèles de développement libres concernent trois grands types d’environnement distincts

•          le système d’exploitation (LINUX) et les couches techniques intermédiaires (Middleware)

•          les logiciels applicatifs bureautique

•          les logiciels fonctionnels

Le système d’exploitation (LINUX) et les plateformes Middlewares

Le Système d’exploitation

C’est le composant le plus emblématique mais qui peine encore à pénétrer le marché. Très présent sur les serveurs de réseaux, LINUX n’est présent aujourd’hui que sur 3% des postes de travail.

Les couches techniques intermédiaires (Middleware)

C’est pour le monde des professionnels, le secteur où les logiciels libres sont les plus répandus. Ce n’est pas le secteur le plus visible, mais c’est là que se développent les stratégies les plus abouties dans la compétition que se livrent les constructeurs, les éditeurs de logiciel, les intégrateurs et plus largement tous les acteurs du numérique.

Ainsi, les serveurs web avec les plateformes Apache occupent aujourd’hui une place dominante.

C’est avec notamment le soutien de Sun et d’IBM que se sont imposées des couches techniques autour des environnements Java.

Les déclinaisons de ces composants sont nombreuses et sont largement utilisées par l’industrie.

Ceci n’empêche pas les acteurs du marché de développer des stratégies propres. C’est le cas de Sun ou d’IBM qui promeuvent des composants libres tout en déployant des stratégies plus propriétaires sur d’autres composants ou produits.

Microsoft est naturellement très actif sur ces couches techniques en s’appuyant sur .net.

 Les logiciels bureautiques

C’est la vitrine la plus visible des logiciels libres. Alors que la Version 1 de la Suite

OpenOffice.org était relativement pauvre et présentait beaucoup de lacunes face à Microsoft Office, la Version 2 se montre beaucoup plus riche. Si elle n’égale pas Microsoft Office, ses adeptes considèrent que les utilisateurs ne font pas appel à des fonctionnalités spéciales dont ne disposerait pas OpenOffice.

Deux problèmes se posent couramment pour l’usage d’OpenOffice :

–          Les problèmes de compatibilité subsistant avec Microsoft Office et qui rendent parfois difficiles les échanges de documents dans un mode de travail collaboratif. Certaines fonctions telles que la gestion des titres ou celle des images se manifestent par des différences dans le document final. Ce problème n’est en réalité pas un problème de logiciel mais un problème de format. Il est au centre de la bataille que se livrent les tenants du format ODF (Open Document Format) normalisé par OASIS, et de l’autre, Microsoft qui souhaite voir les autorités de normalisation consacrer son propre format connu sous le nom d’Open XML comme une norme internationale.

–          L’existence de clients lourds liés à Microsoft Office et qui ne peuvent être repris sous OpenOffice. De nombreuses applications dans les entreprises et les administrations (et notamment au Ministère de l’Intérieur) utilisent en effet des fonctions liées au traitement de document, aux tableurs ou aux bases de données locales Microsoft.

Les logiciels fonctionnels : les applications

Ces logiciels répondent généralement à des besoins précis des utilisateurs pour les fonctions de gestion des entreprises.

L’idée selon laquelle un logiciel développé pour un utilisateur ou un contexte précis pourrait être réutilisé par d’autres utilisateurs est au principe même du logiciel libre. S’agissant d’applications fonctionnelles, cette perspective de réutilisation et de mutualisation sous-estime généralement l’effort qu’il faudra ensuite consentir pour adapter ces logiciels à une organisation spécifique, son contexte, son métier et ses processus. Elle sous-estime l’ampleur des efforts que représente l’industrialisation d’un logiciel pour qu’il puisse être utilisé par de nombreux utilisateurs dans des contextes différents. 

Ce problème n’est pas spécifique aux logiciels libres. Les sociétés de service (les intégrateurs) ont été confrontées, de tous temps, à cette question de manière récurrente : pourquoi ne pas industrialiser des solutions conçues pour un client spécifique, en étendre le périmètre, les proposer à d’autres clients et en tirer un bénéfice multiplicateur ? Il semble bien que les métiers de l’édition (une solution « industrialisée » pour un grand nombre de clients) et ceux du service (une solution sur mesure) soient de nature différente.

Verra-t-on des solutions Open Source prendre pied et s’imposer sur le marché des logiciels fonctionnels, domaine de prédilection des éditeurs ?

A en juger par la répartition des communautés de développements de logiciel Open Source (telle qu’elle apparaît dans SourceForge, qui regroupe au niveau mondial le plus grand nombre de ces communautés), les communautés du logiciel libre sont très actives dans le développement d’applications et de logiciels fonctionnels.

Les communautés les plus actives travaillent notamment sur un progiciel de gestion intégré (OpenBravo ERP) capable de concurrencer SAP. Un grand nombre de sociétés de services et d’utilisateurs sont potentiellement intéressés à rouvrir la concurrence dans ce secteur. Les développeurs dans ces communautés parviendront-ils à se concentrer durablement sur leurs objectifs ? Ne risquent ils pas de s’en détourner si un nouveau sujet présente plus d’intérêt à leurs yeux ?

 PARTICIPATION DES ADMINISTRATIONS A DES COMMUNAUTES

Les projets de logiciels libres, pour les administrations, sont de trois types, auxquels sont associés, trois types de risques :

•          Les projets de logiciels45 [2]préexistants, bien établis, correspondant à un besoin largement partagé. Les développeurs dans les administrations participent à ces projets dans le cadre de communautés (sans que ce soit toujours clairement géré).

Sur le fond, on peut estimer que l’administration y trouve son compte, pour autant que le temps passé soit en relation avec des objectifs définis.

•          Les projets initiés par une administration et pour lesquels l’administration           souhaite voir émerger une communauté qui garantira, dans la durée, la pérennité et l’évolutivité du logiciel. C’est ce qu’à très bien réussi la Gendarmerie avec OCS Inventory pour la gestion du parc informatique. La réussite de telles démarches, c’est à dire le maintien d’une communauté, reste incertaine.[3]

•          Les projets de logiciel initiés par une administration et dont les résultats pourraient être repris par une autre. Ce cas de figure est récurrent.47 Il n’est pas directement lié à la question du logiciel libre. Il semble bien que les licences libres apportent une réponse simple à cette exigence de partage entre les administrations. Encore faut-il pouvoir introduire cette clause dans les CCAG des marchés publics. Le résultat reviendrait à constituer une « communauté ad-hoc ».

Le problème s’est posé pour la plateforme d’achat public développée pour le Ministère de la Défense par CapGemini Sogeti. Le Ministère de la Défense souhaitait mettre cette plateforme à la disposition d’autres Ministères. Le ministère de la défense et les autres ministères se sont aperçus que le contrat ne prévoyait pas une telle mise à disposition. Ces ministères ont du se tourner dans l’urgence vers une autre solution.

INDUSTRIALISATION ET INDEPENDANCE

Les années 80 et 90 ont été marquées par une montée en puissance des progiciels aux dépens des développements spécifiques.

L’attractivité des logiciels proposés par les éditeurs repose sur leur niveau d’industrialisation. Celle-ci comprend une gestion rigoureuse des niveaux de version, un support technique par niveau de version des problèmes identifiés, des engagements contractuels des fournisseurs.

L’utilisation des logiciels libres dans les grandes organisations appelle la mise au point d’offres professionnelles structurées. S’agit-il uniquement de contrat de services ? Ces contrats incluent-ils une forme de responsabilité sur la fourniture des « souches logicielles » ?        

La difficulté des éditeurs et des sociétés de services spécialisées dans les logiciels libres à proposer ce type d’offres incite les grands comptes à se tourner vers des fournisseurs de plateformes qui offrent une gamme de logiciels « packagés ». Ce faisant, contrairement à des objectifs initiaux clairement affirmés, des liens de dépendance se recréent ainsi entre fournisseurs de logiciels libres et utilisateurs.

Les problématiques d’indépendance et de dépendances peuvent s’avérer plus complexes qu’il n’y paraît.

La dépendance a un coût : celui qui est du à un appauvrissement de la concurrence des acteurs face à un besoin exprimé par le client. Comme veut le montrer le schéma précédent, cette dépendance peut venir des logiciels propriétaires. Elle peut également venir de la relation qui va s’établir avec les sociétés de services qu’elles s’appuient sur du logiciel libre ou non.

L’indépendance a également un coût. Le recours systématique au libre et surtout s’il est non packagé, oblige l’organisation utilisatrice à prévoir et organiser le support et une forme d’ «industrialisation » des logiciels. L’indépendance suppose une organisation suffisamment bien structurée pour que cela n’aboutisse pas à une multiplication des solutions.

On remarquera que les normes et standards ne sont pas liés en soit au sujet libre ou propriétaire. Ainsi les acteurs du marché sont-ils présents dans différentes structures de normalisation, lesquelles travaillent non pas sur des composants logiciels (parfois appelés à tort standards), mais sur des interfaces, des protocoles ou des formats. Ces standards peuvent donner lieu à des licences d’utilisation gratuites (c’est le cas des standards du W3C) ou payantes (c’est le cas de la plupart des organisations de standardisation comme l’ETSI où la règle qui retenue est celle dénommée FRAND (Fair Reasonnable And Non Discriminatory).

Il y a plusieurs manières de faire valoir les avantages ou inconvénients des différentes offres dans ce débat. Les acteurs du marché (intervenant dans le secteur libre ou propriétaire) ne s’en privent pas : c’est en fait un élément central du nouveau jeu concurrentiel.

Ce jeu est loin d’être manichéen. Il fonctionne juste avec des règles différentes dont le débat sur le libre devient le moteur et dont le débat sur les standards devient le pivot.


[1] Microsoft a trois types de licences présentées comme libres. Deux ont été acceptées par l’Open Software Alliance : MSPL (Microsoft Permissive License) et MSRL (Microsoft Reciprocal License).

[2] On désigne ces projets de plus en plus souvent comme des « souches logicielles »

[3] Une démarche intermédiaire pourrait être au niveau national de disposer d’une structure d’animation de ces communautés émergentes. Ce rôle pourrait être dévolu à la DGME. C’est le but qu’elle s’est fixée avec Admisource. De sorte qu’on pourra différencier deux sous-catégories : le lancement de communautés « sans frontières » et le lancement de communautés dans un environnement national sous la bannière d’Admisource.

Étude sur les économies réalisables grâce au logiciel libre

Taxation des revenus publicitaires des plateformes d’hebergement et de partage : taxe ou chantage ?

Le 23 novembre était signé à l’Elysée un accord entre représentants des industries culturelles (cinéma, musique, télévision) et des télécommunications. En présence du Chef de l’Etat.

Cet accord prévoyait que les plates-formes d’hébergement et de partage de contenus (comme DailyMotion ou GoogleYouTube généralisent “à court terme les techniques efficaces de reconnaissance de contenus et de filtrage”.

Problème : les principaux concernés, DailyMotion et GoogleYouTube n’ont signé cet accord.

On vient d’apprendre qu’un amendement-surprise au projet de loi de finances 2008 déposé et voté, à la sauvette, institue une taxer de 2% sur les revenus publicitaires générés par les vidéos diffusées sur le Web.

Difficile de ne pas voir un lien entre l’amendement-surprise et le refus des plates-formes de signer l’accord du 23 novembre.

Si cette hypothèse devait se vérifier, cela signifie que la législation fiscale est détournée de ses fins pour devenir un instrument de chantage et faire rentrer dans le rang des entreprises récalcitrantes…

Le 23 novembre, Nicolas Sarkozy n’avait pas caché son impatience de voir l’accord concocté par Denis Olivennes mis en œuvre. Avant six mois. « Je vous propose que l’on se retrouve dans six mois, au même endroit [au palais de l’Elysée], pour tirer le bilan de six mois d’application de ces nouvelles normes. En prenant un engagement devant vous : si cela marche, on continue comme cela, si cela ne marche pas suffisamment bien, on prendra les mesures pour obtenir des résultats. ». Coûte que coûte ?

Décidément, le libéralisme autoritaire de Nicolas Sarlozy est de moins en moins libéral et de plus en plus autoritaire.

L’innovation selon Denis Olivennes

Rapport Olivennes : indigeste et indigent

Le mot « innovation » ne figure pas une seule fois dans le rapport de la Commission Olivennes. Comme « radio » ou « baladeur », jamais évoqués.

Les mots « filtrage », « sanction », « avertissement », en revanche, apparaissent respectivement 54, 81 et 21 fois.

Le mot « innovant » revient, il est vrai, trois fois.

« Une telle orientation permettrait aussi de soutenir des entreprises innovantes françaises, très présentes sur les technologies en question, et de leur donner une bonne visibilité internationale sur un secteur porteur ».

« De nombreux outils existent ou sont en cours de développement. Différents dans leur approche et donc dans leurs performances et limitations, ils sont proposés par plusieurs sociétés dont un certain nombre de groupes industriels ou de PME innovantes françaises. »

« S’appuyer sur un certain nombre de technologies innovantes prometteuses, récemment développées, qui n’ont cependant pas encore atteint le stade de leur pleine maturité. »

De quoi s’agit il ?

La suite sur Catalyseurs Numériques

Storytelling ou quand on a un marteau, tout ressemble à un clou

Storytelling, la machine à fabriquer des histoires et à formater les esprit Christian Salmon Éditeur : La Découverte


Depuis qu’elle existe, l’humanité a su cultiver l’art de raconter des histoires, un art partout au cœur du lien social. Mais depuis les années 1990, aux États-Unis puis en Europe, il a été investi par les logiques de la communication et du capitalisme triomphant, sous l’appellation anodine de « storytelling » : celui-ci est devenu une arme aux mains des « gourous » du marketing, du management et de la communication politique, pour mieux formater les esprits des consommateurs et des citoyens. Derrière les campagnes publicitaires, mais aussi dans l’ombre des campagnes électorales victorieuses, de Bush à Sarkozy, se cachent les techniciens sophistiqués du « storytelling management » ou du « digital storytelling ».

L’ouvrage de Christian Salmon donne incontestablement à réfléchir. Storytelling rassemble un corpus considérable d’exemples et d’observations sur les techniques narratives à l’œuvre dans les domaines de la publicité, du marketing, des marques, de la gestion des ressources humaines et de la communication politique.

L’auteur situe l’essor du storytelling au début des années 90. L’apparition du « storytelling management » et son adoption par les grandes marques coïncideraient avec un « storytelling revival » : des dizaines de milliers de personnes rejoignent chaque année le National Storytelling Network ou participent a l’un des deux cent festivals de « storytelling » organisés aux États-Unis. À la suite d’un certain nombre d’auteurs américains, il associe l’essor du « storytelling » au « narrative turn » à l’œuvre dans les sciences sociales. C’est à travers Internet que ce « storytelling revival » se serait répandu dans la société americaine, puis au-delà.

La suite sur nonfiction.fr

Riposte graduée : la troisième tentative sera t elle la bonne ?

Le Rapport Olivennes : indigeste et indigent

Denis Olivennes s’etait engagé à formuler de propositions qui tiennent en une page A4. Le pari est tenu avec 13 propositions (même si le rapport totalise 110 000 signes, majoritairement focalisées sur l’examen des différentes technologies de filtrage).

Parmi les 13 propositions, seules quatre visent à rendre les offres commerciales plus attractives face aux pratiques d’échange non-autorisées, notamment la réduction de la fenêtre VOD de 7 mois et demi après la sortie en salle à 4 mois, ainsi que le retrait des mesures techniques de protection.

- A part une (hypothétique) baisse de la TVA sur les produits culturels, la Commission Olivennes ne formule aucune proposition sur question, pourtant centrale, des prix de la musique ou des films en ligne.

Les producteurs de musique, soucieux d’aligner le prix des fichiers en ligne sur celui des supports physiques ont fixé le prix de gros à 0,99 euros pour chaque titre. « Le maintien de prix de gros excessifs est de surcroît un frein au développement de nouveaux modèles économiques fondés sur l’accès (modèle de l’illimité), modèle rationnel dans un univers où les coûts marginaux tendent vers 0 comme cela est le cas dans l’univers numérique », comme l’avait noté UFC-Que Choisir. La politique de prix est pourtant l’un des leviers essentiels si l’on souhaite que le public se tourne vers les plateformes commerciales.

Dans une Note au ministre de la culture et de la communication et au ministre délégué à l’industrie, deux hauts fonctionnaires attribuaient « l’atonie du marché actuel » à « une politique des prix peu intelligible par les consommateurs ». ( 1 )

Lire la suite

Les données que le Rapport Olivennes n’a pas pris la peine d’examiner …

Rapport Olivennes : indigeste et indigent

Le Rapport Olivennes ne consacre que 3939 signes (3,6% du total) à la mesure des pratiques de téléchargement et de partage sur les réseaux pair à pair.

« En France, la proportion des internautes pratiquant le téléchargement (musique, films, jeux vidéo et logiciels) est sans commune mesure avec celle recourant à un téléchargement de fichiers légaux, part au demeurant plus faible que celle constatée dans la plupart des autrespays, surtout dans le domaine de la musique.

De fait, les produits culturels numérisables sont omniprésents sur le réseau internet et accessibles sous différentes formes.

La dématérialisation des supports, associée à l’apparition du haut débit – et, bientôt, l’arrivée de la fibre optique, technologie offrant des débits symétriques et plus élevés, facilitant considérablement le téléchargement de fichiers denses, notamment vidéo – a bouleversé l’accès aux contenus culturels et multiplié les moyens et modalités de piratage.

Plus particulièrement, l’échange de fichiers par des logiciels de pair-à-pair a pris, à partir de 2002, une ampleur considérable. On considérait en 2003 à plus de 150 milliards le nombre de fichiers musicaux ( 1 ) échangés dans le monde via ces logiciels.

Une étude par protocoles avait été menée par la société CacheLogic ( 2 ) : publiée en 2004 et mise à jour en 2005 (hors données françaises), elle faisait apparaître que le trafic P2P représente 60 % du trafic.

D’après l’OCDE ( 3 ), les utilisateurs simultanément actifs de ces réseaux dans le monde étaient près de 10 millions en avril 2004.

Les données recensées par Big Champagne confirment ces ordres de grandeur ( 4 ) : le cap des 10 millions a été franchi en 2005. En outre, de la musique, le phénomène s’est étendu aux films et aux programmes de télévision, notamment les séries. « 

Lire la suite

Le rapport Olivennes en quelques chiffres

Rapport Olivennes : indigeste et indigent

Le rapport de la Commission Olivennes a été diversement accueilli. Avec enthousiasme, par les représentants des industries culturelles. Avec ironie, par certains, pour souligner le caractére impraticable de la « riposte graduée » et du filtrage généralisé. Avec indignation, par d’autres, pour pointer les atteintes aux libertés publiques.

Le mandat de la Commission était strictement délimité. La lettre de mission assignait à la Commission Olivennes des objectifs bien précis : comment enrayer les pratiques d’échange non autorisées ?

On attendait cependant des analyses sur sur les raisons pour lesquelles les internautes échangent et partagent des oeuvres. Comment enrayer ces pratiques si on ne les comprend pas ?

On attendait aussi une analyse des effets de ces pratiques de partage sur l’économie des biens culturels. Les économistes débattent depuis plusieurs années de cette question. Olivennes avait d’ailleurs fait appel à un économiste, Michel Bomsel.

On attendait aussi, peut être, une analyse du nouvel écosystème culturel numérique dans lequel ces pratiques d’échange s’inscrivent. Et des défis que cet environnement numérique pose aux industries de la musique et du cinéma.

On ne trouve rien de tout cela dans le rapport de la Commission Olivennes.

Ce rapport tient en quelques chiffres.

Le mot « innovation » ne figure pas une seule fois dans le rapport de la Commission Olivennes. Comme « radio » ou « baladeur », jamais évoqués.

Les mots « filtrage », « sanction », « avertissement », en revanche, apparaissent respectivement 54, 81 et 21 fois.

Le rapport (hors page de garde et liste des personnes auditionnées) représente 110 536 caractéres.

Sur ces 110 536 caractéres :

- 5 982 signes (5,4% du total) seulement sont consacrés à la mesure du phénomène.

- 823 signes (0,7%) à l’évaluation des effets économiques. C’est peu.

- 9 662 signes (8,7%) seulement consacrées aux mesures positives destinées à encourager le développement de l’ offre légale.

- Aucune analyse, même sommaire, des motivations des internautes qui s’adonnent aux pratiques de partage et d’échange.

- Rien non plus sur les initiatives et les innovations en matiére de distribution de la musique. Pas un mot sur Myspace, DailyMotion, Facebook ou Youtube. Ni sur les nouvelles offres et les nouvelles plateformes : Deezer, Muzikoo, MusicMakesFriends,LastFm, BlogMusik, Jiwa, RadioBlogClub, Blast My Music, Airtist… Pas un mot, non plus, sur les démarches de paiement volontaire uu type RadioHead.

L’essentiel du rapport (78 356 signes, 71% du total) est consacré aux mesures dissuasives : techniques (filtrage) et juridiques (« riposte graduée ».

Les préoccupations de la Commission Olivennes mesurées en nombre de caractéres

L’abandon – il est vrai conditionnel- des mesures techniques de protection

Rapport Olivennes : indigeste et indigent

Saluons tout de même le principal résultat de la Mission Olivennes : l’abandon des mesures techniques de protection. Même si cet abandon n’est pas définitif.

En signant, en grandes pompes à l’Elysée, en présence de Nicolas Sarkozy l’Accord pour le développement et la protection des œuvres et programmes culturels sur les nouveaux réseaux, l’industrie musicale française, majors (SNEP) et labels indépendants (UPFI) s’est engagée « à rendre disponibles, dans un délai maximal d’un an à compter du fonctionnement effectif du mécanisme d’avertissement et de sanction, les catalogues de productions musicales françaises pour l’achat au titre en ligne sans mesures techniques de protection, tant que celles-ci ne permettent pas l’interopérabilité et dans le respect des droits et exclusivités reconnus”.

Certes, l’abandon est conditionnel : “il ne prendra effet dans un délai maximal d’un an à compter du fonctionnement effectif du mécanisme d’avertissement et de sanction”.

Et il n’est pas définitif : “ tant que celles-ci (les mesures techniques de protection) ne permettent pas l’interopérabilité et dans le respect des droits et exclusivités reconnus”.

L’industrie musicale revient ainsi sur la stratégie suicidaire qu’elle avait mise en œuvre depuis 10 ans : verrouillage des œuvres et sanction du contournement (via une directive arrachée au législateur européen).

L’industrie musicale reprend ainsi à son compte, après l’avoir longtemps contesté, le constat fait par la Mission Olivennes : « Il a paru évident à la mission que le manque d’attractivité de l’achat en ligne d’oeuvres musicales est très lié aux contraintes d’utilisation que les mesures techniques de protection imposent. L’achat d’une oeuvre numérique n’est intéressant que s’il permet la même liberté d’usage que le support physique. S’il n’existe pas de possibilité de conserver, en cas de changement d’ordinateur, les titres achetés pour former une bibliothèque personnelle ou s’il est impossible d’écouter cette musique sur le lecteur de son choix, le consommateur se refusera à acheter ».

Denis Olivennes, dans ses fonctions de PDG de la FNAC avait pu prendre la mesure des effets pervers des mesures techniques de protection : « Si vous prenez nos premiers titres vendus au format MP3, le groupe Aaron en novembre, nous avons multiplié par deux leurs ventes dans la première semaine de commercialisation par rapport à la précédente où ils étaient uniquement disponibles sous le format WMA, le DRM de Microsoft. Globalement, les gens achètent deux fois plus de musique en ligne si elle est sans DRM. Depuis des années, les majors campent sur des positions myopes et courtermistes, en sous-estimant d’abord les nouveaux modes de consommation de la musique via le téléchargement et en refusant de comprendre que leurs positions inflexibles les ont amenées dans le mur ».

Grenelle (s)

Les accords de Grenelle ont été négociés et conclus pendant Mai 1968 au siège du ministère du Travail français situé rue de Grenelle.

Par analogie, un Grenelle désigne un débat multipartite réunissant des représentants du gouvernement et d’associations professionnelles et/ou d’ONG, portant sur un thème spécifique et visant à légiférer ou à prendre position.


Grenelle se refere aux « accords » du même nom, conclus le 27 mai 1968, au ministère du travail, l’hôtel du Châtelet, l rue de Grenelle.

Apres vingt-cinq heures de négociations entre le gouvernement, le patronat et les syndicats, une hausse du SMIG et des salaires, des réductions d’horaires et une reconnaissance de la section syndicale d’entreprise furent annoncées.

La salle des négociations rue de Grenelle s’appelle encore aujourd’hui la « salle des accords ».

A la différence de 1936, quand Léon Blum, le patronat et la CGT signèrent un Accord, au Palais de Matignon, les négociations de Grenelle en 1968 ne s’achevèrent pas sur un Accord ou des Accords.

Il y eut bien un « procès-verbal », mais il ne fut paraphé par aucune organisation syndicale ou patronale. Quand Benoît Frachon (CGT) et André Jeanson (CFDT) présentèrent, le 28 mai au matin, aux ouvriers de Renault-Billancourt, les conclusions de Grenelle, ceux-ci décidèrent de poursuivre la grève. Les mesures furent appliquées (notamment sur la section syndicale), mais sans accords.

Grenelle est entré dans la mythologie pour l’approche très « marathon » de la négociation. 25 heures vingt-cinq heures de négociations non-stop.

Rien a voir avec le Grenelle de l’Environnement dont la préparation et la négociation se sont dérouléessur plusieurs semaines.

Il eut été plus rigoureux de baptiser le Grenelle de l’Environneement « Ségur de l’environnement », voire « Elysée de l’environnement ».

Voir : Un probléme, un Grenelle