PROJET AUTOBLOG


S.I.Lex

Site original : S.I.Lex

⇐ retour index

Les CGU des plateformes, bientôt transformées en parodie de conventions collectives ?

lundi 3 septembre 2018 à 08:09

En février dernier dans un article écrit avec Laura Aufrère intitulé « Pour une protection sociale des données personnelles« , nous avions envisagé que les CGU (Conditions Générales d’Utilisation) des plateformes – aujourd’hui unilatéralement édictées par ces entreprises sans possibilité de négociation – puissent être repensées sous la forme de conventions collectives afin de redonner du pouvoir aux utilisateurs. Nous nous placions à ce moment dans la perspective de la protection des données personnelles et de la vie privée, pour laquelle nous pensions intéressant d’aller puiser de l’inspiration du côté des institutions du droit du travail pour faire émerger un « droit social des données ».

Photo par Thought Catalog. Source : Unsplash. CC-0.

Il se trouve que la Loi sur l’avenir professionnel, dite Pénicaud 2, adoptée par le Parlement en juin dernier et actuellement examinée par le Conseil Constitutionnel, semble s’être engagée dans ce rapprochement entre CGU et conventions collectives… mais en mode parodique !

L’objectif visé par ce texte n’est pas la protection des données personnelles, mais la situation des travailleurs indépendants dans leur relations avec les plateformes, type Uber ou Deliveroo. Selon la Ministre du Travail, la majorité serait parvenue à trouver un compromis satisfaisant, en « sécurisant le modèle des plateformes » tout en apportant de nouvelles garanties aux individus. Dans les faits, le texte prévoit seulement une possibilité (et non une obligation) pour les plateformes d’édicter une « Charte déterminant les conditions et modalités d’exercice de [leur] responsabilité sociale ».

L’article 40A de la loi détaille le contenu de ces « Chartes sociales » et le voici ci-dessous in extenso :

1° L’article L. 7342-1 est complété par quatorze alinéas ainsi rédigés :

« À ce titre, la plateforme peut établir une charte déterminant les conditions et modalités d’exercice de sa responsabilité sociale, définissant ses droits et obligations ainsi que ceux des travailleurs avec lesquels elle est en relation. Cette charte, qui rappelle les dispositions du présent chapitre, précise notamment :

« 1° Les conditions d’exercice de l’activité professionnelle des travailleurs avec lesquels la plateforme est en relation, en particulier les règles selon lesquelles ils sont mis en relation avec ses utilisateurs. Ces règles garantissent le caractère non-exclusif de la relation entre les travailleurs et la plateforme et la liberté pour les travailleurs d’avoir recours à la plateforme ;

« 2° Les modalités visant à permettre aux travailleurs d’obtenir un prix décent pour leur prestation de services ;

« 3° Les modalités de développement des compétences professionnelles et de sécurisation des parcours professionnels ;

« 4° Les mesures visant notamment :

« a) À améliorer les conditions de travail ;

« b) À prévenir les risques professionnels auxquels les travailleurs peuvent être exposés en raison de leur activité, tels que notamment les dommages causés à des tiers ;

« 5° Les modalités de partage d’informations et de dialogue entre la plateforme et les travailleurs sur les conditions d’exercice de leur activité professionnelle ;

« 6° Les modalités selon lesquelles les travailleurs sont informés de tout changement relatif aux conditions d’exercice de leur activité professionnelle ;

« 7° La qualité de service attendue sur chaque plateforme et les circonstances qui peuvent conduire à une rupture des relations commerciales entre la plateforme et le travailleur ainsi que les garanties dont ce dernier bénéficie dans ce cas ;

« 8° (nouveau) Les garanties de protection sociale complémentaire négociées par la plateforme et dont les travailleurs peuvent bénéficier, notamment pour la couverture du risque décès, des risques portant atteinte à l’intégrité physique de la personne ou liés à la maternité, des risques d’incapacité de travail ou d’invalidité, des risques d’inaptitude, ainsi que la constitution d’avantages sous forme de pensions de retraite, d’indemnités ou de primes de départ en retraite ou de fin de carrière.

« La charte est publiée sur le site internet de la plateforme et annexée aux contrats ou aux conditions générales d’utilisation qui la lient aux travailleurs.

Paternalisme numérique

Le périmètre de cette Charte correspond bien à ce qui figure normalement dans une convention collective (« les conditions d’emploi, de formation professionnelle, de travail des salariés, ainsi que leurs garanties sociales« ), mais avec des différences notables dans les mécanismes de mise en oeuvre ! Tout d’abord, ces chartes seront prises plateforme par plateforme et non au niveau d’un secteur donné, comme celui de l’économie dite « collaborative » (ce qui aurait d’ailleurs pu être une option intéressante). Il s’agit donc davantage de l’équivalent d’accord d’entreprises que de conventions collectives. Mais surtout, leur adoption reste purement facultative, ce qui rapproche ces chartes de la RSE (Responsabilité Sociale des Entreprises), définie comme suit par la Commission européenne :

l’intégration volontaire des préoccupations sociales des entreprises à leurs activités commerciales et leurs relations avec leurs parties prenantes. Être socialement responsable signifie non seulement satisfaire pleinement aux obligations juridiques applicables, mais aussi aller au-delà et investir «davantage» dans le capital humain, l’environnement et les relations avec les parties prenantes.

Or comme l’explique Alain Supiot, juriste spécialisé en droit du travail et professeur au Collège de France, « la RSE est au néo-libéralisme ce que le paternalisme fut au libéralisme« . Il fait allusion par-là au paternalisme industriel de la fin du XIXème siècle et du début du XXème siècle, lorsque les patrons des grandes entreprises procuraient de manière « charitable » une certaine forme de protection à leurs ouvriers en termes de logement, de soins ou d’éducation. Le caractère facultatif des chartes sociales de la loi Pénicaud 2 relève d’une logique similaire et peut se rattacher à ce que j’ai déjà pu appeler sur ce blog une évolution vers un « Providentialisme de plateformes » qui se dessine à mesure que se délite l’État social.

On pourrait néanmoins penser que ces chartes aient le potentiel de devenir un support pour des luttes sociales d’un nouveau genre, outillant les travailleurs indépendants des plateformes dans leur revendication à l’amélioration de leurs droits. Mais l’analogie avec les conventions collectives trouve ici aussi sa limite, car l’expérience a montré que même si la loi permet à ces travailleurs de se syndiquer, il leur est difficile de s’organiser collectivement pour induire un rapport de forces à leur avantage. On l’a bien vu cet été lors du week-end de la finale de la Coupe du Monde de football, lorsque les livreurs à vélo ont tenté d’organiser une grève face à Deliveroo, en demandant aux clients de se montrer solidaires en cessant les commandes. Le résultat fut mitigé, car face à la gouvernance algorithmique, c’est la possibilité même d’engager le conflit qui se dérobe.

En réalité, l’idée qui sous-tend ces chartes sociales facultatives est que ce n’est plus au conflit social de servir de moteur à la définition des droits, mais à la concurrence sur le marché d’assurer cette fonction. La loi fait le pari que les plateformes amélioreront d’elles-mêmes les conditions de travail et les garanties associées, de manière à attirer et fidéliser les travailleurs. Outre que cela revient à transformer les droits sociaux en simples « avantages concurrentiels », il est improbable vu l’état du marché du travail en France que le jeu de la concurrence pousse les plateformes à s’engager dans une telle course au « mieux disant social ». Avec la progression de la précarité, ce sont en réalité les travailleurs qui se retrouvent mis en concurrence les uns avec les autres, sans compter que l’effet-réseau tend à faire de ces marchés des monopoles.

Les plateformes ne peuvent que tirer avantage de cette situation et elles risquent surtout de s’emparer de ces Chartes, comme le font déjà la plupart des grandes entreprises avec la RSE, à des fins d’affichage et de communication. Un reportage récemment diffusé par Arte à propos de Starbucks a montré comment cette firme est parvenue à se donner un vernis de respectabilité en fournissant à ses employés certains avantages en termes de couverture sociale et de formation, tout en conservant par ailleurs un comportement prédateur et des conditions de travail extrêmement dures.

Cachez cette subordination que le juge ne saurait voir

Mais il y a plus grave que ces risques de « Social Washing », car comme le font remarquer plusieurs commentateurs (ainsi que les syndicats), ces chartes sociales relèvent en réalité d’une forme de « trompe-l’oeil », puisque l’essentiel de ce que prévoit l’article 40A de la loi figurait déjà dans les CGU des plateformes. C’est ce qu’explique bien l’avocat Jérémie Giniaux-Kats dans un article sur le site « Village de la justice » :

(…) les mentions obligatoires aujourd’hui prévues pour la charte envisagée sont des engagements dont la substance peut être très légère ou quasiment égale à celle du contenu typique de Conditions Générales d’Utilisation actuelles.

La charte envisagée n’a donc rien d’un nouvel outil mais constitue davantage un nouveau vocable pour un support préexistant.

Selon lui, le point le plus important de ce texte serait ailleurs, puisque sa principale « innovation » résiderait dans le fait que la loi exclut que les garanties apportées par les plateformes via ces Chartes puissent être utilisées comme indices pour caractériser un lien de subordination :

L’établissement de la charte et le respect des engagements pris par la plateforme dans les matières énumérées aux 1° à 7° du présent article ne peuvent caractériser l’existence d’un lien de subordination juridique entre la plateforme et les travailleurs.

L’enjeu est d’importance, car plusieurs actions en justice – jusqu’à présent infructueuses en France – ont déjà été tentées pour faire requalifier les travailleurs indépendants des plateformes en salariés et l’URSSAF a essayé également d’exiger d’Uber le paiement de cotisations sociales en s’appuyant sur le lien de subordination qui le lierait aux personnes travaillant pour lui.

Ces Chartes facultatives risquent donc de servir à « blanchir » l’état de dépendance économique dans lesquels les travailleurs des plateformes sont placés en hypothéquant leurs chances de requalification par la justice en salariés. C’est pourtant toute une partie de la doctrine juridique qui pousse pour que ces « nouveaux visages de la subordination« , comme les avait identifiés Alain Supiot dès le début des années 2000, soient pris en compte pour redéfinir les frontières du salariat.

Se résigner à la « zone grise » ?

L’ironie veut qu’au même moment, la ville de New York emprunte de son côté un tout autre chemin en imposant à Uber le respect d’une rémunération minimale pour les chauffeurs de VTC. Plutôt que les ambiguïtés de l’auto-régulation, la Grande Pomme a choisi la voie de la réglementation impérative, pour ne pas laisser les mécanismes du marché déterminer seuls la condition sociale des travailleurs indépendants.

Mais on est en droit de se demander si cette approche, en apparence plus ferme, constitue la bonne manière de lutter contre l’ubérisation. Certes, le passage par la réglementation évite que les plateformes ne « jouent les providences », alors que c’est ce que le gouvernement français les incitent à faire au nom du « bien commun ». Certains, comme Nicolas Colin dans son dernier livre « Hedge : A Greater Safety Net for The Entreprenarial Age« , appellent au contraire l’Etat à intervenir pour combler la « zone grise » de l’emploi en définissant par la loi un nouvel ensemble de droits sociaux au bénéfice des travailleurs indépendants :

À l’époque fordiste, le travail salarié était un « paquet » (bundle) avec de nombreux avantages sociaux. En revanche, les travailleurs indépendants, auxquels ont recours régulièrement les plateformes, n’ont souvent pas les moyens d’action, la protection sociale et les salaires décents qui étaient autrefois le lot des travailleurs des industries manufacturières fordistes.

L’avenir des plateformes de travail dépend de notre capacité collective à garantir un nouveau « forfait social » aux travailleurs indépendants. Si nous réussissons, le travail sur les plateformes se développera et deviendra une norme sur le marché du travail. Si nous échouons, ces promesses ne seront jamais tenues et nous en paierons le prix sous la forme de moins de travail et de moins de développement économique.

Si cette approche « interventionniste » est indéniablement préférable au paternalisme dont est imprégnée la loi Pénicaud 2, elle a néanmoins l’inconvénient de reproduire ce qui fut une des grandes limites du modèle de protection sociale issu du compromis fordiste. Faut-il en effet simplement se contenter de « réparer » ou de « compenser » les dégâts humains provoqués par un mode de production sans chercher à le remettre en cause, au risque même de le conforter en le rendant plus acceptable socialement.

Il faut à cet égard garder en tête les avertissements que lançaient déjà André Gorz au début des années 90 lorsqu’il disait que la montée des inégalités allait susciter chez ceux qui parviendraient à conserver un emploi salarié le besoin de « nouveaux valets » destinés à travailler dans des conditions précaires pour leur rendre des services domestiques :

L’inégalité sociale et économique entre ceux qui rendent les services personnels et ceux qui les achètent est devenue le moteur du développement de l’emploi, qui est fondé sur une dualisation accentuée de la société, sur une sorte de « sud-africanisation », comme si le modèle colonial prenait pied au cœur même des métropoles.

Nous voyons ainsi se reconstituer à l’ère postindustrielle des conditions qui prévalaient il y a cent cinquante ans, aux débuts de l’ère industrielle, à une époque où le niveau de consommation était dix fois plus faible, où n’existaient encore ni le suffrage universel ni la scolarisation obligatoire. A cette époque-là aussi, alors que l’économie de marché se libérait de toute entrave, un sixième de la population en était réduite à s’embaucher comme serviteurs et gens de maison chez les riches, et un quart subsistait tant bien que mal grâce à des petits boulots.

La différence est que là où dans les années 90 ce besoin de « nouveaux serviteurs » se traduisait par le développement d’emplois précaires, mais encore salariés, il débouche aujourd’hui sur la montée d’un précariat ubérisé sous la forme de ces « faux indépendants » livrés à la para-subordination des plateformes. En attachant des droits sociaux à cette « zone grise », on prend le risque qu’elle fasse tâche d’huile en englobant de plus en plus de travailleurs chassés de l’emploi, jusqu’à ce qu’elle finisse par devenir la norme.

***

Pour autant, n’y aurait-il pas intérêt à ce que les CGU des plateformes soient repensées comme des conventions collectives sans en devenir de pathétiques parodies ? Certainement, mais pas dans n’importe quelles conditions. Si l’on veut sortir de cette spirale que la loi Pénicaud 2 amplifie davantage qu’elle ne la combat, c’est une action beaucoup plus structurelle qu’il faudrait entreprendre, comme qui est expérimenté par le mouvement du Coopérativisme de plateformes. Dans cette logique, les travailleurs gardent le contrôle des plateformes tout en s’employant auprès de coopératives leur garantissant un statut de salariés. C’est ce que tente par exemple Coopcycle en France pour offrir une alternative à des acteurs comme Deliveroo ou Uber Eats et il existe des projets similaires dans d’autres secteurs, comme on peut le voir avec l’initiative « Plateformes en Communs« . Ce sont ces formes, à la croisée des Communs et de l’économie solidaire, qui peuvent faire protection sociale, là où aucun « filet de sécurité » ne compensera jamais les dégâts humains et sociaux provoqués par les plateformes à la Uber et Deliveroo.

Quand Twitter se casse les dents sur le droit d’auteur…

vendredi 31 août 2018 à 08:11

En 2011, j’avais écrit un billet intitulé « Dropbox, Twitpic et toutes ces plateformes qui veulent croquer vos contenus… » qui reste à ce jour un des plus consultés sur ce blog. A l’époque, la question de la protection des données personnelles et de la vie privée était un peu moins présente que maintenant et c’est surtout sous l’angle de la propriété intellectuelle que l’on abordait le rapport des internautes aux réseaux et médias sociaux. Dropbox venait alors de modifier ses Conditions Générales d’Utilisation (CGU) pour se faire concéder une licence sur les contenus stockés par ses utilisateurs, ce qui avait provoqué un certain émoi sur la Toile. Sous l’angle juridique, la question était de savoir si cette cession de droits était valable ou non au regard du droit d’auteur français et il n’était pas simple alors de répondre. Depuis, cette problématique s’est posée de très nombreuses fois, puisque toutes les grandes plateformes commerciales ont adopté des Conditions d’Utilisation plus ou moins appropriatives des contenus de leurs utilisateurs.

Mais un événement est survenu cet été qui apporte des clarifications intéressantes à ce sujet : l’UFC Que Choisir ? a remporté un important procès face à Twitter au terme duquel plus de 250 clauses des CGU du réseau social ont été déclarées abusives et invalidées. Le jugement rendu par le Tribunal de Grande Instance de Paris est passionnant à lire et d’une grande richesse (236 pages !), notamment sur le plan de l’application de la loi Informatique et Libertés et du droit de la consommation.

Je ne vais pas en faire un commentaire intégral, mais plutôt me concentrer sur le point particulier de la validité de la licence d’utilisation revendiquée par Twitter. Cela viendra s’inscrire dans une série de billets déjà publiés sur ce blog, puisque j’avais commenté en 2009 le moment où Twitter a instauré pour la première fois cette licence et aussi celui en 2012 où Twitter a commencé à revendre les contenus de ses utilisateurs à des sociétés-tierces.

Le jugement provoqué par l’UFC Que Choisir ? (au passage, bravo à eux !) va sans doute avoir des conséquences importantes, car au-delà de Twitter, il est susceptible d’avoir des incidences sur toutes les plateformes s’appuyant sur des clauses similaires, dont on sait à présent qu’elles sont abusives.

Ce qui est à vous est à vous (mais…)

Jusqu’en 2009, Twitter était encore relativement irréprochable dans ses CGU puisqu’elles affirmaient fièrement « Ce qui est à vous est à vous » pour signifier que la plateforme ne revendiquait aucun droit sur les contenus postés par ses utilisateurs. Mieux encore, la firme au petit oiseau bleu leur recommandait même d’utiliser des licences libres ou de verser les contenus dans le domaine public. Mais une mise à jour des conditions d’utilisation a enclenché le mouvement vers l’appropriation, d’une manière assez subtile, puisque Twitter continuait d’affirmer « ce qui est à vous reste à vous », tout en demandant à ses utilisateurs de lui consentir de manière non négociable une licence d’utilisation très large.

Le jugement du Tribunal de Grande Instance s’est basé sur une version des CGU de 2016 formulées comme suit :

Vous conservez vos droits sur tout Contenu que vous soumettez, publiez ou affichez sur ou via les Services. Ce qui est à vous vous appartient. Vous êtes le propriétaire de votre Contenu (ce qui inclut vos photos et vos vidéos).

En soumettant, en publiant ou en affichant un Contenu sur ou via les Services, vous nous accordez une licence mondiale, non exclusive et libre de redevances (incluant le droit de sous-licencier), nous autorisant à utiliser, copier, reproduire, traiter, adapter, modifier, publier, transmettre, afficher et distribuer ce Contenu sur tout support et selon toute méthode de distribution (actuellement connus ou développés dans le futur). Cette licence nous autorise à mettre votre Contenu à disposition du reste du monde et autorise les autres à en faire de même.

Vous convenez que cette licence comprend le droit pour Twitter de fournir, promouvoir et améliorer les Services et de mettre le Contenu soumis sur ou via les Services à disposition d’autres sociétés, organisations ou personnes privées, aux fins de syndication, diffusion, distribution, promotion ou publication de ce Contenu sur d’autres supports et services, sous réserve de respecter nos conditions régissant l’utilisation de ce Contenu. Twitter, ou ces autres sociétés, organisations ou personnes privées, pourront utiliser ainsi le Contenu que vous aurez soumis, publié, transmis ou de quelque autre façon mis à disposition via les Services sans que vous puissiez prétendre à une quelconque rémunération au titre de ce Contenu.

On lit parfois que l’effet de telles clauses est de « déposséder » les utilisateurs des droits sur leurs contenus, mais la réalité est plus subtile que cela. En effet, les plateformes ne demandent pas des cessions exclusives de droits, mais de simples licences d’utilisation, ce que j’ai essayé de décrire en 2012 comme la création d’une « propriété-fantôme » sur les contenus :

La cession des droits peut en effet s’opérer à titre exclusif ou non exclusif. Le premier cas correspond par exemple à celui d’un contrat d’édition classique, dans lequel un auteur va littéralement transférer ses droits de propriété intellectuelle à un éditeur pour publier un ouvrage. L’auteur, titulaire initial des droits patrimoniaux, s’en dépossède par la cession exclusive et il ne peut plus les exercer une fois le contrat conclu. Avec les CGU des plateformes, les droits ne sont pas transférés, mais en quelque sorte « répliqués » : l’utilisateur conserve les droits patrimoniaux attachés aux contenus qu’il a produit, mais la plateforme dispose de droits identiques sur les mêmes objets donnant naissance à une « propriété-fantôme ».

Conséquence : rien n’empêche l’utilisateur de reproduire ou diffuser ailleurs un contenu posté sur la plateforme, mais il ne peut s’opposer à ce que celle-ci fasse de même, voire ne conclue des accords avec un tiers, y compris à des fins commerciales. C’est une chose qui arrive d’ailleurs chaque fois qu’une plateforme est rachetée : grâce à la cession non-exclusive concédée par les utilisateurs, il est possible de vendre les contenus hébergés à un tiers (c’est le sens de la formule « sublicenseable rights »  que l’on retrouve dans les CGU).

Tu t’es vu quand t’abuses ?

L’UFC Que Choisir ? soutenait que ces clauses des CGU de Twitter étaient abusives et elle s’appuyait pour le démontrer sur plusieurs des dispositions du Code de propriété intellectuelle destinées à protéger les auteurs au moment des cessions de droits. La première est énoncée à l’article L 131-1 et interdit la « cession globale des oeuvres futures ». Cela signifie qu’un auteur ne peut pas accorder en théorie un « chèque en blanc » à un tiers qui lui permettrait d’obtenir des droits sur des oeuvres non-créées encore au moment de l’acceptation du contrat. Pour les contrats d’édition, des clauses de préférence sur des oeuvres futures sont possibles, mais le mécanisme est assez étroitement encadré. De son côté, Twitter répliquait que la cession n’est pas « globale » puisqu’elle ne porte que sur des oeuvres que les personnes choisissent de poster une à une sur le réseau et seulement pour les droits couverts par la licence d’utilisation demandée qui est certes très large, mais pas infinie non plus.

Par ailleurs, l’UFC Que Choisir visait d’autres dispositions du Code de propriété intellectuelle, relatives à ce que l’on appelle le « formalisme des cessions de droits », notamment celles énoncées à l’article L. 131-3 :

La transmission des droits de l’auteur est subordonnée à la condition que chacun des droits cédés fasse l’objet d’une mention distincte dans l’acte de cession et que le domaine d’exploitation des droits cédés soit délimité quant à son étendue et à sa destination, quant au lieu et quant à la durée.

Pour l’association de défense des consommateurs, la licence mondiale et gratuite demandée par Twitter, bien que non-exclusive, est trop générale dans sa formulation pour répondre à cette exigence de délimitation précise des cessions de droits, tant au niveau de leur périmètre (étendue) que de leur finalité (destination).

Le tribunal a répondu en donnant raison à l’UFC Que Choisir ? de la manière suivante :

la clause précitée qui confère au fournisseur du service un droit d’utilisation à titre gratuit sur tous les contenus générés par l’utilisateur, y compris ceux d’entre eux qui seraient susceptibles d’être protégés par le droit d’auteur, sans préciser de manière suffisante les contenus visés, la nature des droits conférés et les exploitations autorisées, est contraire aux prescriptions de l’article L. 131-1, L. 131-2, L. 131-3 du code de la propriété intellectuelle, lesquelles imposent au bénéficiaire de la cession, de préciser le contenu visé, les droits conférés ainsi que les exploitations autorisées par l’auteur du contenu protégé. Cette clause illicite au regard des dispositions précitées sera donc réputée non écrite au regard des dispositions précitées.

L’argumentation n’est pas très développée, mais on peut déduire de ce passage que le juge estime que la clause équivaut bien à une cession globale des oeuvres futures interdite par le droit français. Des CGU ne peuvent donc pas viser en bloc tous les contenus postés par les utilisateurs sous peine d’être invalides. Et par ailleurs, il a bien identifié un problème de précision tant au niveau des droits concédés par l’utilisateur que des modes d’exploitation que Twitter met en oeuvre. Le jugement prend notamment la peine de rappeler que Twitter s’autorise à délivrer ces contenus à des sociétés tierces, via son API notamment, sans que les utilisateurs puissent savoir à l’avance ce qui va en être fait.

Tout ceci fait que ces clauses sont nulles et que Twitter n’a en réalité jamais obtenu valablement les droits sur lesquels il prétendait s’appuyer.

Superposition du droit de la protection des données personnelles

J’ai dit que j’allais m’en tenir dans ce commentaire aux questions de propriété intellectuelle, mais le passage analysé ci-dessus est suivi par un autre qui montre l’imbrication possible des questions de propriété intellectuelle et de protection des données personnelles.

En effet en parlant de « contenus », Twitter a toujours joué sur les mots, car les messages, photos et vidéos postés par ses utilisateurs sont à la fois susceptibles d’être des oeuvres de l’esprit et des données à caractère personnel, les deux qualifications pouvant d’ailleurs se superposer. Or jusqu’à présent, un opérateur comme Twitter avait tout intérêt à traiter ces « contenus » plutôt comme des oeuvres, car le droit d’auteur constitue un droit de propriété que l’on peut se faire céder, ce qui n’est pas le cas du droit des données personnelles qui ne fonctionne pas de cette manière.

Or les CGU de Twiter contiennent aussi le passage suivant :

Ces règles existent afin de permettre un écosystème ouvert tenant compte de vos droits. Vous comprenez que nous sommes susceptibles de modifier ou d’adapter votre Contenu lorsque nous ou nos partenaires le distribuons, le syndiquons, le publions ou le diffusons, et/ou d’apporter des modifications à votre Contenu afin de l’adapter sur différents supports.

Le juge a examiné la validité de cette clause, et contrairement à précédemment, il l’à fait au regard de la protection des données personnelles et pas du respect du droit d’auteur, le conduisant à la conclusion suivante :

les « Contenus » transmis à la plate-forme par l’utilisateur étant susceptibles de comprendre des données personnelles, la clause qui confère au fournisseur du service un droit de modification, d’agrégation sur tous les contenus générés par l’utilisation du service, sans informer précisément l’utilisateur la finalité des traitements, est illicite comme contraire aux dispositions de l’article 32-I de la Loi Informatique et Libertés précitée. Elle sera donc réputée non écrite de ce chef.
Un traitement de données à caractère personnel ne peut en effet être licite que si la personne donne son consentement en fonction d’une finalité déterminée, qui doit lui être clairement annoncée à l’avance. Or ici, Twitter prétend pouvoir distribuer, modifier, republier et transmettre à des tiers ces données, ce qu’il fait en permettant à des applications de les récupérer via son API (ce qu’il appelle « l’écosystème ouvert »). Mais il est alors impossible dans ces conditions de prévoir les finalités pour lesquelles ces données sont collectées par des tiers et c’est ce que le juge sanctionne.

Quelles conséquences de ce jugement ?

Je trouve assez intéressant que le juge ait considéré dans sa décision les « contenus » que nous postons sur Twitter pour ce qu’ils sont, à savoir une mixture complexe d’oeuvres et de données à caractère personnel, sans qu’il soit aisé de déterminer de quoi il retourne exactement tant ces aspects sont mêlés dans nos pratiques numériques.

Aussi bien du point de vue du droit d’auteur que du droit à la protection des données personnelles, ces clauses des CGU de Twitter sont abusives et réputées non-écrites, c’est-à-dire qu’elles ne produisent aucun effet juridique. Cela revient à dire que Twitter ne pourra plus « croquer nos contenus », car il s’est cassé les dents sur les dispositions protectrices du droit français, ce dont on peut se réjouir et faire savoir à ceux qui se lamentent un peu trop vite sur la misère du droit dans l’environnement numérique.

Les conséquences de ce jugement sont potentiellement importantes, car au-delà même de Twitter, c’est toute la mécanique des plateformes du capitalisme de surveillance qui fonctionne à partir de ce type de cessions de droits sur les contenus. Quand elles sont dans leur première phase de démarrage, c’est ce qui leur permet de revendre à prix d’or cette « propriété-fantôme » accumulée sur les contenus de leurs utilisateurs, comme l’ont fait Instagram, Tumblr ou LinkedIn ces dernières années. Or si les plateformes ne peuvent plus sécuriser des titres de propriété stables, cela remet peut-être sérieusement en cause ces transactions qui constituent le « rêve humide » de toutes les startups désireuses de se revendre au plus offrant.

Ce sont aussi ces licences de réutilisation qui permettent aux plateformes de se constituer un écosystème de partenaires à qui ils autorisent la récupération des données et contenus des utilisateurs, via des API. Le scandale Cambridge Analytica trouve là son origine, puisque Facebook procédait exactement de cette façon. Mais plus récemment, l’affaire Disinfolab a soulevé les même questions puisque les données ont été récupérées par cette ONG auprès du service Visibrain qui commercialise les données de Twitter à des fins d’analyse marketing.

Tout cet écosystème toxique de « valorisation » des contenus et des données personnelles reposait sur un enchaînement de clauses de cession de droits et d’autorisations dans lequel le TGI de Paris vient de donner un grand coup de pied. Il ne serait donc pas étonnant que Twitter fasse appel de cette décision, car elle le frappe au cœur même de son modèle économique dont on voit mal comment il pourrait le garder intact s’il devait se conformer au jugement.

Mais d’un autre côté, cette décision (dont je n’ai ici commenté que quelques unes des 236 pages !) livre aussi une arme redoutable à la société civile, car les mêmes causes produisant les mêmes effets, toutes les plateformes du capitalisme de surveillance sont désormais à la merci de qui voudra les attaquer, puisque leur fonctionnement repose en grande partie sur de telles clauses abusives, qui ne sont désormais plus que des tigres de papier.

La « Commons Clause » de Redis : une mauvaise réponse à de vraies questions ?

dimanche 26 août 2018 à 23:03

La semaine dernière a été marquée par une polémique qui a traversé la communauté de l’Open Source. Elle a pour origine la décision de la société américaine Redis Labs, spécialisée dans les solutions de gestion de bases de données, de modifier la licence sous laquelle elle propose certains des logiciels qu’elle développe. Utilisant jusqu’alors une licence très ouverte (BSD), elle a opté pour une autre licence libre (Apache), mais – et c’est ce qui a fait débat – en lui adjoignant une clause supplémentaire dite « Commons Clause », destinée à protéger ses intérêts commerciaux.

Voici une traduction en français de ce mécanisme :

Le Logiciel vous est fourni par le Concédant en vertu de la Licence, telle que définie ci-dessous, sous réserve de la condition suivante.

Sans restreindre les autres conditions de la Licence, l’octroi de droits en vertu de la Licence n’inclura pas, et la Licence ne vous accorde pas, le droit de vendre le Logiciel.

Aux fins de ce qui précède, « Vendre » signifie exercer tout ou partie des droits qui vous sont accordés en vertu de la Licence pour fournir à des tiers, contre rémunération ou autre contrepartie (y compris, sans limitation, les frais d’hébergement ou de services de support/conseil liés au Logiciel), un produit ou un service dont la valeur dérive, entièrement ou substantiellement, de la fonctionnalité du Logiciel.

Et voilà comment Redis Labs justifie ce changement sur son site :

Les logiciels modernes d’infrastructure Open Source ont créé plus de valeur au cours de la dernière décennie que nous n’aurions pu l’imaginer. Les bases de données, les orchestrateurs, les systèmes distribués et autres technologies logicielles alimentent désormais presque toutes les entreprises de la planète ; tout cela grâce à la philosophie collaborative et partagée de la communauté Open Source.

Cependant, les fournisseurs de cloud d’aujourd’hui ont à maintes reprises violé cette éthique en tirant parti de projets Open Source emblématiques et en les reconditionnant en offres de services concurrents et propriétaires. Ces fournisseurs de cloud contribuent très peu (voire pas du tout) à ces projets Open Source. Au lieu de cela, ils utilisent leur position monopolistique pour en tirer des centaines de millions de dollars de revenus. Déjà, ce comportement a endommagé les communautés Open Source et mis hors service certaines des entreprises qui les soutiennent.

Redis constitue un exemple de ce paradigme. Aujourd’hui, la plupart des fournisseurs de cloud computing offrent Redis en tant que service géré sur leur infrastructure et profitent d’énormes revenus provenant de logiciels qu’ils n’ont pas développés. Redis Labs mène et finance le développement de Redis Open Source et mérite de bénéficier des fruits de ces efforts. Redis est et restera toujours sous licence BSD Open Source, mais nous avons décidé d’empêcher les fournisseurs de cloud de créer des services gérés à partir de certains add-ons sur Redis (par exemple RediSearch, Redis Graph, ReJSON, Redis-ML, Rebloom). Ces derniers sont sous licence Apache 2.0 modifiée avec la « Commons Clause ».

Malaise dans l’Open Source…

En réalité, Redis Labs fait partie de ces nombreuses sociétés spécialisées dans l’Open Source qui ne commercialisent par des logiciels, mais des services associés. Elle offre sous licence libre un système de gestion de base de données que d’autres entreprises peuvent très bien reprendre, à condition de disposer de leur propre infrastructure d’hébergement. Mais pour celles qui n’ont pas ces facilités, elle propose un service payant d’hébergement basé sur cette solution, qui lui permet de réaliser son chiffre d’affaire.

Ce que critique Redis Labs, c’est que d’autres entreprises se comportent comme des « passagers clandestins » en récupérant le logiciel sans contribuer en retour à son développement, mais en fournissant des services payants qui lui font une concurrence directe. D’où la décision de garder le coeur du logiciel sous licence Open Source, mais d’ajouter une clause pour certains modules qui va empêcher dorénavant la commercialisation de services basés sur ce système. Il restera toujours possible pour d’autres entreprises de récupérer le logiciel pour leurs besoins internes, si elles sont en mesure de supporter par elles-mêmes les coûts de déploiement et d’infrastructure, mais la formule en B to B deviendra dorénavant une exclusivité de Redis Labs.

Ce changement de licence a été fraîchement accueilli par une partie de la communauté Open Source, qui lui reproche de contrevenir à ses principes fondateurs. C’est le cas par exemple du développeur Drew DeVault, qui a écrit un intéressant billet à ce sujet sur son blog, intitulé «La Commons Clause va détruire l’Open Source». Il rappelle que la première des quatre libertés du logiciel libre implique que l’on puisse faire usage du programme à n’importe quelle fin et cela implique de ne pas discriminer les utilisations commerciales. C’est ce que l’on peut lire sur le site du projet GNU, qui a défini les règles du logiciel libre :

« Logiciel libre » ne signifie pas « non commercial ». Un programme gratuit doit être disponible pour l’utilisation commerciale, le développement commercial et la distribution commerciale. Le développement commercial du logiciel libre n’est plus inhabituel ; il joue même un rôle très important. Il se peut que vous ayez payé pour obtenir des copies de logiciels libres, ou que vous ayez obtenu des copies sans frais. Mais quelle que soit la façon dont vous avez obtenu vos copies, vous avez toujours la liberté de copier et de modifier le logiciel, voire de vendre des copies.

Drew DeVault reconnaît bien que la « concurrence déloyale » exercée par les passagers clandestins dénoncés par Redis Labs constitue un problème pouvant affecter la capacité des projets Open Source à s’auto-financer et il raconte en avoir lui-même subi les frais. Mais à ses yeux, remettre en cause les principes des licences libres n’est pas une solution acceptable et il recommande plutôt de se tourner vers le financement participatif, notamment sous la forme de dons récurrents versés par le public tous les mois à une projet qui permettent d’obtenir une certaine stabilité.

J’avoue pour ma part me sentir mal à l’aide aussi bien avec la stratégie de Redis Labs qu’avec les arguments de ses détracteurs. Les deux points me paraissent en réalité refléter les contradictions qui affectent le mouvement du Libre et de l’Open Source à propos des questions économiques, et j’avais d’ailleurs déjà eu l’occasion de pointer ces difficultés dans un billet publié en juin dernier sur ce blog : « Les Communs numériques sont-ils condamnés à devenir des Communs du Capital ? »

De la difficulté à penser les logiciels comme Commun(s)

Drew Devault estime que si cette clause se répandait en étant adoptée par de nombreux projets, cela reviendrait à « détruire l’Open Source » car elle aurait pour effet de transformer les logiciels libres en « logiciels propriétaires ». On ne peut pas lui donner tort sur ce point, car cette Commons Clause ressemble en effet à la clause « Non-Commercial » des licences Creative Commons (elle a néanmoins une portée moins grande, car la Commons Clause n’interdit que la vente de la ressource, alors que le NC des Creative Commons interdit tout usage ayant pour but « la recherche d’un avantage commercial », ce qui empêcherait par exemple que des entreprises réutilisent simplement le logiciel en interne). J’ai déjà eu l’occasion de dire, il y a quelques temps, que je n’étais pas opposé à l’emploi de la clause NC des Creative Commons, notamment pour les oeuvres culturelles, lorsque c’est un moyen pour les créateurs de mettre en place un modèle économique viable. Mais en matière de logiciels, les choses sont relativement différentes, car il existe à présent un écosystème économique robuste, avec des formules diversifiées ayant fait leurs preuves sans passer par le NC. A ce titre la Commons Clause marque bien un retour en arrière et c’est une résurgence problématique de la logique propriétaire. Elle revient finalement à s’appuyer sur le droit de propriété pour rétablir une exclusivité commerciale au profit d’une entreprise.

De ce point de vue, je trouve dommageable que Redis Labs ait choisi d’appeler ce mécanisme « Commons Clause », faisant par là référence à la théorie des Communs. Certes ce courant s’inscrivant dans la lignée des travaux d’Elinor Ostrom prend en compte le problème des « passagers clandestins » contre lesquels il convient de lutter pour assurer la pérennité des ressources mises en partage. Mais cette pensée est aussi basée sur une critique de l’exclusivisme propriétaire qui fait ici un retour assez brutal avec la clause ajoutée par Redis Labs. Drew Devault va jusqu’à dire que les développeurs qui ont contribué aux modules du projet Redis ont été floués et que la société leur a « volé leur travail », puisqu’elle va à présent l’enfermer dans un logiciel propriétaire. On voit donc que cette intention de lutter contre les passagers clandestins finit par déboucher sur une forme d’enclosure du Commun, ce qui est contradictoire.

D’un autre côté, la réaction des tenants de la tradition de l’Open Source ne me paraît pas non plus satisfaisante, notamment leur manière de s’accrocher au dogme de la non-discrimination des usages commerciaux. C’est d’ailleurs un problème affectant de manière bien plus large la sphère des logiciels libres et Open Source, qui ont dans leur grande majorité soit du mal à dégager par eux-mêmes les moyens nécessaires pour s’auto-financer, soit des liens de dépendance économique avec des firmes capitalistes sans lesquels ils ne pourraient assurer leur pérennité. Si l’on reprend le cas de Redis, il faudrait idéalement que les entreprises de cloud computing consacrent des moyens pour contribuer en retour au développement de son logiciel, ce qui est par exemple la situation de Linux. Mais cette configuration soulève elle aussi des questions dans la mesure où elle transforme les logiciels libres en des « Communs du Capital », placés dans la dépendance d’entreprises dont le comportement peut par ailleurs poser question. On peut par exemple se féliciter qu’IBM, Google, Facebook ou même Microsoft soient devenus des contributeurs importants à Linux, mais ces acteurs constituent aussi des incarnations du « capitalisme de surveillance » que les libristes dénoncent et combattent par ailleurs…

Il en résulte une contradiction extrêmement problématique, qui ne pourra à mon sens être levée qu’en se donnant la capacité de discriminer certains usages commerciaux parmi d’autres. On pouvait difficilement s’attendre à ce que Redis Labs procède ainsi, car cette société constitue elle-même une entreprise capitaliste tout ce qu’il y a de plus classique, dont le financement a été assuré en mode startup par des levées de fonds auprès de pourvoyeurs de capital-risque. Il était donc assez logique qu’ils choisissent de protéger leurs intérêts commerciaux en retombant dans la logique propriétaire. Mais il existe d’autres propositions de licences, qui envisagent autrement cette fameuse « Commons Clause » et dans un sens – à mon avis – bien plus compatible avec la philosophie des Communs.

Sortir de l’agnosticisme économique

C’est le cas des licences à réciprocité renforcée, dont j’ai eu l’occasion de parler à maintes reprises sur ce blog. La plus connue est la Peer Production Licence, élaborée par l’allemand Dmitry Kleiner en modifiant une licence Creative Commons CC-BY-NC-SA. Le résultat pourrait paraître à première vue assez proche de la formule « Licence Apache + Commons Clause » de Redis Labs, sauf que Kleiner n’avait pas pour but d’interdire tous les usages commerciaux, mais seulement ceux d’entreprises non-structurées sous la forme de coopératives. Son intention était de créer un pont entre la sphère du Libre et celle de l’Economie Sociale et Solidaire (ESS) pour protéger les ressources des comportements des acteurs obéissant à une logique « extractiviste ». L’idée consiste à faire en sorte que la valeur générée par les Communs ne soit pas aspirée en dehors du cercle des acteurs contribuant à leur développement pour participer à l’accumulation du capital. On voit donc que le problème n’est pas en lui-même la commercialité ou le fait d’opérer sur le marché, mais certains types de comportements économiques découlant de la nature même des acteurs.

L’enjeu pour les Communs n’est pas – comme veut le faire Redis Labs – de préserver le modèle économique d’une entreprise déterminée, mais de constituer au niveau global une « Economie des Communs » qui puisse garantir le développement et la pérennité des ressources partagées, en coupant les liens de dépendance avec les entreprises capitalistiques classiques. Le problème du « capitalisme de surveillance » réside autant dans la surveillance que dans le capitalisme lui-même, or le mouvement du Libre et de l’Open Source s’est interdit d’attaquer le fond du problème à cause de « l’agnosticisme économique » inhérent à la manière dont les quatre libertés du logiciel libre ont été formulées.

La Peer Production Licence a eu le mérite de montrer la possibilité d’une autre voie, mais il en a résulté un prototype encore imparfait. D’autres tentatives de formulation de licences à réciprocité sont actuellement en cours. La Coop des Communs propose par exemple un « Coopyright » articulé autour de l’idée de non-lucrativité ou de lucrativité limitée, qui permet d’atteindre un résultat assez similaire à la Peer Production Licence, mais en embrassant l’ensemble des structures ESS et pas seulement les coopératives. Une autre piste à surveiller est celle du projet CoopCycle qui va bientôt proposer une licence à réciprocité adaptée au logiciel. Visant à lutter contre l’ubérisation en proposant une alternative éthique à des sociétés comme Deliveroo, CoopCycle doit nécessairement se donner les moyens de discriminer entre les acteurs commerciaux comme ils l’expliquent dans ce billet (« Comment protéger les logiciels libres contre la prédation capitalistique ?« ) :

Si Wikipedia prouve que les licences libres sont tout à fait compatibles avec la gestion en Commun, l’objectif politique ne l’est pas. En effet, vous conviendrez qu’il serait paradoxal de développer un logiciel dans le but d’offrir une alternative aux géants de la foodtech, plus responsable socialement, et dans le même temps de laisser se développer des entreprises beaucoup moins scrupuleuses quant au statut et à la protection sociale de leurs livreurs sur la base de ce même logiciel. C’est pourquoi aujourd’hui, toute la problématique à laquelle nous cherchons à répondre est celle de la licence adéquate pour concilier les grands idéaux du mouvement libriste avec cette exigence de responsabilité sociale.

***

Voilà précisément ce qu’il manque à la Commons Clause de Redis Labs pour mériter réellement son nom : un lien assumé avec la transformation sociale et la responsabilité sociale, associé à une vision économique claire capable de distinguer chez un acteur marchand un comportement prédateur d’un comportement génératif. On peut donc dire au final que la Commons Clause constitue une mauvaise réponse à de bonnes questions. L’erreur de Redis Labs est de prétendre faire du Commun en ne prenant en compte que la protection de son propre modèle économique, sans voir que l’enjeu véritable n’est pas microéconomique mais macroéconomique. Il consiste à mettre fin aux liens de dépendance qui font encore trop souvent des Communs numériques de simples pseudopodes du Capital participants à sa reproduction, là où l’urgence absolue consiste à se donner les moyens d’en sortir.

Affaire DisinfoLab : quelles retombées potentielles sur la recherche publique et la science ouverte ?

mardi 21 août 2018 à 17:39

Le début du mois d’août a été marqué par l’affaire Disinfolab qui a mis un violent coup de projecteur sur la question de la réutilisation des données issues des réseaux sociaux à des fins de recherche. S’inscrivant dans le contexte explosif de l’affaire Benalla, elle a fait naître une bruyante polémique, pas forcément propice au développement d’une analyse juridique rigoureuse des différentes questions qu’elles soulèvent. Maintenant qu’un peu de temps est passé, il paraît intéressant de se replonger dans cette affaire qui constitue un véritable cas d’école pour l’application du nouveau cadre de la protection des données personnelles issu du RGPD. La CNIL ayant été saisie suite au dépôt de nombreuses plaintes, il sera extrêmement intéressant de regarder sa décision, qui va devoir trancher beaucoup de points épineux.

Pour mémoire, l’affaire éclate le 8 août dernier lorsque l’ONG belge EU Disinfolab publie les résultats d’une étude des tweets émis à propos de l’affaire Benalla. Elle entend démontrer qu’une forte proportion des messages (44%) a été publiée par une petite minorité hyperactive (1% des utilisateurs) dont 27% seraient liés à un « écosystème russophile ». Face aux protestations et à la remise en cause de ces résultats, l’ONG publie en ligne plusieurs fichiers dans un soucis de transparence et à des fins de « vérification méthodologique » : un listant 55 000 comptes ayant tweeté sur l’affaire, un pointant 3890 utilisateurs jugés « hyperactifs » et un dernier – celui qui a fait le plus réagir – classant ces comptes par affiliation politique : LR/souverainistes, Rassemblement national, France insoumise, médias/LREM.

C’est à partir de là que les accusations de « fichage politique » et d’attributions de « matricules » ont commencé à fuser, ainsi que les soupçons de violation de la réglementation sur la protection des données personnelles, du fait notamment de l’absence de recueil du consentement des personnes concernées. Beaucoup de choses ont été dites et écrites à ce sujet, mais il me semble que la plupart des analyses que j’ai pu voir passer manquent le plus intéressant. En effet, comme j’ai pu le montrer dans un post publié sur ce blog en juillet dernier, le RGPD contient un régime dérogatoire destiné à favoriser les activités de recherche basées sur des informations à caractère personnel. L’affaire Disinfolab va sans doute constituer le premier « crash test » pour ce corpus de règles, avec l’enjeu pour la CNIL de commencer à délimiter la portée exacte de ces dérogations.

Voilà la raison pour laquelle l’affaire Disinfolab va sans doute avoir des retombées qui dépasseront ce cas particulier pour affecter le secteur de la recherche tout entier. On a pu déjà voir le site « Les crises« , en pointe sur le sujet, faire un parallèle entre les agissements de l’ONG EU Disinfolab et le projet « Politoscope » porté par l’Institut des Systèmes Complexes, une unité mixte de recherche du CNRS. Procédant eux aussi à des analyses de données récupérées en masse à partir de Twitter, ces chercheurs identifient des « communautés politiques », mais sans diffuser la base de données source. Il n’en reste pas moins que ces travaux ont pareillement fait l’objet d’une accusation de « fichage politique » et de questionnements quant au respect des règles de protection des données personnelles :

Mais quelle est la réelle valeur ajoutée de ces travaux ? Bien sûr on apprend des choses, mais est-ce vraiment si important ? Cela vaut-il le risque que de tels fichiers soient constitués – et donc peut-être utilisés un jour (ou simplement piratés) ? Êtes-vous à l’aise avec le fait qu’un tel fichier existe ?

Big Brother ?

On imagine cependant que le laboratoire aura fait montre de prudence que DisinfoLab.

Mais cela pose néanmoins de nombreuses questions : les données sont-elles anonymisées, comment sont elles-stockées, est-il vraiment impossible de lever l’anonymat si la base était piratée ? (cela semble difficile, car il suffit de retrouver certains tweets dans Twitter, etc.)

Par ailleurs, l’affaire Disinfolab soulève aussi des questions vis-à-vis de la Science Ouverte. La personne à l’origine de l’étude – le doctorant Nicolas Vanderbiest – justifie le choix de publier les fichiers problématiques en ligne par un souci de transparence pour permettre à des tiers de vérifier les résultats par l’accès aux données source. C’est typiquement ce que prône l’idée d’ouverture des données de la recherche, promue notamment par le Plan national pour la Science Ouverte publié par le Ministère de l’Enseignement et de la Recherche en juillet dernier. Plus encore, l’ouverture des données de recherche est même une obligation légale à laquelle les équipes de recherche sont désormais soumises, comme l’a montré un rapport récent de la BSN. Mais l’exigence d’accès aux données est à concilier avec l’impératif de protection des données personnelles et l’obligation d’ouverture ne concerne pas ces informations. Il n’en reste pas moins que si les principes sont relativement clairs, les chercheurs vont se retrouver pris entre des injonctions contradictoires qui peuvent être assez redoutables à concilier, surtout dans le contexte tendu d’une affaire médiatisée comme celle-ci.

C’est la raison pour laquelle il me semble intéressant d’examiner les principales questions juridiques soulevées par cette affaire, sans l’ambition d’en faire le tour mais en essayant de faire ressortir les enjeux qui seront sans doute au coeur de la décision à venir de la CNIL.

Vous avez dit « recherche scientifique » ?

Comme on va le voir un peu plus loin, EU Disinfolab va avoir intérêt à revendiquer le bénéfice du régime dérogatoire prévu par le RGPD pour les activités de recherche scientifique, notamment pour le recueil et le traitement des données personnelles sans le consentement des personnes. Néanmoins pour cela, encore faut-il que l’activité de l’ONG puisse être juridiquement qualifiée de « recherche » ce qui va sans doute poser des questions.

Comme je l’avais montré en juillet dernier, le RGPD a une conception extensive de la notion de « recherche » qu’il ne limite pas à la recherche publique, comme on le voit nettement dans le considérant 159 :

Aux fins du présent règlement, le traitement de données à caractère personnel à des fins de recherche scientifique devrait être interprété au sens large et couvrir, par exemple, le développement et la démonstration de technologies, la recherche fondamentale, la recherche appliquée et la recherche financée par le secteur privé.

Le fait que Disinfolab ne soit pas un laboratoire de recherche au sens propre du terme n’est donc pas en soi un point bloquant, puisque le RGPD n’a pas une conception « organique » de cette activité (c’est-à-dire devant être déduite de la nature des structures qui exercent le traitement des données).  Cela contraste avec l’archivage, pour lequel le RGPD prévoit aussi des dérogations, mais en prenant le soin de préciser que seuls les « traitements à des fins archivistiques dans l’intérêt public » sont couverts, ce qui exclut le secteur des archives privées.

Si le RGPD n’a pas une vision « organique » des activités de recherche, il en a une vision « téléologique », c’est-à-dire (et c’est logique vu le fonctionnement du texte) qu’il envisage la recherche comme une finalité spécifique poursuivie. Or cette spécificité doit se manifester par la méthode employée pour le traitement des données, qui doit répondre aux critères de la démarche scientifique.

C’est là que l’affaire Disinfolab va mettre la CNIL dans une situation délicate, car il va lui falloir se prononcer sur « ce qu’est la science », ce qui n’est jamais confortable lorsqu’on est une institution publique. L’étude de Disinfolab a reçu de nombreuses critiques, y compris de la part d’autres chercheurs, pointant la méthodologie employée ou des « biais » introduits pour conduire au résultat recherché. D’autres ont aussi souligné l’origine des financements de la structurante, la proximité dérangeante entre l’ONG et une agence de communications, ainsi que les liens entre certains des co-auteurs de l’étude et la République en Marche.

Jusqu’à quel point l’emploi d’une méthodologie défaillante remet-elle en cause la scientificité d’une étude ? Et jusqu’à quel point des biais politiques peuvent aussi avoir cet effet ? C’est une question délicate et il est difficile de répondre dans l’absolu. Peut-être vaudrait-il mieux d’ailleurs que la CNIL puisse se prononcer sans avoir entrer dans ce genre de débats, mais il sera difficile sans doute de l’esquiver puisque la légalité des agissements de Disinfolab dépend en partie de leur rattachement à la recherche scientifique.

Constituer la base de données sans le consentement des personnes

On a l’habitude de dire que le RGPD (et avant lui la loi Informatique et Libertés) impliquent que les personnes donnent leur consentement en amont du traitement des données les concernant, mais il s’agit d’une simplification abusive. Car en réalité, le consentement ne constitue qu’un des six fondements prévus par le texte pour un traitement licite de données.

Or beaucoup de protestations que l’on a pu voir sur Twitter mettaient en avant le fait qu’on ne leur avait pas demandé le consentement des personnes pour constituer la base à partir de données récupérées sur le réseau social. Cette base a ensuite été décrite comme une forme de « fichage politique » et l’attribution de numéros aux individus a été comparée à celle de « matricules ».

Ces termes ont servi à faire enfler la polémique, mais ils sont assez inappropriés pour analyser juridiquement de quoi il retourne dans ce cas d’espèce. Comme Disinfolab avait pour but de catégoriser des personnes selon leurs opinions politiques, nous sommes ici en présence de ce que le RGPD appelle des « données particulières » pour lesquels les traitements sont en principe interdits en raison de leur sensibilité :

Le traitement des données à caractère personnel qui révèle l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l’appartenance syndicale, ainsi que le traitement des données génétiques, des données biométriques aux fins d’identifier une personne physique de manière unique, des données concernant la santé ou des données concernant la vie sexuelle ou l’orientation sexuelle d’une personne physique sont interdits.

Néanmoins, le texte prévoit une liste de 10 exceptions dans lesquelles les traitements deviennent possibles, la première d’entre elles étant effectivement « lorsque la personne concernée a donné son consentement explicite […] pour une ou plusieurs finalités spécifiques« . Mais il existe deux autres situations où le consentement n’est pas nécessaire et qui sont applicables ici  :

e) le traitement porte sur des données à caractère personnel qui sont manifestement rendues publiques par la personne concernée ;

j) le traitement est nécessaire à des fins archivistiques dans l’intérêt public, à des fins de recherche scientifique ou historique ou à des fins statistiques, conformément à l’article 89, paragraphe 1, sur la base du droit de l’Union ou du droit d’un État membre qui doit être proportionné à l’objectif poursuivi, respecter l’essence du droit à la protection des données et prévoir des mesures appropriées et spécifiques pour la sauvegarde des droits fondamentaux et des intérêts de la personne concernée.

EU Desinfolab pourra vraisemblablement s’appuyer sur l’une ou l’autre de ces dispositions, qui peuvent avoir chacune leur intérêt. La première est intéressante pour l’ONG, car elle pourra en revendiquer le bénéfice même si la CNIL estimait que son activité n’a pas un véritable caractère scientifique. Mais la seconde est plus intéressante encore, car comme nous le verrons ci-après, invoquer la poursuite d’une finalité de recherche permet de bénéficier de dérogations supplémentaires, outre le fait de pouvoir se passer du consentement des personnes.

Il n’en reste pas moins qu’en ce qui concerne la constitution même de la base sans consentement, les critiques adressées à l’ONG étaient sans doute infondées, car le RGPD contient des dispositions sur lesquelles Disinfolab pourra s’appuyer et c’est aussi a fortiori le cas pour le projet Politoscope de l’ISC.

Récupérer les données auprès de Twitter

Un des problèmes potentiels vient néanmoins de la source auprès de laquelle les données ont été collectées, à savoir l’API de Twitter. Nicolas Vanderbielt a lui-même indiqué avoir eu recours à la plateforme Visibrain qui offre un accès aux données du réseau social en contrepartie d’un abonnement payant, cette société étant elle-même en affaire avec Twitter pour lequel ce type de « revente » des données constitue une partie substantielle de son modèle économique. On pourrait d’ailleurs arguer que les personnes ont en réalité consenti à ce que des tiers aient accès de cette façon à leurs données, lors de l’acceptation des CGU de Twitter qui prévoient ce type de monétisation. Mais il y a en réalité peu de chances que cela soit compatible avec l’exigence de recueil d’un consentement « libre et éclairé » pour une finalité spécifique prévue par le RGPD. Twitter vient d’ailleurs de subir une lourde condamnation en justice en France qui a invalidé 250 clauses de ces CGU jugées « abusives ».

Donc même si les données étaient techniquement récupérables par le biais de son API, il est probable que les traitements subséquents aient été dépourvus de base légale, sauf si l’on se tourne à nouveau vers le régime dérogatoire prévu au bénéfice des activités de recherche. Le RGPD prévoit en effet une exception au principe de limitation des finalités qui permet, lorsque des données sont collectées initialement dans un certain but, de les traiter ensuite à des fins de recherche en considérant que cette nouvelle finalité est automatiquement compatible avec le but premier :

[…] le traitement ultérieur à des fins archivistiques dans l’intérêt public, à des fins de recherche scientifique ou historique ou à des fins statistiques n’est pas considéré, conformément à l’article 89, paragraphe 1, comme incompatible avec les finalités initiales (limitation des finalités);

Cela signifie que si Twitter a bien collecté des données de ses utilisateurs correctement (ce qui n’est cependant pas absolument certain au vu de ses CGU), il peut ensuite les remettre à des chercheurs afin que ceux-ci les analysent, sans avoir à redemander le consentement des personnes. Cette dérogation est en réalité puissante, car elle permet à des chercheurs de récupérer des données auprès de tiers, sans avoir à les collecter eux-mêmes. Mais pour autant, elle n’exonère pas complètement les chercheurs du respect des droits des personnes sur leurs données et cela va avoir de retombées sur l’affaire Disinfolab.

Respecter les droits d’information et d’opposition des personnes

Dans la philosophie du RGPD, même lorsqu’elles sont donné leur accord pour un traitement ou lorsque ce traitement peut s’exercer sans consentement, les personnes conservent une série de droits sur leurs données destinés à leur assurer de garder le contrôle sur les usages : information, accès, rectification, effacement, limitation, opposition, portabilité. Mais le texte prévoit que les États-membres peuvent activer des options permettant à certaines activités de bénéficier de dérogations pour faire obstacle à la mise en œuvre du droit des personnes. C’est notamment le cas pour les traitements à des fins archivistiques et la France a choisi d’appliquer ces dérogations au niveau national pour que les documents d’archives publiques ne puissent pas faire l’objet de demandes de droit à l’oubli (effacement). Elle aurait également pu activer ces options pour la recherche scientifique, mais elle a choisi de ne pas le faire, ce qui fait que les activités de recherche restent bien soumises au respect du droit des personnes.

Le premier d’entre eux est le droit à l’information qui veut que les individus soient prévenus d’une activité de traitement de données les concernant, et ce même lorsque les informations sont récupérées auprès de tiers sans consentement. Néanmoins, le RGPD prévoit tout de même un aménagement pour la recherche lorsque :

la fourniture de telles informations se révèle impossible ou exigerait des efforts disproportionnés, en particulier pour le traitement à des fins archivistiques dans l’intérêt public, à des fins de recherche scientifique ou historique ou à des fins statistiques […]

Ici, les données récupérées concernaient des milliers d’utilisateurs de Twitter et on peut sans doute considérer que les informer individuellement aurait nécessité un « effort disproportionné » pour l’ONG. Le texte précise ensuite néanmoins que dans une telle hypothèse :  « le responsable du traitement prend des mesures appropriées pour protéger les droits et libertés ainsi que les intérêts légitimes de la personne concernée, y compris en rendant les informations publiquement disponibles.« . Or il n’est pas certain que le site de Disinfolab ait été irréprochable de ce point de vue.

Par ailleurs, les personnes disposent d’un droit d’opposition pour faire cesser un traitement, que la CNIL a d’ailleurs incité les internautes à utiliser en sollicitant directement l’ONG. Là aussi, le RGPD prévoit des aménagements pour la recherche, vu que des chercheurs peuvent refuser de faire droit à de telles demandes si la suppression des données a l’effet de « rendre impossible ou de compromettre gravement la réalisation des objectifs dudit traitement » (mais ce n’est manifestement pas le cas ici). Enfin, il faudra sans doute que la CNIL examine si les traitements effectués par Disinfolab constituaient des opérations de « profilage », car cela ouvre un droit d’opposition spécifique aux personnes, sans que le texte soit très clair sur la manière dont cela doit être articulé avec le régime dérogatoire prévu pour la recherche.

Republier les données source et permettre la vérification

On le voit, jusqu’ici Disinfolab a quand même d’assez bonnes chances de pouvoir s’appuyer sur ces exceptions mises en place par le RGPD pour la recherche de manière à couvrir ses activités et ce n’est en réalité pas en soi la constitution de la base qui pose réellement problème, même en procédant à une classification des personnes par opinion politique.

Là où l’ONG a manifestement commis une lourde erreur, c’est en republiant ces fichiers de données sur Internet. Un certain nombre de commentateurs ont trouvé étrange que cela puisse soulever des difficultés, car il est vrai – au moins pour les informations brutes figurant sur les profils – que celles-ci étaient déjà publiques et accessibles pour quiconque. Mais ce type de réactions révèle en réalité une certaine incompréhension du sens de la protection des informations à caractère personnel. Le but de cette législation n’est pas uniquement de protéger la confidentialité ou même la vie privée (ce n’est qu’un effet indirect de ces dispositions). Son but réel est de donner aux individus un pouvoir de contrôle à chaque fois qu’il y a traitement de données personnelles. Or republier des données publiées à un endroit constitue incontestablement un nouveau traitement, quand bien même les personnes auraient elles-mêmes procédé à la publication initiale.

Ici, la question est de savoir si le traitement que constitue cette republication des données sources était nécessaire à la réalisation de la finalité de recherche. Or la réponse est clairement non. Que Disinfolab ait eu besoin de récupérer les données pour effectuer ses analyses constituait une nécessité. On peut cependant quand même se demander si l’ONG n’aurait pas dû immédiatement procéder à une anonymisation des données ou, au moins, à leur pseudonymisation. Car pour déterminer que 44% des tweets ont été émis par 1% des utilisateurs, il n’est nul besoin de conserver des données identifiantes. Le RGPD est d’ailleurs très clair sur le fait que les traitements réalisés à des fins de recherche bénéficient certes de dérogations, mais tout en restant strictement soumis aux principes de nécessité et de proportionnalité :

Les conditions et garanties en question peuvent comporter des procédures spécifiques permettant aux personnes concernées d’exercer ces droits si cela est approprié eu égard aux finalités du traitement spécifique concerné, ainsi que des mesures techniques et organisationnelles visant à réduire à un minimum le traitement des données à caractère personnel conformément aux principes de proportionnalité et de nécessité.

Or ici, non seulement il est loin d’être certain que la conservation de données non-anonymisées ou pseudonymisées était nécessaire pour conduire cette recherche, mais il est par ailleurs clair qu’aucune nécessité ne justifiait que ces données soient ensuite republiées sur Internet, où elles ont été massivement téléchargées et repartagées.

On objectera que Desinfolab respectait au contraire l’esprit de la démarche scientifique en donnant accès aux données brutes ayant servi à réaliser cette étude dans la lignée des préceptes de la Science Ouverte (Open Science). Mais des vérifications auraient sans doute pu être pareillement effectuées sur la base de données anonymisées. Et si ce n’était pas le cas, l’ONG aurait dû ménager un accès au coup par coup aux personnes souhaitant procéder à ces vérifications (autres chercheurs ou journalistes), en prenant les précautions nécessaires pour éviter la dissémination incontrôlées des données. La dérogation que j’ai mentionnée plus haut au principe de limitation des finalités de traitement s’applique d’ailleurs sans doute aussi bien à la réalisation d’une recherche initiale à partir de données collectées auprès de tiers qu’à des traitements effectués ensuite pour vérifier les résultats d’une recherche, car cette opération fait intrinsèquement partie de ce qu’est la démarche scientifique (validation par les pairs). Mais encore faut-il prendre les précautions nécessaires pour éviter l’atteinte aux droits des personnes, ce qui exclut la diffusion sauvage des informations, qui plus est sur une simple Dropbox !

Disinfolab a d’ailleurs bien conscience de la fragilité de sa position, car pour essayer de s’en sortir, ils invoquent dans un communiqué ce que l’on peut voir comme le deus ex machina du RGPD :  la notion d’intérêt légitime, l’un des fondements permettant de traiter des données sans consentement des personnes, en précisant ici que la publication a été effectuée au nom de « l’exercice du droit à la liberté d’information et du droit du public à l’information« . Il y a en réalité peu de chances que cela fonctionne, car le RGPD précise bien que l’intérêt légitime – dont il ne donne pas de définition précise – peut être invoqué « à moins que ne prévalent les intérêts ou les libertés et droits fondamentaux de la personne concernée qui exigent une protection des données à caractère personnel« . Or ici, les données collectées étaient des informations sensibles relatives aux opinions politiques des personnes et, encore une fois, il était possible d’étayer les résultats de l’étude sans aller jusqu’à la republication telles quelles des données source.

Game Over.

Quelles leçons pour la recherche scientifique ?

Ce billet est déjà trop long pour que je m’étende davantage, mais il me semble que cette affaire devrait inciter les chercheurs à réfléchir aux conditions de l’étude des données issus de réseaux sociaux. Comme nous l’avons vu, il y a dans le RGPD des dispositions qui permettent sans doute d’exploiter ce type de matériaux, y compris lorsqu’il s’agit de données sensibles, dans le respect des règles de la protection des données. Mais uniquement à condition de prendre certaines précautions élémentaires s’agissant des droits des personnes concernées. Pour parodier Spiderman : « un grand pouvoir implique de grandes responsabilités » et il n’est pas abusif de dire que le RGPD met dans les mains des chercheurs un pouvoir important en matière de traitement de données, car il reconnaît que la conduite de ces activités relève d’un intérêt général justifiant des dérogations aux principes généraux.

En l’état, l’exercice reste néanmoins globalement périlleux, car si les principes sont a peu près clairs, une affaire comme celle-ci montre bien à quel point leur mise en pratique génère encore de nombreuses zones d’ombre. La décision de la CNIL pourra contribuer à lever certaines de ces obscurités, notamment en précisant la portée de ce régime dérogatoire pour la recherche et le périmètre des activités pouvant en bénéficier.

Mais je ne miserai pas uniquement sur la jurisprudence pour élucider les questions soulevées par l’usage des données personnelles à des fins de recherche. Il me semble que la communauté scientifique devrait se montrer proactive en la matière, s’emparer du sujet et définir collectivement des règles éthiques et des bonnes pratiques visant à organiser concrètement l’équilibre entre les droits des chercheurs et ceux des personnes. En matière de données de santé, c’est déjà ce qui existe avec plusieurs méthodologies de référence avalisées par la CNIL au fil du temps et dont elle vient de reconfirmer la validité après l’entrée en vigueur du RGPD. Le respect de ce type de canevas est en effet en phase avec l’esprit du principe d’accountability qui imprègne le règlement européen et impose aux acteurs d’implémenter par eux-mêmes des mesures assurant la conformité des traitements au texte.

On pourrait imaginer une sortie par le haut de cette crise provoquée par l’affaire Disinfolab qui verrait la communauté scientifique (au sens large) se rapprocher de la CNIL pour élaborer une ou des méthodologie de référence en matière d’analyse des données récupérées à partir de sites comme les réseaux sociaux, ainsi que pour les questions d’accès à des données à des fins de vérification des résultats d’une recherche.

 

 

 

Pass Culture : cet obscur objet (d’administration) du désir…

lundi 30 juillet 2018 à 15:11

Cet article a été écrit par Laura Aufrère (CEPN – université Paris 13) et Lionel Maurel. Il s’agit de la version détaillée d’une tribune que vous pouvez retrouver en version courte sur le site Actualitté. Le texte est mis à disposition sous les termes de la licence Creative Commons CC-BY-SA 4.0.

***

500 euros pour tous les jeunes de 18 ans à dépenser pour des biens et services culturels : c’était une des promesses de campagne du candidat Macron qui va commencer à se concrétiser en septembre avec une première expérimentation lancée dans quatre départements. Si un certain flou entoure encore la réalisation de ce projet, on sait déjà que c’est par le biais d’une application mobile présentée comme un « GPS culturel » que les jeunes accéderont à l’offre du Pass Culture.

Le dispositif du Pass Culture intervient dans un contexte général de baisse des financements publics à la culture, en particulier dans les budgets des collectivités territoriales. A cet égard, le maintien et l’augmentation des financements dans le budget national a été salué dans les débats concernant le Projet de Loi de Finances 2018. Ce « budget de transformation », tel qu’il a été promu par la ministre, a été conçu et présenté comme un tournant dans la méthodologie et la re-définition des priorités d’action publique :  l’accès de tous à la culture, la vie culturelle de proximité, l’Europe de la culture. Le Pass Culture en tant que politique publique nationale, ne s’est pas traduit par une baisse des budgets à la création (ligne 131) et au patrimoine (ligne 175), les deux lignes ayant été confortées et même légèrement augmentées, mais bien par un renforcement des priorités liées à la « transmission des savoirs et démocratisation de la culture » (ligne 224).

Pour autant, un certain flottement s’est fait sentir ces derniers mois s’agissant du modèle économique du dispositif. Pour allouer à terme 500 euros à tous les jeunes de 18 ans d’une classe d’âge, il faudrait que le Ministère de la Culture soit en mesure de trouver chaque année 430 millions d’euros, soit près de 5 % de son budget global. L’idée initiale, avancée pendant la campagne présidentielle, était que les GAFAM contribuent au financement du Pass Culture, mais cette rodomontade s’est sans surprise perdue dans les sables, en l’absence de moyen pour l’État de contraindre les géants du numérique à financer ses politiques. D’où une volte-face opérée par la rue de Valois ces dernières semaines : le Ministère se limitera à un apport de 100 millions d’euros – une somme encore conséquente – tandis les 80 % restants seront apportés par des partenaires privés qui viendront, sur la base du volontariat, proposer des offres « gratuitement » dans le Pass Culture.

En dépit de cette reculade, la promesse du Pass Culture pourrait paraître de prime abord séduisant, un peu à la manière dont peut l’être le revenu de base, par la facilitation de l’accès aux œuvres et aux pratiques culturelles que la mesure est censée apporter aux jeunes. Mais encore faut-il identifier les possibilités réelles qu’elle offre aux personnes concernées et, au-delà, comment ce nouveau dispositif va s’inscrire dans le contexte institutionnel et économique contemporain en matière de politique publique culturelle.

En novembre dernier, la Commission des affaires culturelles du Sénat a soulevé certaines interrogations qui ont resurgi depuis le début de l’été, à mesure que les acteurs sur le terrain ont commencé à discuter du sens et de la pertinence d’une telle politique publique. C’est en particulier ce principe d’un « don en nature », que certains grands partenaires privés vont faire en proposant leur offre gratuitement à travers le Pass que questionnent les structures professionnelles indépendantes du secteur, qui doivent de leur côté faire face à des financements publics contraints fragilisant leur économie plurielle alors qu’elles inscrivent leur action dans une logique d’intérêt général.

Le fait même qu’une politique publique ait besoin pour sa mise en œuvre de faire appel à la charité ou à la philanthropie d’acteurs privés sur la base du « volontariat » a de quoi surprendre. Que deviennent alors les solidarités actives développées à travers des politiques publiques de redistribution équitable en direction de tous les habitants ? Le Pass Culture interroge également compte tenu de l’hyper-centralisation inédite dont il est porteur en tant qu’opérateur d’une politique culturelle de médiation. Il se révèle enfin particulièrement inquiétant du point de vue du dispositif politique et technique sur lequel il repose, dans lequel la médiation et la participation des jeunes à la vie culturelle vont se retrouver administrées par un algorithme.

Autant de questions qui ternissent d’ores et déjà le faste des trésors promis à la levée des sept voiles orchestrée par le ministère, décidément plus enclin à séduire qu’à débattre.

De quelle « émancipation culturelle » parle-t-on ?

Le Pass Culture était à l’origine présenté comme un moyen de « laisser le jeune autonome dans ses choix sans les juger » ou de « donner les moyens à l’usager d’être autoprescripteur (sic) », en connexion avec l’idée « d’émancipation » promue par le gouvernement. Mais on entend à présent qu’il s’agirait plutôt de « faire sortir les jeunes de chez eux », de « valoriser l’accès à la pratique artistique plutôt que l’acquisition de biens culturels », voire même de « lutter contre l’assignation à résidence culturelle ». Ces deux intentions ne s’opposent pas de façon radicale, dès lorsqu’il s’agit de concevoir la liberté non pas comme l’expression d’un pur libre arbitre, mais bien comme l’expression d’un choix dans un contexte donné, informé historiquement et socialement. Mais alors quelle est donc la fonction d’émancipation remplie par ce dispositif technique ?

Sans surprise, les contraintes risquent finalement de l’emporter sur la liberté laissée à l’utilisateur, l’application étant en réalité avant tout un dispositif technologique destiné à orienter le comportement des individus. Il est prévu notamment de valoriser les offres de proximité, par le biais d’un système de géolocalisation qui présentera en priorité à l’utilisateur les propositions situées autour de lui. Des plafonds de dépense seront également imposés pour éviter qu’une trop grande partie des sommes allouées ne bénéficient aux contenus numériques au dépend des interactions en présentiel.

Le Pass Culture ne sera donc pas un outil « neutre », mais un instrument de politique publique destiné à favoriser certains segments de l’offre par rapport à d’autres. On doit d’ailleurs plutôt s’en réjouir, car sans cela, le projet aurait constitué une véritable abdication de la politique culturelle face aux mécanismes du marché, si souvent jugés seuls légitimes pour opérer l’allocation efficace des ressources.

Mais qu’en est-il du débat qui aurait été plus que nécessaire concernant les objectifs et les moyens d’une émancipation culturelle ? Comment ont été identifiés les facteurs aliénants qui semblent par défaut visés par les biais introduits dans le dispositif technique ? Si la réponse est la diversification de l’offre de consommation culturelle, quelle est donc la question originelle ?

Prenons le risque de lire en creux qu’il s’agit de lutter contre une forme de reproduction et d’assignation culturelle dont il faudrait émanciper « les jeunes ». Peut-on sérieusement envisager « d’émanciper » des individus « à l’insu de leur plein gré », par le truchement d’incitations induites par une plateforme dont personne n’est capable aujourd’hui d’anticiper l’usage qui en sera fait par les personnes concernées ? L’outil semble fait d’un étrange alliage : reconnaissant que les individus peuvent être enclins à reproduire des choix culturels, ces tendances paraissent considérées ni plus ni moins comme des « biais » individuels à rectifier sans que soit discutée la dimension sociale centrale et structurante dans la formation du goût et des pratiques culturelles. De même qu’il semble aller de soi qu’un algorithme suffise à garantir une émancipation à travers la diversification des propositions amenant comme par magie une diversification du goût.

Alors qu’une littérature riche se développe à propos de la transformation des fonctions sociales de prescription dans un environnement numérique complexe, l’absence de débat et le choix d’une réponse technique simpliste à une question mal posée serait décevante si elle n’était pas avant tout inquiétante, tant ces orientations politiques restent pour l’instant opaques et « invisibilisées » par l’outil technique que constitue l’application. Mais quelle est donc cette formule magique qui changera le plomb en or aux yeux des utilisateurs ?

Administrer le désir ? Une plate-forme pour l’intendance des menus plaisirs

L’application est censée opérer cette subtile incitation à la diversification par le biais d’un algorithme de recommandation qui se chargera d’inciter les jeunes à « varier leurs consommations ». Ce design magique aurait donc une fonction inverse de celle des algorithmes sur les plate-formes marchandes lucratives, comme Youtube ou Facebook, qui tendent à renvoyer les utilisateurs à leurs propres préférences et à les enfermer dans une « bulle de filtre ».

Là encore, ces principes de fonctionnement peuvent paraitre de prime abord intéressants, mais les premières descriptions de l’application ont de quoi laisser songeur tant elles paraissent imprégnées de « solutionnisme technologique » et de la fascination exercée par les grandes plateformes sur la « Start-Up Nation » :

[…] l’offre sera présentée de manière attractive sur l’écran de l’application, avec une image suscitant « le désir », un tarif et une distance. Presque à la manière d’une application Tinder (sic), le jeune pourra décider d’en savoir plus en poussant l’image vers le haut, ou bien de passer à une autre offre en balayant l’image vers la gauche.

Sur France Culture, Eric Garandeau, un des deux personnalités choisies pour piloter le projet, va plus loin en déclarant que le Pass Culture sera « un instrument destiné à susciter le désir et à provoquer le plaisir ». Cette incursion surprenante dans le registre de l’aphrodisiaque pourrait prêter à rire, si le Ministère de la Culture ne s’intéressait par ailleurs avec une insistance gênante aux « désirs » des français, au point d’en faire un fil rouge (rose ?) de ses politiques.

Un « Catalogue des désirs » vient ainsi d’être établi par un duo d’experts pour sélectionner des œuvres dans les collections des musées afin de les faire circuler en France dans le cadre de l’opération « La Culture près de chez vous ». Dans la foulée, un « Forum des désirs » a été organisé afin de présenter publiquement cette initiative. Si en matière de patrimoine, cette manière de décréter le désir d’en haut est brutalement caricaturale, la façon de procéder semble (un peu) plus subtile avec le Pass Culture, puisque les choix des utilisateurs seront moins dictés qu’orientés techniquement.

Mais si le Pass Culture entend favoriser la diversité culturelle, il le fait en cédant au discours en vogue autour du « nudge » ou de la « captologie », c’est-à-dire en cherchant à court-circuiter la rationalité des individus :

« Nous jouons sur la curiosité, le mystère, l’émotion. » Pas de texte à l’ouverture de l’application mais une image pour attirer le regard du jeune et l’inviter à poursuivre.

Que la culture puisse être affaire de désir et de plaisir n’est pas contestable et il est même bon de le dire, mais que l’État s’en mêle de cette façon devrait nous mettre en alerte !

L’opacité du dispositif ne réside cependant pas uniquement – ni même principalement – dans la dimension technologique du projet. Il est d’ailleurs probable que l’algorithme de recommandation du Pass Culture finisse par être ouvert (l’Etat en a même théoriquement l’obligation). Mais il n’en restera pas moins que le choix de passer par une médiation algorithmique aura été imposé d’en haut sans discussion, alors qu’il n’allait pas de soi. Exactement comme l’ouverture du code de ParcoursSup ne saurait régler à elle seule le problème politique de fond de la sélection à l’université.

Le véritable moteur dans la machine est néanmoins ailleurs. Car qui prendra les grandes décisions structurantes pour le Pass Culture, sachant que le Parlement devrait se cantonner à valider le principe et allouer le budget chaque année ? Pour le comprendre, il faut se tourner vers le modèle économique du dispositif et les partenariats public-privé sur lesquels il repose, car c’est à ce niveau que les enjeux essentiels se situent.

Le coût caché de la gratuité culturelle : d’un financement des solidarités à un accès par la charité ?

On sait à présent que l’apport de l’État se limitera à 100 millions d’euros, les 80 % restants étant approvisionnés via des offres proposées « gratuitement » par des partenaires privés qui devront assumer les coûts pour être présents dans l’application.

L’idée de base est de proposer aux partenaires privés de bénéficier d’un surcroît de visibilité auprès des 800 000 utilisateurs potentiels de l’application, en échange d’une mise à disposition gratuite de l’offre. Il est un peu étrange de constater que le ministère semble ainsi passer d’une logique de soutien…. à une position de souteneur ! D’autant que pour l’utilisateur, cette gratuité ne transparaîtra pas et il devra bien « payer » pour accéder à ces offres, avec les 500 euros qui lui sont alloués :

Ainsi, un jeune pourra être débité de 10 euros pour une place de spectacle ou un abonnement mais cet achat, s’il aura été négocié gratuitement, n’aura pas de coût pour le Pass culture.

Le jeune étant soupçonné d’avoir un penchant coupable pour la gratuité (vous avez dit piratage ?), l’un des buts du Pass Culture est aussi de lui inculquer le réflexe de « l’offre légale », quitte à lui faire « mimer » dans le vide l’acte de paiement ! Ces modalités de fonctionnement vont faire du Pass Culture une sorte d’ « anti-bibliothèque publique ». En effet dans le modèle de la bibliothèque, l’État subventionne grâce à l’argent public un accès à des biens culturels pour les citoyens, sans que ceux-ci aient à payer à l’acte pour recourir à ce service, au nom d’une logique de socialisation des achats pour l’accès à culture. Avec le Pass Culture, c’est au contraire le secteur privé qui va majoritairement financer un accès « gratuit » à la culture en dehors de toute volonté de socialisation et sur une logique de charité, de patronage ou de philanthropie, tout en obligeant quand même les usagers de l’application à « payer » à l’acte. On retrouve alors sans surprise une logique de moralisation des comportements associée à ce geste de « don » qui, politiquement comme techniquement, relève d’un paternalisme inquiétant, en dépit de la dimension romantique qui imbibe la communication du ministère de la culture.

Cette gratuité « bâtarde » sur le plan politique, qui reverse la logique de solidarité démocratique et travestit un appel à la charité en politique publique, risque en outre de produire des effets de bord préoccupants sur les structures culturelles. Car il est clair que les partenaires privés qui proposeront des offres seront d’abord ceux qui pourront s’offrir le luxe de gagner ainsi en visibilité. Les petites structures auront par définition plus de difficultés à fournir un tel effort qui menacerait leur équilibre économique et leur viabilité. Ce constat est d’autant plus préoccupant que les GAFAM ont été sollicités pour abonder l’offre sur la base de la gratuité. Or s’il existe des acteurs qui ont intérêt à « offrir la première dose gratuitement », ce sont bien les géants du numérique, car ils savent ensuite mieux que quiconque enfermer leurs utilisateurs dans leurs applications…

Certes, les 100 millions d’argent public débloqués par l’État devraient bénéficier en priorité aux petits acteurs (du moins faut-il l’espérer…). Mais à partir de quel seuil sera-t-on considéré comme un « petit » et qui fera le choix de faire bénéficier une offre de subventions publiques ? Il est particulièrement inquiétant que la question de la taille budgétaire (« petits vs gros ») remplace le débat crucial, plus subtil et complexe, sur la nature économique et sociale des activités. Au-delà des seuils budgétaires encadrés par les réglementations européennes[1], c’est la question de la lucrativité des structures impliquées, de leur comportement socio-économique de manière générale et surtout de leur volonté de s’inscrire dans une politique publique d’intérêt général qui doit pouvoir être discutée lorsqu’il s’agit d’attribuer des financements publics.

Réduire la diversité culturelle à la diversité des produits sur un marché ?

Conçu comme un moyen de « compenser » les inégalités entre les individus, le Pass Culture ne peut en réalité qu’aboutir à creuser les inégalités entre acteurs du secteur, transformés en fournisseurs d’offres culturelles, contournant soigneusement le nécessaire débat sur les enjeux de redistribution des richesses. Fondamentalement, la politique publique en direction des structures indépendantes qui bénéficieraient d’une compensation pour avoir « offert » des places se transformera directement en « compensation de prix ». Considéré au niveau européen comme un dispositif de financement public dérogatoire au principe de « concurrence libre et non-faussée », ce type de financement est particulièrement encadré et fait l’objet de contrôle strict par la Commission Européenne[2]. La compensation de prix implique par défaut que le financement public s’inscrive sur un marché et que son objectif soit d’en réguler les conditions d’accès.

Or, on touche ici au cœur politique du financement public : qu’est-ce qui est réellement financé dans le cadre d’une politique publique nationale sur la ligne 224, celle de la médiation, de la transmission des savoirs et de la « démocratisation » ? Si la réponse est l’accès au marché des œuvres et des pratiques sans plus de débat, alors nous abandonnons l’idée que le financement de la médiation correspondait à la mise en œuvre d’une politique d’intérêt général via le soutien de pratiques professionnelles complémentaires à celle de la création, celles qui participaient à faire du lien. La production des biens, artefacts, performances, etc., correspond de son côté à un travail qui, pour être exercé dignement par les équipes artistiques professionnelles et être accessible au plus grand nombre, est financé par la ligne création (131). Financer la médiation, c’était – une fois encore – permettre la mise en lien et non seulement l’accès aux biens. Ce travail précieux est mené par une multitude d’associations qui connaissent des difficultés croissantes, et qui sont les premières affectées par la suppression des emplois aidés.

Quel paradoxe – ou quelle manœuvre politique ?  – que de remplacer le soutien à cet indispensable travail de vivre ensemble par une politique d’acquisition de droits d’accès individuels. C’est aussi continuer d’entretenir l’idée que ce marché d’acquisition de droits individuels (d’accès aux œuvres et aux pratiques) suffira à financer la création, à l’inverse d’une logique de socialisation qui en principe finance la recherche et le droit à l’expérimentation artistique, au-delà d’une pure logique de production d’œuvres. En somme, qu’il s’agisse de la médiation comme de la création, la logique philanthropique et charitable de dons de places contourne la conversation fondamentale sur la solidarité entre les équipes artistiques – qui revendiquent de vivre dignement de leur métier, de l’exercer librement en incluant une démarche de recherche – et les usagers, à qui il s’agit de garantir un droit universel d’accès aux pratiques, aux œuvres et aux espaces de débats, sans discrimination financière.

Transformer le financement de la médiation culturelle en simple politique d’acquisition – fusse-t-elle en direction du public le plus large et de toutes les esthétiques, c’est renverser la logique d’émancipation en une logique de consommation qui fausse et oblitère la conversation fondamentale au cœur de la diversité culturelle, qui repose avant tout sur la libre participation de tous à la vie artistique et culturelle. Comment organiser des filières de production et de diffusion qui reconnaissent et permettent de développer une diversité de pratiques, professionnelles et amateurs, assurant aux travailleurs de vivre dignement de leur activité tout en garantissant la participation de chacun à la vie culturelle ? Le don de places réduit la diversité culturelle à la diversité des produits sur un marché, et positionne la générosité dans un registre d’action philanthropique complètement décalé vis à vis de l’impératif posé par les droits et les devoirs de solidarités qui s’expriment dans une politique publique d’intérêt général.

Une vision caricaturale de la justice sociale

Françoise Nyssen a indiqué qu’il s’agissait de faire du Pass un moyen de « combattre les inégalités dans l’accès à la culture en cassant les barrières financières et sociales ».

Mais il est douteux que la solution retenue – allouer 500 euros à tous les jeunes d’une classe d’âge – puisse servir un réel objectif de justice sociale. Comme l’a montré Amartya Sen – lauréat du prix Nobel d’économie en 1998 -, il ne suffit pas d’allouer les mêmes paniers de droits aux individus pour faire progresser l’égalité. Amartya Sen opère en effet une distinction essentielle entre les ressources dont disposent les personnes et leurs « capabilités », c’est-à-dire la possibilité de faire des choix parmi plusieurs modes de vie possibles et de les embrasser effectivement. Sans une prise en compte des capabilités, on en reste à une pure logique de « droits formels » faisant abstraction des conditions concrètes permettant (ou non) leur réalisation. Pour prendre un exemple concret, offrir un vélo à tous les citoyens ne suffirait pas à garantir un droit à la mobilité, car l’accès à celle-ci dépend de nombreux « facteurs de conversion » comme l’état de santé des personnes, la distance séparant leur domicile de leur lieu de travail, la présence de pistes cyclables autour d’eux, etc.

Or le Pass Culture repose intrinsèquement sur une telle vision formelle du droit d’accès à la culture, comme si ce dernier pouvait se résumer à une allocation de 500 euros indépendamment de la prise en compte de la situation concrète des personnes. Cette conception « arithmétique » de la justice ne heurtera inévitablement aux inégalités sociales dont elle fait abstraction : 500 euros à dépenser lorsqu’on est issu d’une famille aisée et que l’on vit dans une grande métropole donneront toujours davantage de libertés que 500 euros à dépenser dans une banlieue délaissée ou une zone rurale sous-équipée. C’est une critique que l’on peut aussi adresser au revenu de base : l’égalité formelle d’une somme uniforme allouée à tous les individus revient en pratique, sous couvert « d’inconditionnalité », à renoncer à conduire une politique réelle de redistribution et de réduction des inégalités.

L’idée même de pousser des offres de proximité par le biais de la géolocalisation risque même de creuser mécaniquement les discriminations, car comme le Ministère l’a lui-même admis en début d’année, le territoire français est émaillé de « zones blanches culturelles », particulièrement défavorisées en termes d’équipements. Dans certaines régions, le coût et la rareté des transports peuvent s’avérer un obstacle majeur pour accéder à l’offre culturelle, tout autant que le prix d’une place de spectacle ou d’une entrée dans un festival.

Les 500 euros du Pass Culture auront donc toutes les chances de fonctionner comme un « voile monétaire » dissimulant les inégalités sociales qui constituent en réalité le véritable obstacle pour l’accès à la culture. Un chiffre pour illustrer ces propos : en Italie, où le « Bonus Cultura » qui sert d’inspiration au Pass Culture a déjà été mis en œuvre l’an dernier, seuls 60% des bénéficiaires ont effectivement dépensé leur allocation de 500 euros, révélant de manière éclatante que la capacité à avoir une consommation culturelle dépend avant tout de facteurs socio-économiques sur lesquels le dispositif fait l’impasse.

Quelle ambition pour les droits culturels ?

Si le Ministère aime manier la rhétorique des « désirs » et des « plaisirs » pour présenter le Pass Culture, il reste très discret sur la question des droits culturels qui sont pourtant au cœur des enjeux soulevés par cette politique. Les droits culturels ont fait leur entrée en 2016 dans le droit français, à travers leur reconnaissance dans les lois NOTRe et LCAP. Ils prolongent le « droit de participer à la vie culturelle » consacré par plusieurs grandes déclarations internationales sur les droits fondamentaux des Nations-Unies et de l’UNESCO, en lien avec la promotion de la diversité culturelle.

Le principal intérêt de l’approche par les droits culturels est de penser le droit d’accès à la culture comme indissociable des autres droits fondamentaux, comme les droits politiques ou les droits sociaux. Les droits culturels impliquent ainsi la participation effective des individus et des groupes à la détermination de ce qui fait culture pour eux et entre eux, avec en ligne de mire la justice sociale et la lutte contre les discriminations :

            Combinant les impératifs de participation citoyenne, de recherche fondamentale et appliquée, tout autant que de partage des savoirs, des pratiques, des croyances et des imaginaires, les textes porteurs du référentiel des droits culturels nous rappellent les objectifs de progrès humains, dans toutes ses déclinaisons sociales, qui font le socle d’un bien vivre ensemble et de justice sociale. Considérant que la culture, tant par sa dimension patrimoniale que par sa dimension créatrice, constitue un commun de l’Humanité, il est préconisé l’affirmation d’une politique publique pour une société humaniste, fondée sur la dignité humaine et les relations entre les personnes. La participation des personnes, la concertation avec la société civile, pour sa construction et sa mise en œuvre dans un principe d’ascendance sont alors déterminantes.

                                                           Source : UFISC – Note d’introduction aux droits culturels.

Le solutionnisme technologique et l’invisibilisation des questions politiques qui caractérisent le Pass Culture constituent de ce point de vue un véritable affront aux droits culturels. Tel qu’il est conçu, le dispositif va opérer un puissant effet de centralisation de la médiation, en plaçant hors du débat public des questions de première importance qui auraient dû être discutées à l’échelon local : Qu’est-ce que la culture et/ou les cultures ? Comment doit-on favoriser l’accès et la participation à la culture pour les plus jeunes ? Quels mécanismes mettre en œuvre pour assurer la justice sociale sur les territoires ? Quelles priorités définir pour l’allocation des subventions publiques ? Quelles articulations trouver entre secteur public et secteur privé ? Etc.

Rêvons un peu : les centaines de millions d’euros qui se consumeront chaque année dans le Pass Culture auraient pu servir à animer des « États généraux des droits culturels », permettant à chaque territoire de produire des cahiers de doléances sur les questions de diversité, de justice et d’égalité, pour déboucher sur une grande discussion nationale à propos des moyens à allouer pour y répondre. Pour le coup, le numérique aurait pu utilement outiller une telle démarche ; pas à grands coups d’algorithme, mais en favorisant la participation à la co-construction d’une politique publique et en s’appuyant sur les corps intermédiaires, notamment associatifs, qui sont les interlocuteurs légitimes pour faire vivre une telle dynamique. Il est parfaitement justifié de demander aux acteurs privés de co-financer une démarche nationale en faveur des droits culturels, tout comme les entreprises participent via leurs cotisations à la mise en œuvre de la démocratie sociale.

De fait, les occasions ne manquent pas de discuter des logiques de redistribution des richesses sur les filières de production à travers notamment les enjeux liés aux missions du Centre National des Variétés et les conditions de redistribution de la taxe sur la billetterie, la mise en œuvre d’un opérateur national pour la musique de type « Centre national de la musique », etc. L’enjeu de redistribution des richesses et des financements poursuit une logique inverse de la charité en mettant en œuvre des mécanismes de solidarité et de socialisation : il s’agirait donc d’élargir le débat de ces mécanismes de redistribution à toutes les pratiques dans une logique de droits culturels, en rediscutant des frontières entre financement de la création et financement de la participation de tous à la vie culturelle. A défaut d’une telle discussion, la politique publique en matière culturelle s’achemine vers non plus une mission de culture, mais de régulation et d’encadrement d’un marché de produits et d’activités culturelles.

Des acteurs de marché particulièrement dominants au niveau européen et international, ont bien saisi de leur côté la juteuse opportunité que représentent nos pratiques culturelles. Un fort mouvement de concentration des moyens de production et de diffusion est en cours dans le secteur aujourd’hui, menaçant toujours plus la diversité culturelle, et misant sur des logiques d’intégration « 360° » :

« Ce mouvement s’observe à la fois à un niveau horizontal, avec le développement de groupes spécialisés dans l’exploitation de salles, mais aussi à un niveau vertical, avec l’apparition de stratégies dites « à 360° », intégrant l’ensemble des fonctions permettant, soit de développer le travail d’un artiste depuis la production jusqu’à la distribution, soit d’exploiter tous les marchés liés au déplacement d’un spectateur à un concert, ce qui implique le contrôle de la billetterie. Notre collègue, Françoise Laborde, évoquait en juillet dernier, dans un rapport consacré à la situation des festivals, « l’irruption de grands groupes privés dans le paysage des festivals français, avec le rachat et la création de plusieurs festivals ».[3]

Non seulement un dispositif comme le Pass Culture ne permettra pas de lutter contre un tel phénomène de concentration, mais il risque au contraire de s’en faire la caisse de résonance.

***

Le Pass Culture ne sera donc pas la révolution annoncée : au lieu d’avoir ces « États généraux des droits culturels » qui auraient pu renouveler en profondeur la conception des politiques publiques dans notre pays, faut-il nous résigner à cette « intendance algorithmique des menus plaisirs » qui tranchera sans débat des questions relevant de l’intérêt général ? Il n’est peut-être pas encore trop tard pour éviter un épouvantable gâchis en exigeant que le débat fondamental sur l’émancipation culturelle ne soit pas confisqué d’une manière aussi caricaturale.

 

[1]Pour ce plus amples explications, voir le Guide des relations entre associations et financeurs publics, réalisé par AlcyaConseil avec les contributions d’Opale/CRDLA Culture, de l’Ufisc, du CAC et du RTES : http://www.opale.asso.fr/article635.html

URL : https://www.opale.asso.fr/article635.html

[2]Ibidem – URL : https://www.opale.asso.fr/article635.html

[3]Avis présenté au nom de la commission de la culture, de l’éducation et de la communication (1) sur le projet de loi de finances pour 2018, adopté par l’Assemblée Nationale, Tome II, Fascicule 2 : « Culture : Création et transmission des savoirs et démocratisation de la culture », Par Mme Sylvie ROBERT, Sénatrice, p.24