PROJET AUTOBLOG


S.I.Lex

Site original : S.I.Lex

⇐ retour index

Rebooter le web sans changer de logiciel économique ?

mardi 9 octobre 2018 à 07:54

Il y a dix jours, Tim Berners-Lee a publié un billet intitulé « One Small Step for the Web » dans lequel il annonce qu’il se met en retrait de ses fonctions au W3C. Il y déclare avoir pris cette décision pour consacrer l’essentiel de son temps au projet Solid (Social Linked Data) qu’il développe depuis plusieurs années en nourrissant l’espoir de rebooter le web sur de nouvelles bases plus saines. Cette annonce fait suite à une interview donnée cet été à Vanity Fair, dans laquelle Tim Bernes-Lee se disait « effondré » face au constat que « le web a desservi l’humanité au lieu de la servir » :

Nous avons démontré que le Web avait échoué au lieu de servir l’humanité, comme il était censé le faire, et qu’il avait échoué par de nombreux aspects. La centralisation croissante du Web, dit-il, a fini par produire – sans volonté délibérée de ceux qui l’ont conçu – un phénomène émergent à grande échelle qui est anti-humain.

Je pense que Tim Berners-Lee a très mûrement pesé ses mots en choisissant le qualificatif « d’anti-humain », dans le sens où il estime que les maux liés à la centralisation sur les grandes plateformes – l’exploitation abusive des données personnelles, les atteintes à la vie privée, la manipulation des informations type fake news ou la surveillance étatique de masse – sont si graves qu’ils nous font littéralement perdre une part de notre humanité.

Pour lutter contre cette tendance à la centralisation, le projet Solid cherche à créer un nouveau standard qui permette de «séparer les données des applications et des serveurs qui les utilisent». Chaque individu pourrait ainsi reprendre le contrôle sur ses données à partir d’un POD (Personal Online Data) : un espace souverain dans lequel les données sont stockées et auquel les applications tierces viendraient s’interfacer en évitant que les informations soient accumulées dans des « silos », comme c’est le cas actuellement avec les GAFAM. Solid ressemble donc à des projets comme Cozy Cloud, par exemple, à la différence qu’il ajoute à l’hébergement personnel des données une couche de web sémantique pour offrir un standard d’interopérabilité entre les différentes applications, d’où la dénomination de Social Linked Data (données sociales liées).

En mode Start-up et capital-risque ?

Sur le fond, on peut se réjouir de voir une personnalité comme Tim Berners-Lee ne pas se résigner à la domination des grandes plateformes, que beaucoup se contentent aujourd’hui de chercher à « réparer » en compensant les dégâts humains considérables qu’elles produisent, par exemple en prônant des solutions comme l’ouverture de leurs algorithmes. Mais j’avoue avoir reçu une douche froide en lisant que si Tim Berners-Lee avait mis en veille ses fonctions au W3C, c’était en réalité pour s’investir dans la société Incept, qu’il présente lui-même comme une « start-up » :

Il faudra beaucoup d’efforts pour construire une nouvelle plateforme pour Solid et favoriser son adoption à grande échelle, mais je pense que nous avons assez d’énergie pour amener le monde à un nouveau point de bascule.

J’ai donc pris un congé sabbatique du MIT, j’ai réduit mon implication quotidienne avec le World Wide Web Consortium (W3C) et j’ai fondé une société appelée inrupt où je vais guider la prochaine étape du web de manière très directe. Inrupt sera l’infrastructure qui permettra à Solid de prospérer. Sa mission est de fournir l’énergie commerciale et un écosystème pour aider à protéger l’intégrité et la qualité du nouveau web basé sur Solid.

Il existe de nombreux exemples dans le domaine de l’open-source qui ont énormément bénéficié de la contribution d’une entreprise bien financée. Alors que la communauté open-source est source d’initiative et d’innovation, les internautes de tous les jours et les entreprises recherchent souvent des applications et des services auprès d’une entité commerciale qui fournit également un soutien technique et des services commerciaux auxiliaires essentiels.

Quand on cherche un peu, on se rend compte qu’Incept a été financée par Union Square Ventures, un pourvoyeur de capital-risque ayant apporté des fonds à des initiatives « alternatives » comme DuckDuckGo, mais possédant aussi des parts dans Foursquare, KickStarter ou même Twitter. Or ce montage financier pose question et aussi pertinente que puisse être la solution technique proposée par Solid, on peut déplorer que Tim Berners-Lee cherche ainsi à rebooter le web sans changer le « logiciel économique » qui a joué un rôle pourtant prééminent dans les dérives qu’il souhaite combattre.

Dans un billet ironiquement intitulé «Solid Venture», le développeur Bob Mottram fait part de ses doutes quant à cette implication de la société Incept dans le projet, en faisant valoir que, contrairement à ce que dit Tim Berners-Lee, la synergie entre Open Source et entreprises classiques n’est pas « neutre » et qu’elle a pu conduire dans le passé à des dérives :

J’ai de la sympathie pour tout ce qui tente de redécentraliser le web et de le remettre dans un état où tout le monde ne se retrouve pas enfermé une poignée de bases de données, comme cela s’est passé avec le web 2.0. Mais être soutenu par du capital-risque n’est pas un bon signe. Chercher à produire du code public avec du capital-risque semble toujours déboucher sur l’un des deux résultats suivants :

  • L’entreprise échoue et le projet devient abandonware ;
  • L’entreprise réussit et les utilisateurs des logiciels se retrouvent piégés par un arrangement commercial très artificiel et généralement désagréable qu’ils détestent.

[…]

Dans la sphère des logiciels, la dépendance au capital-risque aboutit généralement à des stratégies qui forcent les gens à souscrire des abonnements ou à des revirements de licence dans le sens de la propriétarisation ou encore à adopter le modèle de « l’open core » dans lequel la base du code est laissée ouverte, mais réduite à un croupion inutile, tandis que tout ce qui a de la valeur prend la forme de modules complémentaires ou de versions destinées au marché des entreprises. Ou bien vous finissez simplement par vous vendre à Microsoft et à Google et ils vous arrêtent pour supprimer un concurrent potentiel à leurs produits. Cela s’est produit bien des fois

Et c’est bien ce qui pose problème avec l’initiative de Tim Berners-Lee. Si Solid vient à rencontrer du succès (ce que l’on peut souhaiter), qu’est-ce qui nous garantit que la société Incept ne changera pas brutalement de modèle (comme Twitter l’a par exemple fait en 2009) ? La présence de Tim Berners-Lee à son board constitue-t-elle à elle seule une sécurité suffisante ? Il faudrait être bien naïf pour le croire, car tout inventeur du web qu’il est, il peut très bien se faire mettre en minorité au sein de sa propre structure et il n’est pas non plus immortel. Le risque d’un rachat par un des grands Leviathans du web comme Apple, Google ou Facebook n’est donc pas une hypothèse à écarter comme fantasmatique (NB : la même question se pose d’ailleurs aussi avec un acteur comme Qwant, alternatif dans son modèle économique et son objectif de protéger la vie privée de ses utilisateurs, mais tout à fait classique dans la structure de son capital…).

Conception « enchantée » du marché

Cette volonté de chercher à refonder le web en mode « start-up » me paraît relever d’une conception « enchantée » du marché et de la concurrence, comme si les puissances économiques qui ont fait naître les plateformes toxiques avec lesquelles nous nous débattons n’allaient pas être en mesure de trouver le moyen d’adultérer une initiative comme Solid en cas de succès. Ce n’est pas un hasard si la « plateformisation » du web, qui est intervenue au milieu des années 2000 avec la vague du Web 2.0, a coïncidé avec la montée en puissance de la financiarisation de l’économie. Certes, aucune entreprise n’est éternelle et la concurrence peut amener la chute de géants que l’on croyait bien établis. Mais pour l’instant, cette dynamique « schumpétérienne » du marché nous a-t-elle apporté autre chose que du pire, car si MySpace et Yahoo ont fini par péricliter, c’est pour que Facebook et Google les remplacent !

Solid semble de ce point de vue reposer en partie sur le « solutionnisme technologique » dénoncé par l’essayiste Evgueny Morozov, qui pousse à croire qu’un Deus Ex Machina pourrait encore nous sauver sans prendre en compte les sur-déterminations économiques de la tendance à la centralisation. C’est pourtant une chose que le juriste Eben Moglen, l’un des pères avec Richard Stallman de la GNU-GPL, avait parfaitement pointé dès 2010 :

Si les services se centralisent, c’est pour des raisons commerciales. Il y a dans un simple historique de navigateur Web un potentiel qui est monétisable, parce qu’il fournit le moyen de mettre en place une forme de surveillance, attrayante tant pour les marchands que pour les gouvernements pour le contrôle social qu’elle permet. Ainsi le web, lorsqu’il s’appuie sur une architecture essentiellement basée sur le système client-serveur, devient un dispositif de surveillance au-delà des services qu’il fournit. Et la surveillance devient cette fonctionnalité cachée à l’intérieur de tout ce que nous recevons gratuitement.

Ce qui s’est (mal) passé avec le web sémantique…

Alors certes, le projet Solid est intrinsèquement conçu pour éviter l’exploitation des données personnelles, son code a été placé en Open Source et il s’appuie sur les technologies du web sémantique pensées pour prévenir la concentration des données dans des silos fermés. Mais le destin même du web sémantique devrait nous alarmer, car comme le montre bien Gautier Poupeau dans un billet publié sur son blog cette semaine, il n’a pas été non plus épargné ces dernières années par la tendance à la centralisation, notamment avec la place centrale prise peu à peu par le projet Wikidata :

Les objectifs initiaux de Wikidata ont été rapidement dépassés, car ce projet répondait à de nombreux défauts des autres projets existants en la matière. Par rapport à Dbpedia, il présentait l’avantage d’être mis à jour en temps réel (Dbpedia est mis à jour tous les 6 mois…), d’offrir une qualité de service bien supérieure et de proposer une structuration des données plus rigoureuse, dbpedia étant issu de données dont l’objectif n’était pas celui d’alimenter une base de données structurées à l’origine. Comparé à Freebase, initiative lancée par la société Metaweb rachetée par Google en 2010, ce projet présentait l’avantage d’être porté par une communauté libre clairement établie. Bref, Wikidata est devenu LE projet de base de connaissances libre et ouvert que tout le monde attendait : le chaînon manquant de la gestion des connaissances. […]

Ironie de l’histoire, alors que le Linked Open Data souhaitait mettre en relation des données hétérogènes et décentralisées chez différents fournisseurs, il aura suffi de 5 ans pour que les utilisateurs commencent à recentraliser leurs données au sein d’un espace unique.

Wikidata est porté par la fondation Wikimedia (qui n’a pas de but lucratif) et on pourrait donc penser que ce retour de la centralisation n’est pas lié à des déterminations économiques. Mais Gautier Poupeau explique que cette re-centralisation du web sémantique tient essentiellement à la manière dont un acteur comme Google est parvenu à instrumentaliser cette technologie :

[…] pour vous convaincre de l’importance de ce projet, il suffit de voir l’implication de Google : mécène du projet à l’origine, ils ont recruté son développeur principal, Denny Vrandečić, lorsque le projet a été stabilisé. Et pour cause : grâce au rachat de la société Metaweb, Google a disposé non seulement d’une technologie de graphe scalable (qui ne suivait pas non plus précisément le modèle RDF…) mais aussi d’une base de connaissances déjà conséquente. C’est sur cette base que Google a commencé à construire le Knowledge graph, un autre exemple de base de connaissances centralisé bâti sur le modèle de graphe sans utiliser RDF. Ils ont rapidement compris qu’ils ne pourraient convaincre la communauté de poursuivre l’alimentation de Freebase, car cela revenait à travailler directement pour eux. Ils ont donc intelligemment proposé de reverser le contenu de Freebase dans Wikidata et ils ont accompagné la mise en place de Wikidata. Permettre l’éclosion de Wikidata, c’était aussi pour Google un moyen d’assurer une mise à jour de son graphe de connaissance, même si bien évidemment Wikidata n’est pas la seule source de ce knowledge graph.

[…] Tout ça pour ça ? Permettre aux moteurs de recherche de récupérer plus facilement de la donnée structurée pour améliorer la visibilité des résultats de recherche (et surtout leur permettre d’alimenter leur knowledge graph à moindre frais…).

Tout ceci n’est pas sans lien avec ce que j’écrivais en juin dernier à propos de la tendance des Communs numériques à dégénérer au fil du temps en « Communs du Capital ». Certes un projet comme Wikidata ne peut être « racheté » par un acteur comme Google pour en faire sa propriété exclusive. Mais même lorsque des ressources sont ainsi rendues « inappropriables », on assiste souvent à ce que Michael Hardt appelle dans un article récent une « extraction du Commun », processus qu’il décrit comme étant le « paradigme du capital ». Revisitant la notion marxiste de « subsomption sous le capital », il explique comment le système parvient généralement à satelliser ce qu’il ne peut directement avaler.

Faute d’un recul suffisant sur ces tendances structurantes dans l’environnement numérique, le projet Solid paraît donc d’emblée mal engagé. Via la société Incept, il offre une proie facile au Capital, tandis que les technologies du web sémantique sur lesquels il s’appuie sont déjà travaillées par un processus de recentralisation, en raison de puissantes sur-déterminations économiques.

Qui savait au début qu’il y aurait une fin ?

Avons-nous réellement envie de suivre Tim Berners-Lee sur le chemin qu’il nous propose ? Ne peut-on déjà prévoir à ce reboot du web une fin similaire à celle que le premier web a subi ? Il y a dans cette démarche une certaine naïveté qui fait penser à ces écologistes croyant encore que la planète pourra être sauvée sans remettre en cause en profondeur les principes de l’économie de marché. Car tout comme l’Anthropocène est en réalité un Capitalocène, la centralisation du web n’est pas un processus « naturel » ou inhérent à une mystérieuse « nature de l’homme » ou des choses. C’est un stade de l’histoire du Capital, que certains désignent à juste titre par le vocable de «capitalisme de surveillance».

Tim Berners-Lee paraît de ce point de vue assez représentatif de certaines errances de la pensée du Libre et de l’Open. Cela tient à ce que j’appelle « l’agnosticisme économique » de ce courant de pensée, qui n’a jamais été capable de pousser jusqu’au bout sa critique de l’économie de marché. Le temps des synergies décrites initialement comme « heureuses » entre Open Source et entreprises paraît à présent bien loin et ce n’est plus uniquement sur la couche technique des standards qu’il faut agir pour espérer une refondation d’internet. C’est à mon sens à présent du côté des réflexions sur la convergence entre les Communs numériques et l’économie solidaire qu’il faut se tourner pour trouver des modèles qui –  tout en s’inscrivant dans la sphère économique – pensent d’emblée la limitation de la lucrativité et le réencastrement des acteurs de marché dans des finalités sociales.

 

 

 

 

 

 

Ce que l’on apprend sur les Communs dans les frigos collectifs…

mardi 25 septembre 2018 à 07:02

Quels liens y a-t-il entre les Communs et les frigos ? A priori pas grand chose, mais en donnant depuis plusieurs années des interventions et des formations sur ce thème, j’ai fini par me rendre compte que les réfrigérateurs collectifs constituaient sans doute l’un des meilleurs exemples pour faire comprendre simplement ce que sont les Communs. A tel point que j’ai commencé à m’intéresser à ce sujet, qui s’avère beaucoup plus instructif qu’on ne pense pour saisir les dynamiques sociales à l’œuvre dans le partage des ressources…

Dans les interventions que je donne, je présente toujours les apports théoriques de la chercheuse américaine Elinor Ostrom, lauréate en 2009 du prix Nobel d’économie pour ses travaux sur les biens communs. Ostrom est notamment célèbre pour avoir dégagé dans son ouvrage « Governing The Commons / La gouvernance des biens communs » les huit principes de conception (Design Principles) conditionnant l’échec ou le succès de la gestion en commun des CPR (Common-Pool Ressources, i.e. des ressources mises en partage) :

  1. Des limites clairement définies : Les individus ou les ménages qui ont le droit de prélever des unités de ressources dans le CPR doivent être clairement identifiées, tout comme les limites du CPR lui-même.
  2. Adéquation entre les règles d’appropriation et d’approvisionnement et les conditions locales : Les règles limitant l’appropriation des ressources dans le temps, dans l’espace, par la technologie utilisée et/ou la quantité d’unités sont liées aux conditions locales et à des règles d’approvisionnement exigeant du travail, du matériel et/ou de l’argent.
  3. Dispositions relatives aux choix collectifs : La plupart des personnes concernées par les règles opérationnelles peuvent participer à leur modification.
  4. Surveillance : Les surveillants, qui vérifient activement l’état de la ressource et le comportement des appropriateurs, sont responsables devant les appropriateurs ou sont les appropriateurs eux-mêmes.
  5. Sanctions graduées : Les personnes qui enfreignent les règles opérationnelles sont susceptibles de se voir imposer des sanctions progressives (en fonction de la gravité et du contexte de l’infraction) par d’autres personnes, par des agents responsables devant ces personnes, ou les deux.
  6. Mécanismes de résolution des conflits : Les appropriateurs et les agents et ont rapidement accès à des arènes locales pour résoudre à faible coût les conflits entre appropriateurs ou entre les appropriateurs et les agents.
  7. Reconnaissance minimale du droit à s’auto-organiser : Le droit des appropriateurs à mettre en place leurs propres institutions n’est pas remis en cause par les autorités extérieures.
  8. Gouvernance polycentrique (pour les CPR de grande taille) : Les activités d’appropriation, d’approvisionnement, de suivi, d’exécution, de résolution des conflits et de gouvernance sont organisées en plusieurs niveaux imbriqués.

Elinor Ostrom a reçu le prix Nobel pour avoir montré que lorsque ces huit conditions sont réunies, la gestion des ressources partagées peut échapper à la fameuse « Tragédie des Communs » décrite par Garret Hardin, c’est-à-dire à la disparition par surexploitation alors que la théorie économique classique a longtemps cru qu’il s’agissait d’une sorte de loi universelle des comportements humains.

Dans mes interventions, j’essaie d’expliquer ces éléments, mais si l’on s’en tient à cet énoncé des huit principes d’Ostrom, l’auditoire est généralement confronté à un niveau d’abstraction trop important qui l’empêche de saisir de quoi il retourne exactement. Du coup, j’ai longtemps cherché un exemple – le plus simple et le plus frappant possible – qui permette à tout un chacun de toucher du doigt cette question de la dynamique sociale des Communs. Après plusieurs tentatives, je me suis rendu compte que les réfrigérateurs collectifs constituaient sans doute une des meilleures manières de vulgariser la pensée d’Ostrom.

Tout le monde a déjà été confronté à cette situation où un groupe de personnes – que ce soit en colocation, au travail, dans une association, etc. – doit gérer un frigo mis à la disposition de ses membres pour stocker de la nourriture. En anglais, on dit d’ailleurs communal fridge (frigo commun ou en commun) pour désigner ces objets, notamment dans les entreprises. Or l’expérience nous a tous appris qu’il existe des chances non négligeables pour que ce type de situation tourne à la « Tragédie » avec plusieurs déclinaisons différentes : difficulté à gérer la place dans le frigo, « vol » des victuailles par des membres de la communauté, problèmes liés au nettoyage et à l’entretien de l’appareil, etc.

Attention, ces défaillances ne sont bien entendu pas automatiques et c’est précisément ce que met en évidence Elinor Ostrom avec ses Design Principles : peu importe au fond que les hommes et les femmes soient « bons » ou « mauvais », ce qui importe c’est qu’ils et elles soient placés dans des conditions permettant aux tendances à la coopération de s’exprimer et de l’emporter sur les comportements individualistes (attitude dite du « passager clandestin / free rider » quand l’individu maximise sa satisfaction en faisant peser sur le groupe les conséquences négatives de ses actes).

Toute la question est de savoir qu’est-ce qui fait « bugger » l’intelligence collective d’un groupe pour quelque chose d’aussi simple en apparence que de gérer un frigo à plusieurs et qu’est-ce qui peut faire en sorte au contraire d’éviter la tragédie ?

Tu ne voleras point (dans le frigo collectif)

Une des premières « pathologies » des frigos collectifs, particulièrement dans les espaces de travail, c’est le phénomène du « vol » de nourriture par des collègues. Quand on cherche un peu, on se rend compte qu’il existe une abondante littérature anglo-saxonne consacrée aux « Fridge Thieves » (les voleurs des frigos), problème qui a l’air particulièrement répandu dans les entreprises aux États-Unis (une étude récente a montré qu’un salarié sur cinq admettait se livrer à ce genre de rapines de temps à autre…). Il existe même un épisode de la série Friends qui raille de ce genre de comportements, dans lequel Ross découvre avec stupéfaction qu’un de ses collègues a fait main basse sur son sandwich confectionné avec les restes de la dinde de Thanksgiving !

On peut rapporter ce problème à la première règle énoncée par Ostrom : pour que la gestion en commun d’une ressource réussisse, il faut que les frontières de la communauté concernée comme celles de la ressource partagée soient clairement délimitées. Dans le cas d’un frigo collectif dans une entreprise, le périmètre de la communauté ayant un droit d’accès ne pose généralement pas de difficulté. Par contre, l’identification de qui constitue la « ressource » peut clairement prêter à confusion.

En effet, ce qui est partagé dans le cas d’un réfrigérateur collectif, c’est l’espace de stockage fourni par l’appareil, sans nécessairement que toutes les denrées que les individus y entreposent soient ipso facto « communalisées« . Or le respect d’une propriété au sein d’un espace commun peut s’avérer très complexe, d’autant plus qu’au sein d’un même frigo, les « ressources » peuvent avoir des statuts différents : les sandwiches et les boîtes à lunch apportés par chacun ont vocation à leur rester réservés, mais certains aliments comme des condiments ou des briques de lait peuvent tacitement devenir des réserves communes au sein desquelles chacun a le droit de puiser, sans parler des restes d’un pot de départ ou d’un buffet qui ont naturellement vocation à être partagés par le groupe.

Pour clarifier ce problème de l’identification du statut des ressources, on voit parfois se développer des pratiques d’étiquetage des boîtes marquées avec le nom de leur propriétaire. Chacun peut alors maintenir une revendication de propriété privée, en signifiant implicitement que le contenu du récipient n’est pas une « res nullius » (une chose sans maître, pouvant être appropriée par le premier qui s’en saisit).

Le pouvoir de ces inscriptions est en réalité purement performatif, car rien n’empêche pour autant les collègues d’aller chiper des aliments identifiés. Certaines études en économie expérimentale (car oui, il y a bien des chercheurs qui étudient les frigos collectifs…) ont néanmoins montré que l’étiquetage avait une certaine efficacité, car il permet de rendre « visibles » les personnes qui pourraient être privées des denrées :

La manière dont la rationalité individuelle fonctionne fait que si vous avez envie du repas de quelqu’un d’autre et que la probabilité que vous soyez pris en flagrant délit est très faible, alors vous serez incité à passer à l’acte. Certaines normes sociales peuvent néanmoins vous freiner. Les gens seront probablement plus enclins à manger le repas de quelqu’un d’autre s’ils ne savent pas de qui il s’agit, puisque l’impact négatif du vol n’aura pas de visage. Si les gens identifient qui leur acte peut léser, alors ils sont moins susceptibles de le faire. De la même façon, un vol qui n’a qu’un faible impact sur les autres aura probablement beaucoup plus de chances d’être commis (comme l’utilisation du lait de quelqu’un d’autre, etc.)

Le marquage des aliments serait donc en un sens une façon de faire réapparaître les membres de la communauté derrière les ressources stockées dans le frigo (bien qu’on puisse aussi y percevoir, comme nous le verrons plus loin, le signe d’une pathologie sociale affectant la communauté…).

Le nettoyage, tu partageras (ou pas)

Un autre GROS sujet qui traverse la littérature sur les communal fridges est celui de leur nettoyage et du problème du maintien de l’hygiène dans un espace lorsque ce dernier est utilisé à plusieurs. Ce second problème est presque plus intéressant que celui des « vols », car il renvoie à plusieurs des principes dégagés par Elinor Ostrom. Pour qu’un Commun fonctionne, il faut en effet que la communauté intéressée soit en mesure de définir elle-même des règles de gestion assurant la préservation de la ressource dans le temps. Ostrom dit aussi qu’il peut être nécessaire de subordonner la faculté de prélever des « appropriateurs » à des « règles d’approvisionnement exigeant du travail » destinées à entretenir la ressource en tant que système.

C’est exactement ce qui est en jeu avec le problème du nettoyage des frigos collectifs, qui nécessite que la communauté soit en mesure de « s’auto-organiser » pour poser des règles élémentaires assurant que les tâches d’entretien soient partagées au sein du groupe et que les individus sachent quand ils doivent les effectuer. Cela peut consister en des règles simples comme « Celui qui salit nettoie » ou des rotations où chacun s’y colle à tour de rôle selon une périodicité déterminée à l’avance.

Or si l’on en croit encore une fois les (décidément passionnantes) études réalisées sur les frigos collectifs dans les espaces de travail aux États-Unis, force est de constater que très peu de collectifs sont capables de s’organiser pour nettoyer les appareils. Selon une enquête réalisée en 2010, 44% des réfrigérateurs en entreprise étaient nettoyés moins d’une fois par mois et 22% seulement une ou deux fois par an… Dans ces conditions, d’autres études montrent qu’il serait en réalité plus rationnel de stocker les aliments dans les toilettes des entreprises que dans les frigos collectifs, car ces derniers contiennent en général davantage de bactéries ! A tel point que des cas d’empoisonnement sont signalés chaque année aux États-Unis, avec des salariés qui finissent à l’hôpital contaminés par des joyeusetés comme la Listeria, des salmonelles ou le bacille E.Coli…

Le summun de la « Tragédie du Frigo sale » a visiblement été atteint en 2009, lorsqu’un salarié d’ATT en Californie s’est mis en tête de nettoyer le réfrigérateur de son étage, qui n’avait visiblement pas été ouvert depuis TRES longtemps. Après qu’il ait versé du détergent dans l’appareil, il s’en est échappé des vapeurs méphitiques qui ont rendu malades 28 personnes, dont sept ont terminé à l’hôpital, et les pompiers ont dû intervenir avec des masques à gaz pour sécuriser le périmètre ! (NDLR : cette histoire est rapportée par plusieurs journaux américains, dont CNN. On peut donc raisonnablement penser qu’elle est vraie…).

De manière assez intéressante, on lit souvent que ce problème du nettoyage des frigos communs s’accroît dans le temps, à mesure que les premiers volontaires pour réaliser ces tâches baissent les bras face à l’inertie collective. On touche ici du doigt un problème largement décrit par Elinor Ostrom qui est celui des « dilemmes sociaux » (ou pièges sociaux) affectant la coopération. Les individus sont généralement réticents à adopter des comportements coopératifs, parce qu’ils craignent être les seuls à assumer les coûts de l’organisation collective tandis que les autres participants se comporteraient en « passagers clandestins », pour en tirer des bénéfices sans contribuer en retour.

Les études en économie comportementale déjà citées ci-dessus montrent que c’est ce qui se passe lorsque les individus d’un groupe finissent par renoncer à nettoyer un frigo commun :

Cette situation correspond à ce que l’on appelle un dilemme social, lorsqu’un groupe fonctionnerait mieux si tout le monde effectuait sa part (ici en nettoyant), mais qu’individuellement, les bénéfices du nettoyage sont plus faibles que les coûts. Donc d’un point de vue rationnel, un individu qui ne se soucie que de lui-même ne nettoiera pas, en espérant que les autres le fassent à sa place.

Des personnes peuvent avoir des préférences pour la coopération. Dans ce cas, ceux qui se soucient des conséquences pour le groupe peuvent initialement être heureux de nettoyer. Cependant, une fois que ces individus réalisent que la plupart des autres ne s’engagent pas, leur intérêt pour le bien de la communauté diminue et ils arrêtent à leur tour de nettoyer. Nous disons que la majorité des personnes fonctionnent sur la base de la réciprocité. Elles sont portées à agir pour le bien commun à condition que les autres en fassent autant. Cela signifie qu’un espace partagé restera propre au début, mais une fois que les « gentils » se sont désinvestis, il aura tendance à devenir sale ou désordonné.

Ces règles de l’action collective sont corroborées par un outil qu’Elinor Ostrom utilisait dans le cadre de ses travaux sur les Communs, à savoir la théorie des jeux répétés. On parle de « jeux » lorsque des acteurs doivent prendre des décisions dans un contexte d’incertitude en « pariant » sur le comportement des autres et leurs chances de coopérer ou de trahir (voir la vidéo ci-dessous).

Dans l’hypothèse où un jeu n’est effectué qu’une seule fois, les individus ont généralement tendance à coopérer, mais une fois que les jeux se répètent, des calculs d’utilité interviennent et à mesure que les « trahisons » s’accumulent, la préférence pour la coopération tend à diminuer graduellement dans le groupe.

Les tests montrent que les groupes les plus résilients dans la durée sont ceux où des stratégies « donnant-donnant » s’instaurent, avec une punition systématique des trahisons, mais aussi la capacité à pardonner inconditionnellement lorsque la coopération réapparaît. Être capable de sanctionner sans entretenir de rancune serait donc un facteur majeur pour la réussite d’un commun.

Et on va voir que c’est précisément ce qui fait défaut dans la majorité des cas pour les frigos collectifs.

Pas de règles, pas de sanctions, pas de Communs…

Elinor Ostrom constate dans ses points 4 et 5 que le succès dans la gestion des Communs nécessite que le groupe soit capable de mettre en œuvre une surveillance efficace des usages, exercée si possible directement par les membres de la communauté (notion de « contrôle social ») et que des sanctions graduées doivent pouvoir être administrées en cas de manquement aux règles afin de dissuader les attitudes de passagers clandestins.

Dans les cas des frigos communs, c’est bien d’abord cette question de la surveillance qui est difficile à mettre en oeuvre, notamment dans le cadre d’un collectif de travail. On imagine mal mettre en place des « tours de garde » pour veiller à la porte du frigo et ils se peut que la salle de « convivialité » ou la cuisine soient suffisamment peu fréquentées pour que la menace d’être surpris en train de piquer devienne faible. De la même manière pour les vivres qui pourrissent faute d’avoir été jetées, il peut être difficile de désigner un responsable, faute d’être en mesure d’identifier des « coupables ».

Cette difficulté à mettre en place une surveillance « sociale » a inspiré la société ADT, spécialisée dans la sécurité, qui commercialise une caméra (vous avez bien lu…) à installer à l’intérieur du frigo pour enregistrer des preuves qu’un méfait a été commis. L’idée paraît délirante, mais l’objet est bien toujours en vente. Autant dire qu’une communauté qui accepte une mesure de contrôle aussi intrusive doit sans doute être considérée comme radicalement incapable de gérer quoi que ce soit comme un Commun, car la machine supplée alors artificiellement à la dynamique collective.

« L’oeil était dans le frigo et il regardait Caïn. » – Les Châtiments, nouvelle version…

La frustration de ne pouvoir attraper les coupables de « vol » génère parfois des comportements vengeurs qui s’expriment par le biais de messages laissés sur les frigos collectifs par les victimes. Il existe des masses d’articles recensant les malédictions les plus drôles ou les plus véhémentes collées sur des réfrigérateurs. Ce qui frappe, c’est la volonté d’attirer la honte ou la culpabilité sur les malfaiteurs, tout en suscitant la désapprobation du groupe à l’encontre de ces pratiques, avec parfois – comme ci-dessous – des allusions à des sanctions d’autant plus terribles qu’elles ne pourront jamais être exercées…

L’incapacité du groupe à auto-gérer ces questions de la surveillance et des sanctions peut conduire à faire intervenir les autorités extérieures, sous la forme de la hiérarchie et des services des ressources humaines. C’est ce qui est arrivé notamment en 2014 dans cette histoire qui fait le tour du web. L’employé d’un bureau s’est plaint par un mot laissé sur le frigo que son sandwich à la dinde lui a été subtilisé.

Le coupable décide alors de le troller en collant d’autres messages lui réclamant une rançon à payer sous peine de dévoration dudit sandwich. La guéguerre de messages se poursuit jusqu’à ce que les RH soient officiellement saisis de l’affaire et diligentent une enquête. Ils finissent par éplucher la mémoire de l’imprimante de la société jusqu’à identifier le fautif et l’affaire se termine par une convocation qu’on imagine suivie de sanctions…

Ce type de situations en parfaitement ridicule, mais symptomatique de la manière dont un groupe peut en arriver à se soumettre à une autorité extérieure, faute de pouvoir administrer par lui-même la question de la régulation de ses usages.

Communautés dysfonctionnelles et « dissociétés »

J’ai cité jusqu’à présent des éléments de psychologie sociale ou d’économie expérimentale pour décrire ces « pathologies » qui frappent les communautés essayant de gérer des frigos collectifs. Mais ce genre d’explications présente le défaut de s’appuyer sur des calculs rationnels effectués par des individus (théorie du choix rationnel) plus que sur le contexte dans lequel ils agissent, reproche que l’on peut d’ailleurs aussi adresser dans une certaine mesure à Elinor Ostrom.

Dans ses Design Principles, Ostrom insiste sur la nécessité que les autorités extérieures à la communauté lui reconnaissent un minimum de droits à s’auto-organiser. Or dans les collectifs de travail (que ce soit en entreprise ou en administration), on peut souvent constater que c’est la capacité à s’auto-organiser qui est brisée, à cause du « carcan managérial » auquel les individus sont soumis qui les prive de tout pouvoir d’initiative. Ainsi se trouve vérifiée ce qui constitue une des grandes leçons que nous enseignent les Communs : ce qui compte d’abord n’est pas la ressource, mais bien la communauté et sa capacité à se gouverner elle-même : There is no Commons, without Commoning (Peter Linebaugh).

Or lorsque les communautés sont « encastrées » dans des institutions conçues pour saper méthodiquement leur faculté d’auto-organisation, on en arrive à des situations aussi pathétiques que de voir des humains supposément rationnels dans l’incapacité de gérer un simple frigo. La communauté de travail forme alors ce que l’économiste Jacques Généreux appelle une « dissociété », c’est-à-dire un environnement qui dissocient les individus les uns des autres et d’eux-mêmes. Pour Généreux, la dissociété advient lorsqu’est niée l’aspiration fondamentale des humains, à savoir « être soi et pour soi, tout en étant avec et pour les autres ».

Sous l’effet conjugué de la mise en compétition et de la hiérarchie débilitante, les hommes régressent à un état de « guerre incivile » se traduisant par une déliquescence des solidarités. Jusqu’à sombrer dans l’abject, puisque lorsque les collectifs d’employés ne sont plus capables de gérer le nettoyage d’un espace commun, on le délègue à des femmes de ménage, que le philosophe André Gorz voyait comme appartenant à cette « nouvelle classe de serviteurs » dont nos sociétés violemment inégalitaires ont besoin pour compenser la perte d’autonomie collective dans la classe dite « supérieure » des cols blancs…

Le propre, le sale et la propriété

Il est un dernier point qui mérite à mon sens de s’attarder encore un instant sur les frigos collectifs. Il touche à la question de la nature du droit de propriété qui est absolument centrale pour les Communs. Il existe en effet un lien intime entre les deux formes de Tragédie pouvant frapper un réfrigérateur partagé, à savoir d’un côté l’appropriation des ressources d’autrui et l’envahissement par la pourriture.

C’est Michel Serres qui a mis en évidence cette relation entre appropriation et pollution, dans son ouvrage « Le mal propre : polluer pour s’approprier ?« .

Dans ce livre, Michel Serres essaie de remonter aux origines mêmes de la pulsion d’appropriation et il se tourne pour cela du côté des comportements des animaux qui marquent leur territoires avec leurs déjections pour le délimiter :

Je décris les usages des mammifères afin de les comparer aux manières hominiennes de s’approprier. Qui vient de cracher dans la soupe la garde pour lui ; nul ne touchera plus à la salade et au fromage qu’il a ainsi pollués. Pour conserver quelque chose en propre, le corps sait y laisser quelque tache personnelle : sueur sous le vêtement, salive dans le mets ou pieds dans le plat, déchet dans l’espace, fumet, parfum ou déjection […]

D’où mon théorème que l’on pourrait dire de droit naturel – j’entends ici par « naturel » une conduite générale chez les espèces vivantes – : le propre s’acquiert et se conserve par le sale. Mieux : le propre, c’est le sale.

Ce qui se passe avec les frigos communs correspond exactement à ces intuitions du philosophe. Celui qui vole la pitance d’autrui obéit en réalité à la même pulsion que celui qui laisse moisir ses victuailles, car on s’approprie autant en prenant qu’en polluant.

Même le réflexe face aux « vols » dans les communal fridges relève encore d’un prolongement symbolique de cette manière de marquer son bien pour se le réserver. Michel Serres explique en effet que nous avons délaissé les déjections pour identifier nos propriétés par des signes, à commencer par notre nom. C’est ce que font les employés en marquant leurs récipients avec leurs patronymes en espérant que l’inscription dissuade les voleurs.

Mais lorsque ce procédé ne suffit pas, on voit ressurgir des comportements régressifs où la pollution reprend ses droits pour signifier l’appropriation. Ci-dessous, on voit par exemple une personne prévenant son « voleur de frigo » qu’il a craché dans sa bouteille pour le dissuader de l’utiliser (et le voleur de répondre qu’il en a fait autant en représailles !).

Plus trash encore, on voit ci-dessous une femme excédée qu’on lui prenne le lait qu’elle apporte au bureau pour son café indiquer qu’elle a remplacé le liquide par son propre lait maternel afin d’en dégoûter ceux qui pourraient être tentés !

Quoi de plus frappant pour illustrer ces jeux complexes entre le propre et le sale, qui se superposent sans cesse à propos des frigos partagés ? Sachant que Michel Serres termine son livre en faisant remarquer que l’inverse du « Mal propre », c’est justement le « Bien commun », pour dire que le Commun est autant ce que l’on renonce à s’approprier que ce que l’on entretient pour le garder « propre » afin qu’autrui puisse aussi l’utiliser.

Et si on essayait les frigos solidaires ?

On apprend donc un certain nombre de choses dans les frigos collectifs ! Les tragédies qui les frappent (souvent ?) nous montrent par contraste ce qui rend possible les Communs. Les principes d’Ostrom nous rappellent que si les tragédies sociales ne sont pas automatiques, les surmonter nécessite une conjonction complexes de facteurs pas toujours si faciles à rassembler et à maintenir dans le temps.

Encore n’ai-je pas eu le temps de parler des frigos solidaires que l’on commence à voir se développer dans nos rues, pour lutter contre le gaspillage alimentaire et favoriser les pratiques de glanage urbain en faveur des plus démunis. Peut-être est-ce que là que le sens du Commun s’est aujourd’hui réfugié ?

La directive Copyright n’est pas une défaite pour l’Internet Libre et Ouvert !

samedi 15 septembre 2018 à 13:00

Qu’est-ce qu’une victoire et qu’est-ce qu’une défaite ? En un peu plus de 10 ans de militantisme pour les libertés dans l’environnement numérique, j’ai souvent eu l’occasion de me poser cette question. Et elle surgit à nouveau de la plus cruelle des manières, suite au vote du Parlement européen en faveur de la directive sur le Copyright, alors même que le précédent scrutin en juillet avait fait naître l’espoir d’une issue différente.

438 voix pour la directive Copyright contre 226 voix contre et 39 abstentions : la défaite semble sans appel. Et pourtant…

L’expérience m’a cependant appris que rien n’est plus trompeur que les votes parlementaires pour apprécier si l’on a « gagné » ou « perdu ». En 2012, lorsque le Parlement européen avait rejeté l’accord anti-contrefaçon ACTA, nous pensions avoir remporté une victoire historique qui changerait le cours des choses. Et nous avons ensuite sincèrement œuvré en ce sens, pensant que ce serait le premier acte d’une réforme positive du droit d’auteur. Mais le recul nous montre qu’il s’agissait en réalité d’une simple séquence au sein d’un ensemble plus vaste, qui a progressivement conduit au revers de cette semaine.

Les votes dans les assemblées ont ainsi tendance à devenir des illusions d’optique, parce qu’ils ressemblent à ce que les spécialistes de stratégie appellent des « batailles décisives ». Pendant des siècles, les généraux ont cherché à obtenir cet ultime Graal de l’art militaire : un unique affrontement ayant la faculté de mettre fin à la guerre en désignant sans ambiguïté un gagnant et un perdant. Mais les historiens ont montré que la bataille décisive constituait aussi un mythe dangereux, dont la poursuite pouvait devenir la cause même de la défaite. En 1941, au début de l’opération Barbarossa, l’armée nazie remporte ainsi sur les soviétiques une série de victoires comptant parmi les plus spectaculaires de toute l’histoire. Mais ces succès ne l’empêchèrent pas ensuite de connaître un échec cuisant devant Moscou, qui marquera le point de départ d’un lent déclin les conduisant à une déroute totale en 1945. Or une des grandes différences entre l’Armée allemande et l’Armée rouge durant la Seconde Guerre mondiale, c’est que la seconde avait compris qu’il lui fallait arrêter de chercher à remporter une bataille décisive pour espérer gagner la guerre, tandis que les nazis se sont accrochés jusqu’au bout à ce mythe qui a fini par les perdre.

L’opération Barbarossa, une série de victoires insolentes se renversant un une des plus grandes débâcles de l’histoire…

Or il y a un parallèle à faire entre cette histoire et celle de la lutte pour les libertés numériques. Trop souvent, nous avons concentré nos énergies sur des combats législatifs, hypnotisés par l’idée que le décompte des voix conduirait à une sorte « d’ordalie démocratique ». Cela nous a donné plusieurs fois l’illusion d’avoir remporté quelque chose, comme au moment du rejet de l’ACTA, alors que les racines du problème restaient intactes. Mais heureusement en sens inverse, si la victoire n’est jamais acquise en cas de succès législatif, il en est de même pour la défaite. Et rien ne serait plus illusoire que de penser que le vote de cette semaine sur la directive Copyright constituerait la fin de l’histoire, sous prétexte que nous aurions encaissé là une défaite décisive !

Nous avons pas « perdu Internet » !

Certes les articles 11 et 13 du texte, qui instaurent respectivement une obligation de filtrage automatisé des plateformes et une taxe sur les liens hypertextes au profit des éditeurs de presse, représentent des monstruosités contre lesquelles il était nécessaire de lutter. Mais il convient à présent d’apprécier exactement la portée de ces mesures, pour réadapter très rapidement notre stratégie en conséquence à partir d’une appréhension claire de la situation. Or cette « vision stratégique d’ensemble » est à mon sens précisément ce qui a manqué tout au long de cette campagne dans le camp des défenseurs des libertés numériques et il est inquiétant de constater que ces erreurs de jugement n’ont pas disparu maintenant que l’heure est venue d’analyser les conséquences du scrutin.

On a pu voir par exemple cette semaine l’eurodéputée du Parti Pirate Julia Reda expliquer sur son blog que ce vote constituait un « coup dur porté à l’internet libre et ouvert » (Today’s decision is a severe blow to the free and open internet). De son côté, Cory Doctorow a écrit un article sur le site de l’EFF, où il affirme que « l’Europe a perdu Internet » (Today, Europe lost the Internet). Sur Next INpact, Marc Rees déplore dans la même veine « une mise au pilori du Web tel que nous le connaissons, un affront à la liberté d’expression. » Ces appréciations font écho au mot d’ordre qui fut celui des défenseurs des libertés en campagne contre les articles 11 et 13 de la Directive : Save Your Internet (Sauvez votre Internet).

« Save Your Internet », peut-être le pire slogan que l’on pouvait choisir pour lutter contre cette directive…

Or lorsqu’on lit attentivement ces articles, tels qu’amendés par le vote des eurodéputés, on se rend compte qu’ils ne visent pas pas « l’Internet » ou « le Web » tout entier, mais seulement une catégorie d’acteurs déterminés, à savoir les plateformes centralisées à but lucratif. Ce n’est donc pas « l’Internet libre et ouvert » qui va être frappé par cette directive, mais plutôt exactement ce qui représente son contraire ! A savoir cette couche d’intermédiaires profondément toxiques qui ont dénaturé au fil du temps les principes sur lesquels Internet et le Web s’appuyaient à l’origine pour nous faire basculer dans une « plateformisation » qui constitue en elle-même ce qui menace les libertés en ligne. Pour se convaincre que ces acteurs n’ont absolument plus rien à voir avec un Internet « libre et ouvert », il est bon de relire ce que Tim Berners-Lee, l’inventeur du web, en disait août dernier :

Nous avons démontré que le Web avait échoué au lieu de servir l’humanité, comme il était censé le faire, et qu’il avait échoué en de nombreux endroits. La centralisation croissante du Web, dit-il, a fini par produire – sans volonté délibérée de ceux qui l’ont conçu – un phénomène émergent à grande échelle qui est anti-humain.

Or le grand mensonge sur lesquels s’appuient les GAFAM – principaux responsables de cette centralisation -, c’est de chercher à faire croire qu’ils représentent à eux-seuls l’Internet tout entier, comme si rien ne pouvait plus exister en dehors de leur emprise. Or quand j’entends Cory Doctorow dire que nous « avons perdu Internet » à cause de mesures ciblant les acteurs centralisés lucratifs, je ne peux que frémir. Car avec tout le respect que je peux avoir pour ce grand monsieur, ses propos paraissent avoir incorporé la prétention des GAFAM à recouvrir le web et c’est particulièrement grave. Car c’est précisément cela qui constituerait la défaite finale des défenseurs des libertés : se résigner à cet état de fait et ne pas agir sur les marges dont nous disposons encore pour briser cette hégémonie. 

Voilà pourquoi il faut aujourd’hui l’affirmer avec force : non, la directive Copyright n’est donc pas une défaite pour l’Internet Libre et Ouvert ! C’est notre vision même du sens de la lutte qu’il faut aujourd’hui urgemment reconfigurer, pour sortir de l’ornière au fond de laquelle nous sommes en train de nous enfermer et qui ne peut nous conduire qu’à de nouvelles défaites plus cuisantes encore que celle-ci. 

Sortir d’une conception « formelle » de la liberté d’expression

Sur Next INpact, Marc Rees identifie avec raison le changement le plus profond que ce texte va amener : il remet en question la distinction classique entre hébergeurs et éditeurs, issue de la directive eCommerce de 2000. Jusqu’à présent, les hébergeurs bénéficiaient d’une responsabilité atténuée vis-à-vis des actes commis par leurs utilisateurs. Au lieu de cela, la directive Copyright introduit une nouvelle catégorie d’intermédiaires dits « actifs » qui devront assumer la responsabilité des contenus qu’ils diffusent, même s’ils ne sont pas directement à l’origine de leur mise en ligne. Mais il est important de regarder quels critères la directive utilise pour identifier ce nouveau type d’acteurs :

La définition du prestataire de services de partage de contenus en ligne doit, au sens de la présente directive, englober les prestataires de services de la société de l’information dont l’un des objectifs principaux consiste à stocker, à mettre à la disposition du public ou à diffuser un nombre appréciable de contenus protégés par le droit d’auteur chargés ou rendus publics par leurs utilisateurs, et qui optimisent les contenus et font la promotion dans un but lucratif des œuvres et autres objets chargés, notamment en les affichant, en les affectant de balises, en assurant leur conservation et en les séquençant, indépendamment des moyens utilisés à cette fin, et jouent donc un rôle actif. 

On voit que le « rôle actif » se déduit de trois éléments : la taille de l’acteur, son but lucratif et la hiérarchisation automatisée de contenus. Ce sont donc bien des plateformes centralisées lucratives, type Facebook ou YouTube, qui devront assumer cette nouvelle responsabilité. Pour y échapper, elles devront conclure des accords de licence pour rémunérer les ayant droits et, à défaut, déployer un filtrage automatisé des contenus a priori. En pratique, elles seront certainement toujours obligées de mettre en place un filtrage, car il est quasiment impossible d’obtenir une licence capable de couvrir l’intégralité des œuvres pouvant être postées. 

Nous avons combattu en lui-même le filtrage automatique, car c’était une mesure profondément injuste et disproportionnée. Mais une question mérite d’être posée : au nom de quoi les défenseurs d’un « Internet Libre et Ouvert » devraient-ils s’émouvoir de ce que les plateformes centralisées et lucratives perdent le bénéfice de la quasi-immunité dont elles bénéficiaient jusqu’à présent ? La directive a par ailleurs pris le soin de préciser que les « prestataires sans finalité commerciale, comme les encyclopédies en ligne de type Wikipedia » ainsi que les « plateformes de développement de logiciels Open Source » seraient exclus du champ d’application de l’article 13, ce qui donne des garanties contre d’éventuels dommages collatéraux.

Marc Rees nous explique que cette évolution est dangereuse, parce que l’équilibre fixé de la directive eCommerce constituerait le « socle fondamental du respect de la liberté d’expression » sur Internet. Mais cette vision me paraît relever d’une conception purement « formelle » de la liberté d’expression. Peut-on encore dire que ce qui se passe sur Facebook ou YouTube relève de l’exercice de la liberté d’expression, alors que ces acteurs soumettent leurs utilisateurs à l’emprise d’une gouvernance algorithmique de plus en plus insupportable, que cible précisément la notion de « rôle actif » ? 

Il est peut-être temps de tirer réellement les conséquences de la célèbre maxime « Code Is Law » de Lawrence Lessig : le droit n’est qu’une sorte de voile dans l’environnement numérique, car c’est le soubassement technique sur lequel s’appuie les usages qui conditionne réellement l’exercice des libertés. Quoi que dise la directive eCommerce, il n’y a quasiment plus rien qui relève de l’exercice de la liberté d’expression sur les plateformes centralisées lucratives, sinon une grotesque parodie qui salit le nom même de la liberté et nous en fait perdre jusqu’au sens ! 

En le lisant « en creux », l’article 13 dessine au contraire l’espace sur Internet où la liberté d’expression peut encore réellement s’exercer : le réseau des sites personnels, celui des hébergeurs ne jouant pas un rôle actif et – plus important encore – les nouveaux services s’appuyant sur une fédération de serveurs, comme Mastodon ou Peertube

Se doter (enfin) d’une doctrine économique claire

Allons même plus loin : en introduisant le critère de la lucrativité, l’article 13 donne aux défenseurs des libertés sur Internet l’occasion de revoir leur doctrine économique, qui m’a toujours paru constituer un sérieux talon d’Achille dans leurs positions…

Les eurodéputés ont introduit une autre exception afin que l’article 13 ne s’applique pas aux « micro, petites et moyennes entreprises« . Personnellement, je ne me réjouis pas du tout de cette insertion, car sur Internet, « micro-entreprises » veut souvent dire « start-up » et l’on sait que ces jeunes pousses aux dents longues se construisent en général sur des modèles extrêmement toxiques de captation des utilisateurs et de prédation des données personnelles. Le critère de la taille n’est pas en lui-même pertinent, car tous les Léviathans du numérique ont commencé par être petits avant de grossir. Ce qu’il importe, c’est justement qu’aucun acteur ne soit plus en mesure d’enfler jusqu’à atteindre une taille critique, et pour cela, c’est bien sur le critère de la lucrativité qu’il faut jouer. 

Dans son article sur le site de l’EFF, Cory Doctorow estime que l’Union européenne s’est tirée une balle dans le pied avec cette directive Copyright, car elle aurait imposé des contraintes insurmontables à ses propres entreprises, qui ne pourraient plus espérer désormais rattraper les géants américains ou chinois. Mais ces propos me paraissent reposer sur une vision complètement « enchantée » de la concurrence, comme s’il était encore possible de croire qu’un « marché sain » va nous sauver des monstruosités qu’il a lui-même engendrées. 

Ce qui va se passer à présent avec l’obligation de filtrage automatisée, c’est que les grandes plateformes centralisées lucratives, type YouTube ou Facebook, vont sans doute devenir des espaces où les utilisateurs éprouveront le poids d’une répression « à la chinoise » avec la nécessité de se soumettre à un contrôle algorithmique avant même de pouvoir poster leurs contenus. Par contraste, cela va créer une incitation pour les créateurs et pour leur public à investir les espaces qui resteront en-dehors du périmètre de l’article 13. Doit-on le déplorer ?

Il faut bien voir en outre que le fait de ne pas poursuivre un but lucratif ne signifie pas que l’on ne puisse plus inscrire son activité dans la sphère économique. C’est exactement ce que fait depuis plus d’un siècle l’économie sociale et solidaire, en renonçant volontairement pour des raisons éthiques à poursuivre un but lucratif ou en limitant statutairement sa lucrativité. Voilà donc l’occasion d’en finir par le mythe selon lequel « l’Internet libre et ouvert » serait compatible avec les principes mêmes du capitalisme. C’est précisément cette illusion qui a enclenché le processus fatal de centralisation et cette dérive ne pourra être combattue qu’en revenant à la racine économique du problème. 

On retrouve ici le problème de « l’agnosticisme économique » dont j’ai déjà parlé sur ce blog à propos du fonctionnement même des licences libres. En refusant de discriminer selon les types d’usages économiques, les défenseurs du Libre se sont en réalité privés de la possibilité de développer une réelle doctrine économique. C’est ce même aveuglement aux questions économiques qui conduit à des aberrations de positionnement comme celles que l’on a vu au cours de cette campagne contre la directive Copyright. Comment mobiliser autour du lot d’ordre « Save Your Internet », alors que cet « Internet » comprend en réalité les principaux représentant du capitalisme de surveillance ? C’est le sens même de nos luttes qui se vide si nous ne nous donnons pas les moyens d’opérer des distinctions claires selon les types d’acteurs économiques. 

Et maintenant, que faire ? 

En juin dernier, c’est-à-dire avant même le premier vote sur la directive, La Quadrature du Net a commencé à développer ce type d’analyses, en suggérant de ne pas s’opposer à l’introduction du critère du « rôle actif » des plateformes pour au contraire le retourner comme une arme dans la lutte contre la centralisation :

Tous ces enjeux connaissent un ennemi commun : la centralisation du Web, qui a enfermé la très grande majorité des internautes dans des règles uniques et rigides, qui n’ont que faire de la qualité, de la sérénité ou de la pertinence de nos échanges, n’existant que pour la plus simple recherche du profit de quelques entreprises.

L’une des principales causes de cette centralisation est le frein que le droit a longtemps posé contre l’apparition de son remède – le développement d’hébergeurs non-centralisés qui, ne se finançant pas par la surveillance et la régulation de masse, ne peuvent pas prendre le risque de lourds procès pour avoir échoué à retirer « promptement » chaque contenu « illicite » qui leur serait signalé. Des hébergeurs qui, souvent, peuvent à peine prendre le risque d’exister.

La condition du développement de tels services est que, enfin, le droit ne leur impose plus des règles qui depuis vingt ans ne sont presque plus pensées que pour quelques géants. Prévoir une nouvelle catégorie intermédiaire dédiée à ces derniers offre l’espoir de libérer l’Internet non-centralisé du cadre absurde dans lequel juges et législateurs l’ont peu à peu enfermé.

Dans sa réaction au vote de mercredi, Julia Reda rappelle qu’il ne s’agit pas de la fin du processus et qu’il reste encore une phase de trilogue avec la Commission et le Conseil, ainsi qu’un dernier vote au Parlement, sans doute au Printemps. Elle estime qu’il resterait encore une carte à jouer, en appelant les citoyens à se mobiliser pour faire pression sur leurs gouvernements en espérant que cela puisse encore conduire au retrait de l’article 13. Mais outre que cette hypothèse paraît hautement improbable étant donné les équilibres politiques, elle me paraît relever d’une certaine forme de désarroi, comme s’il y avait encore lieu de chercher à remporter une « bataille décisive » alors que les paramètres stratégiques de la lutte ont profondément évolué. 

L’enjeu n’est pas de chercher – sans doute vainement – à supprimer l’article 13, mais de réussir à délimiter clairement son périmètre pour s’assurer qu’il ne s’appliquera qu’à des acteurs centralisés lucratifs procédant à une hiérarchisation des contenus. Manœuvrer ainsi ferait peser sur les GAFAM une charge écrasante, tout en ouvrant un espace pour développer un réseau d’acteurs éthiques non-centralisés et inscrits dans une logique d’économie solidaire. Il n’y a qu’au sein d’une telle sphère que l’on puisse encore espérer préserver un « Internet Libre et Ouvert ». 

***

Il faut aussi sortir de l’urgence immédiate imposée par cette série de votes pour se replacer dans le temps long. De toutes façons, quelle que soit l’issue des dernières négociations, il restera encore plusieurs années (3, 4, peut-être plus ?) avant que la directive ne soit transposée dans les pays de l’Union. C’est un délai appréciable qui nous laisse encore le temps d’œuvrer pour le développement de cette sphère d’acteurs alternatifs. 

Du coup, si vous voulez concrètement faire quelque chose pour « l’Internet Libre et Ouvert », je ne vous conseillerai pas d’appeler votre député, mais plutôt d’aller  d’aller faire un don à l’association Framasoft, car ce sont eux qui ont sans doute le mieux compris et anticipé les changements nécessaires à opérer dans notre stratégie. Avec le PeerTube, l’alternative fédérée à YouTube qu’ils sont en train de bâtir, ils plantent la graine sur laquelle nos espoirs peuvent à présent se réfugier. Et avec le collectif d’hébergeurs alternatifs CHATONS qu’ils ont fait émerger, ils ont déjà préfiguré ce que pourrait être cette alliance du Libre et de l’Economie Sociale et Solidaire dont nous avons besoin pour rebooter le système sur des bases économiques saines. 

« Une bataille perdue est une bataille que l’on croit perdue » – Napoléon. 

 

 

 

 

 

 

 

Gaspard Koenig, Lost (in) Connection ?

lundi 10 septembre 2018 à 07:51

Ceux qui ont l’habitude de lire ce blog y ont déjà croisé le nom de Gaspard Koenig, essayiste et président du Think Tank ultra-libéral Génération Libre. Au mois de janvier dernier, cette organisation s’était signalée en publiant le rapport « Mes Data sont à moi ! », remettant en avant la thèse de la «patrimonialité des données personnelles». L’idée consiste à modifier le statut juridique de ces informations afin de pouvoir les traiter comme des biens monétisables par les individus, notamment auprès des grandes plateformes numériques qui les exploitent aujourd’hui « gratuitement ». Cela revient à prôner l’instauration d’un droit de propriété sur les données personnelles, rompant avec l’approche actuelle qui les protège comme des attributs de la personne humaine. En filigrane, cette approche ultra-libérale assimile toute forme de droit fondamental à une propriété dont il conviendrait de laisser la garantie à la main invisible du marché, plutôt que de s’en remettre à des règlementations jugées inefficaces.

« Fuir, là-bas fuir ! Je sens que des réseaux sont libres », semble nous dire un Gaspard Koenig pris d’un élan mallarméen…

De nombreuses personnes ont déjà pris position contre cette idée, ainsi que plusieurs autorités (Conseil d’État, CNNum, CNIL). J’ai déjà eu moi-même l’occasion d’expliquer à quel point j’étais en désaccord avec ce type de propositions (notamment dans une tribune signée avec Laura Aufrère et publiée en février dernier par Libération). Mais Gaspard Koenig a écrit le 4 septembre une chronique dans Les Échos, intitulée « Pourquoi il faut fuir Facebook et Twitter » qui mérite de s’y attarder, car elle me paraît assez révélatrice des lourdes contradictions affectant cette thèse de la patrimonialité des données personnelles.

Petite « Data Détox » d’été

En substance, Gaspard Koenig nous explique dans sa chronique qu’il a profité de l’été pour se déconnecter des réseaux sociaux et qu’il a décidé à la rentrée de les abandonner après avoir réalisé leur nocivité, tant sur le plan individuel que collectif. Comme d’autres qui ont tenté ce genre d’expériences, il raconte l’épreuve que cela a constitué pour lui de se couper ainsi des plateformes. Il emploie d’ailleurs les termes de « désintoxication » ou de « sevrage » pour décrire son ressenti et évoque des symptômes qui ne sont pas sans rappeler des crises de manque :

J’ai profité de ces deux mois d’été pour me sevrer des réseaux sociaux . Au début, mon pouce tremblait devant l’appli scintillante où les notifications s’accumulaient. Mon cerveau s’agitait après chaque ligne d’écriture, en manque de distractions. Mon coeur battait à la moindre mesure étatiste que je me retenais de commenter.

Je n’avais plus ma dose quotidienne de news plus ou moins fake, de vidéos de chatons, de polémiques bouffonnes, d’excitation et d’irritation. Je dus me résoudre à noter mes impressions dans un carnet plutôt que de les poster à la face du monde, à appeler mes amis plutôt que de les taguer, à me satisfaire de mon existence plutôt que de m’en vanter.

Après quelques semaines difficiles, où j’avoue m’être trouvé souvent au bord de la rechute, mon organisme s’est remis à fonctionner normalement.

Tout ceci n’est pas très surprenant, car les neurosciences ont effectivement montré que les réseaux sociaux agissent sur différentes parties de notre cerveau (lobe pariétal, système limbique, amygdale, etc.) en lui apportant des gratifications qui induisent des comportements addictifs (voir ce dossier de Science & Vie et la vidéo ci-dessous).

Gaspard Koenig insiste également sur les risques que les réseaux sociaux font courir au niveau collectif au débat public et à la démocratie, évoquant « l’abêtissement du débat public, l’hystérie partisane, la dictature de l’émotion, le retour du politiquement correct et la désinformation de masse » que ces outils provoqueraient.

A vrai dire, si tout autre personne que Gaspard Koenig avait écrit cette tribune, j’aurais plutôt été tenté d’applaudir (j’ai moi-même quitté Facebook en avril dernier, pour protester contre la manière dont ce réseau social a bafoué le RGPD à l’occasion de la mise à jour de ses CGU). Mais s’agissant d’un des principaux chantres de la patrimonialité des données personnelles, cette soudaine prise de conscience me paraît hautement contradictoire…

Vendre ou quitter, il faut choisir…

Gaspard Koenig réaffirme en effet dans cette chronique son attachement à la thèse de la propriété sur les données, en rappelant l’influence de l’américain Jaron Lanier qui défend cette position depuis plusieurs années :

Jaron Lanier m’avait déjà persuadé, dans son précédent ouvrage, que la rémunération des données personnelles était une nécessité économique et morale pour échapper à la domination des grandes plateformes.

Mais il n’est pas nécessaire de réfléchir bien longtemps pour s’apercevoir qu’on ne peut en même temps prôner la vente de nos données personnelles aux réseaux sociaux et appeler à les quitter sans tomber dans une complète contradiction ! Car si les individus devaient céder leurs données à Facebook ou Twitter contre espèces sonnantes et trébuchantes, ce serait bien entendu à condition d’utiliser leurs services, sinon on ne voit pas sur quoi la transaction pourrait porter… Allons même plus loin : il est bien certain que si les internautes étaient rémunérés par une plateforme, il leur serait d’autant plus difficile de la quitter, car ce lien monétaire viendrait s’ajouter aux autres formes de freins qui compliquent la décision d’abandon.

Quitter Facebook, une décision plus difficile à prendre qu’il n’y paraît, car c’est la puissance du sentiment d’être rattaché au « graphe social » qui nous retient…

C’est d’ailleurs précisément sous cet angle que nous critiquions la thèse patrimoniale au début de l’année avec Laura Aufrère, en mettant faisant valoir que sous couvert de « lutter contre l’emprise des plateformes », elle revenait au contraire à renoncer définitivement à faire valoir nos droits face à elles :

Les espaces et les gestes de notre intimité, nos relations humaines pensées et vécues comme privées et non productives deviennent une matière première monnayable. Cette prédation révèle la violence technique, économique et politique du processus de financiarisation et appelle une conversation collective sur la façon dont nous voulons faire société : souhaitons-nous que chaque pan de notre vie numérique soit assimilable à une marchandise ?

En réalité, «réparer» les conséquences de cette extrême violence par la négociation d’une soi-disant «propriété privée» réduit la question politique du vivre-ensemble à l’abandon de toute volonté collective de débat démocratique.

Aucune compensation monétaire ne pourrait jamais « compenser » ou « réparer » les dommages individuels ou collectifs qu’infligent des acteurs comme les grandes plateformes lucratives. C’est la raison pour laquelle cette promesse d’une rémunération contre l’usage des données ne constitue en réalité qu’un « miroir aux alouettes ». Mais Gaspard Koenig croît-il lui-même encore à cette « fausse solution » ? Car à quoi bon instaurer un droit de propriété sur les données personnelles si le mot d’ordre est à présent de quitter les plateformes pour se préserver de leurs effets négatifs ? A quoi bon posséder si l’on ne veut vendre ?

En mai dernier, c’est-à-dire juste avant d’entamer sa « Data Détox » estivale, Gaspard Koenig défendait pourtant encore dans une tribune l’idée de vendre nos données aux plateformes :

Aujourd’hui, nos données sont de facto monétisées par les plateformes, le plus souvent à travers la commercialisation de bases de données agrégées qui sont quant à elles soumises au droit de propriété intellectuelle… Les 4 milliards de profits générés chaque trimestre par Facebook proviennent des contenus que nous produisons et que nous lui abandonnons. La patrimonialité permettrait de réclamer la part qui nous revient.

Cela n’a juste aucun sens et la logique voudrait que Génération Libre abandonne à présent purement et simplement cette revendication, si le think tank suit le cheminement de son président…

Faire le deuil du « libre arbitre » ?

Mais au-delà de cette première contradiction, il y en a une bien plus profonde qui apparaît à la lecture de la chronique de Gaspard Koenig, puisqu’elle touche aux fondements philosophiques sur lesquels Génération Libre faisait reposer la propriété des données. Notre champion libertarien décrit en effet l’utilisateur des réseaux sociaux comme un « junkie qui se trouve toujours d’excellentes raisons » de ne pas lâcher sa came. Et il va encore plus loin dans ce passage surprenant :

Il faut surmonter la peur panique de paraître antimoderne et constater sereinement que les réseaux sociaux minent nos démocraties et annihilent notre libre-arbitre. Nous devenons, comme l’écrit Lanier, des zombies.

Utilisateur d’un réseau social en train d’effectuer un calcul d’utilité pour savoir s’il doit ou non vendre ses données…

Plaît-il ? Les plateformes auraient sur notre entendement un effet si puissant qu’elles nous priveraient de « libre arbitre », c’est-à-dire – si les mots ont un sens – de notre capacité à faire des choix rationnels ? Pourtant, la thèse de la patrimonialité des données repose intrinsèquement sur l’idée qu’il serait plus efficace de s’appuyer sur les décisions que feraient les individus-propriétaires sur le marché plutôt que sur des normes générales. On peut le lire en toutes lettres dans le rapport de Génération Libre :

Notre proposition consiste à déplacer la responsabilité de la donnée de la plateforme ou de l’entreprise vers son propriétaire. De cette responsabilité en découle des droits lui permettant de mieux protéger ses données personnelles, ou a minima, de renverser le pouvoir économique vers le consommateur des services et d’en faciliter sa protection.

La belle affaire que cette «responsabilité», si le propriétaire en question est réduit à l’état de mort-vivant décérébré ou de junkie dominé par ses addictions ! Or c’est précisément ce qui fait qu’on ne peut s’appuyer sur la fiction de l’homo œconomicus pour réguler l’usage des données personnelles. Ce que décrit Gaspard Koenig dans sa tribune traduit en fait l’état de dépendance et de quasi-subordination que subissent les individus sur les plateformes, du fait de l’asymétrie exorbitante de la relation dans laquelle ils sont insérés. Faire peser sur l’individu isolé la négociation de ses droits dans un contexte aussi déséquilibré ne peut conduire qu’à une forme de sujétion, d’autant plus redoutable qu’elle s’appuierait en apparence sur le consentement exprimé à travers l’acte de vente des données.

L’ultra-libéralisme s’appuie sur un vieux fond de philosophie cartésienne qui postule la libre volonté du sujet, sans tenir compte des conditions extérieures qui toujours la sur-déterminent.

C’est d’ailleurs exactement ce qui ressort des premières études conduites suite à l’entrée en vigueur du RGPD. Une association norvégienne de protection des consommateurs a en particulier bien montré que les choix des individus sont biaisés par des « dark patterns » (schémas obscurs) inscrits dans le design même des plateformes, qui influencent nos décisions par des incitations insidieuses et contournent ainsi l’obligation de respecter notre « consentement éclairé ».

En 2014, c’était déjà pour ce genre de raisons que le CNNum avait déconseillé la création d’un droit de propriété sur les données personnelles, considérant que cette idée «renvoie à l’individu la responsabilité de gérer et protéger ses données, renforce l’individualisme et nie le rapport de force entre consommateurs et entreprises». Gaspard Koenig a toujours critiqué le « paternalisme » dont serait imprégnée cette position ; en bon libertarien, il lui préfère l’invocation de la « propriété de soi » (self-ownership) qui justifierait de « donner à l’individu sa pleine indépendance, à commencer par son pouvoir sur lui-même » en lui permettant de vendre ses données comme il le souhaite.

Mais comment tenir encore ce genre de discours lorsque l’on a soi-même admis que les plateformes « annihilent notre libre arbitre » ? On comprend au contraire que le CNNum ou le Conseil d’Etat recommandent de fixer des limites à ce que l’individu peut consentir dans une situation de domination. C’est aussi ce que nous dit le RGPD lorsqu’il impose que le consentement donné soit bien « libre », c’est-à-dire exprimé dans des conditions excluant des pressions ou des marchandages qui pourraient le fausser. La CNIL admet d’ailleurs que le consentement exprimé puisse ne pas être valide si l’individu qui le donne est exposé à subir des conséquences négatives en cas de refus.

Le problème, c’est que les thèses ultra-libérales sont en réalité intimement liées à cette fiction désincarnée du « libre arbitre », car c’est sur elle que repose leur préférence radicale pour l’individualisme méthodologique. Si bien qu’en faisant dans sa chronique l’aveu de cette perte d’autonomie et de discernement qu’il a lui-même éprouvée dans son rapport avec les plateformes, Gaspard Koenig scie littéralement la branche sur laquelle il avait assise la patrimonialité des données…

La possibilité d’une île numérique

Encore une fois, il ne s’agit pas de critiquer la décision de quitter les réseaux sociaux, qui est en elle-même plutôt salutaire. Le geste de Gaspard Koenig reflète d’ailleurs une prise de conscience collective qui semble en train de s’opérer, vu qu’une enquête montre qu’un quart des américains auraient supprimé l’application Facebook de leur téléphone en réaction au Scandale Cambridge Analytica. Mais on pourrait alors attendre un minimum de cohérence de sa part et qu’il abandonne aussi dans la foulée l’idée de la patrimonialité des données personnelles. Sans doute est-il plus simple pour un ultra-libéral de maîtriser son addiction aux réseaux sociaux que de se défaire de sa profonde dépendance intellectuelle vis-à-vis du paradigme propriétariste et du dogme de l’homo œconomicus !

Encore un effort, a-t-on envie de dire ! Encore un effort et le libertarien deviendra peut-être en sus un libriste, car voici ce qu’il nous dit à la fin de sa chronique :

En attendant qu’un petit génie de la Silicon Valley invente un algorithme non addictif et un modèle économique libéré de la publicité, je propose de suivre les conseils de Nietzsche et de réapprendre à ruminer.

Nul besoin d’attendre un tel Deus Ex Siliconia, car le réseau social Mastodon existe déjà, s’appuyant sur des logiciels libres et une fédération de serveurs pour casser les effets négatifs de la centralisation en offrant la garantie que les données personnelles ne sont pas exploitées. A ma connaissance, on n’y a cependant jamais vu le bout du nez de Gaspard Koenig, mais peut-être écrira-t-il bientôt une nouvelle tribune dans Les Échos pour nous raconter qu’il a choisi d’y faire son nid numérique ?

« Lost in Connection », c’est ce que je me suis dit en lisant cette chronique de rentrée, tant les propos tenus me semblaient incohérents. Mais un échange avec Irénée Régnauld, l’auteur de (l’excellent) blog Mais où va le Web ?, m’a fait comprendre la logique à l’œuvre derrière ce non-sens apparent :

Si un droit de propriété sur les données personnelles était instauré, la foule des internautes – tel un nouveau prolétariat – pourrait bien aller vendre ses données aux plateformes, même s’il s’agit d’un véritable marché de dupes. Soyons certains en revanche que l’élite ultra-libérale reprendrait ses billes numériques pour les placer en lieu sûr. Ce serait d’ailleurs tout à fait cohérent avec le nouvel imaginaire des libertariens, qui rêvent de se réfugier dans des îles artificielles paradisiaques où pourrait se recréer une société « idéale », loin du contact de la masse et de l’étouffante souveraineté des États. Gaspard Koenig a même consacré une chronique à ce sujet dans les Échos, dans laquelle il ne cache pas son attirance pour ce genre d’idées sécessionnistes !

Pour eux, la possibilité d’îles numériques coupées de la jungle des plateformes ; pour nous, la possibilité de vendre nos données en abdiquant au passages nos libertés : voilà le vrai visage de la patrimonialité…

Portait de l’artiste en travailleur exproprié

mercredi 5 septembre 2018 à 23:53

Au début de la semaine, l’édition strasbourgeoise de Rue89 a publié un article assez fascinant consacré à un écrivain public louant ses services dans cette ville d’une manière un peu spéciale. Il propose en effet à des étudiants d’écrire certains travaux à leur place et depuis 13 ans qu’il se consacre à cette activité, il affirme avoir rédigé 5 thèses et une trentaine de mémoires soutenus sans éveiller de soupçons. Les tarifs qu’il pratique sont d’environ 15 000 euros la thèse (pour un an et demi à deux ans de travail) et 2000 euros le mémoire.

Je ne vais pas m’attarder sur ce que la révélation de ces agissements dit d’un certain malaise dans les universités françaises, mais plutôt me concentrer sur un point qui m’a immédiatement sauté au yeux en lisant cet article.

On voit ici en effet apparaître « à l’état brut » la valeur du travail de rédaction tarifé par cet écrivain public à ses clients, sans que lui-même puisse revendiquer la qualité d’auteur. Or il faut savoir qu’il peut arriver que des doctorants publient leur thèse sous la forme d’un livre après l’avoir soutenue. C’est même quelque chose de très prisé dans les milieux académiques, car cela est considéré comme une reconnaissance supplémentaire de la valeur de la thèse. Or dans la grande majorité des hypothèses, les jeunes chercheurs ne sont pas payés ou seulement très peu par les éditeurs. Il arrive même qu’on leur demande de prendre à leur charge tout ou partie des frais d’édition, à tel point que les écoles doctorales proposent des bourses pour permettent aux doctorants de faire face à ces frais. Même sans assumer les risques financiers, les éditeurs demandent alors des cessions exclusives de droits qui leur permettent d’exploiter l’œuvre en empochant l’intégralité du produit des ventes.

On aboutit donc au paradoxe que nous avons d’un côté un écrivain public, ne pouvant revendiquer pour lui-même la qualité d’auteur, mais payé néanmoins pour son travail de création, tandis que les doctorants pouvant signer de leur nom ne sont pas rémunérés ou doivent même payer l’éditeur pour être publiés. Cette disjonction entre la reconnaissance de la qualité d’auteur et la rémunération du travail est en réalité extrêmement intéressante, car elle dit des choses profondes sur la fonction latente du droit d’auteur : celui-ci constitue en effet une sorte de « voile » permettant d’invisibiliser le travail de l’auteur au cours du processus d’édition. Contrairement à ce que l’on pourrait penser, cette situation est loin d’être particulière au secteur de l’édition académique, mais concerne bien l’ensemble des auteurs de l’écrit que l’on peut en réalité considérer comme des « travailleurs expropriés ».

Prix du travail concret

Lorsque j’ai fait part de ces quelques réflexions sur Twitter après avoir lu l’article de Rue89, on m’a répondu que je me trompais, car le tarif pratiqué par l’écrivain public correspondrait en réalité, non à celui du travail effectué, mais soit au prix de l’illégalité commise, soit au prix du diplôme que ses clients s’achètent en recourant à ses services. Mais ces deux hypothèses sont fausses, car l’écrivain public explique qu’il pratique un tarif de 50 euros la page correspondant « à peu près [aux] mêmes prix que les nègres qui écrivent pour les sommités chez Gallimard« .

Rappelons qu’en France, le recours à des « nègres littéraires » ou « ghost writers » est parfaitement légal. Le Code de propriété intellectuelle prévoit en effet explicitement que les auteurs peuvent choisir de garder l’anonymat, ce qui ouvre la possibilité de proposer leurs textes à un tiers pour qu’ils les signent, à condition qu’ils y consentent. Ils bénéficient néanmoins d’une « protection » au titre du droit moral, dans la mesure où ils peuvent toujours révéler leur identité d’auteur, même s’ils se sont engagés par contrat à ne pas le faire. L’écrivain public ne commet donc ici lui-même aucune illégalité, car ce sont ses clients qui enfreignent ensuite la réglementation sur le doctorat. Le tarif pratiqué est donc bien celui du travail réel effectué, ce qu’atteste également le fait qu’il soit calculé au feuillet.

On m’a ensuite fait remarquer qu’une rémunération de 15 000 euros pour un an et demi ou deux ans d’écriture était en réalité très faible et l’écrivain public admet lui-même qu’il vit dans la précarité. Il est contraint en plus de travailler au noir, ce qui ne lui permet pas de cotiser pour bénéficier de droits sociaux, type retraite. S’il a écrit comme il le dit 5 thèses et 30 mémoires en 13 ans, on aboutit au vu des tarifs qu’il pratique à 10 384 euros par an, soit 865 euros par mois (alors que le SMIC net est à 1188 euros). Mais là aussi, ces remarques m’ont fait sourire, car elles attestent surtout d’une profonde méconnaissance des niveaux de rémunérations des auteurs dans le secteur de l’écrit. Si on juge cette rémunération de l’écrivain public faible, que devrait-on dire alors des droits « officiels » que touchent les auteurs ! Car d’après les chiffres donnés en 2015 par l’AGESSA (l’organisme qui s’occupe de la sécurité sociale des auteurs), 93, 3% des auteurs n’arrivaient pas à atteindre le seuil d’affiliation de 8 487 euros de revenus en droits d’auteur par an permettant l’ouverture de droits sociaux.

Cela signifie en réalité qu’en étant payé directement pour son travail, et non en droits d’auteur, l’écrivain public dégage une rémunération supérieure à la très grande majorité des droits versés aux auteurs d’oeuvres originales. La faiblesse de ces revenus fait que selon d’autres études, 95% des auteurs en France ne peuvent se consacrer à titre principal à l’écriture et sont obligés de conserver un emploi par ailleurs, un chiffre qui fracasse la fiction d’une correspondance entre publication et professionnalisation des auteurs.

La propriété contre le travail

Comme je le disais dans l’introduction de ce billet, le cas de cet écrivain public est intéressant, car il donne à voir la valeur brute du travail de création, celle que les éditeurs ne rémunérent en réalité jamais et qu’ils ne pourraient d’ailleurs sans doute pas payer à ce niveau sans que l’ensemble du secteur de l’édition ne s’effondre brutalement tant il repose sur le « travail gratuit » des auteurs. On a pourtant l’habitude de dire que le droit d’auteur rémunère le « travail de l’écrivain », mais cette affirmation est en réalité grossièrement fausse. Le droit d’auteur n’a en effet pas du tout pour but de rémunérer le travail, mais seulement d’associer l’auteur à l’exploitation de la propriété sur l’oeuvre. Celle-ci naît à l’origine sous la forme d’un droit exclusif au profit de l’auteur, mais il cède ensuite cette propriété à l’éditeur en échange d’un pourcentage négocié du produit des ventes d’ouvrages. C’est précisément ce mécanisme qui permet à l’éditeur de ne jamais payer le prix du travail réel effectué, lequel se trouve complètement « invisibilisé » dans le processus.

Dans la très grande majorité des cas, l’auteur – du fait même qu’on lui attribue une propriété – se trouve donc « exproprié » de la valeur de son travail réel, pour ne recevoir en droits d’auteur qu’une rémunération très en deçà de ce qu’il pourrait tarifer, comme le fait de son côté notre écrivain public. A l’inverse, l’auteur va se retrouver parfois « superproprié » du fait même du mécanisme de rémunération proportionnelle : en cas de succès et avec la vente de nombreux exemplaires, il va toucher des revenus qui n’auront plus rien à voir avec le « travail réel » accompli, mais les statistiques montrent que ces hypothèses demeurent en réalité fort rares.

L’espoir d’écrire un best-seller, un élément psychologique qui explique pourquoi les auteurs acceptent l’invisibilisation de leur travail.

La question qu’on est en droit de se poser est de savoir pourquoi les auteurs acceptent d’être rémunérés en fonction d’une propriété et pas de leur travail ? La réponse est de deux ordres : le premier élément qui joue est que le fait d’être édité apporte aussi à l’auteur une rémunération symbolique, car encore aujourd’hui, c’est le passage par le livre édité qui « créée » le statut d’auteur. L’éditeur est là pour maintenir une rareté des auteurs dans la société, ce qui rend cette qualité d’autant plus désirable. Cette dimension « psychologique » est d’ailleurs assez éclatante dans le témoignage de l’écrivain public qui explique que le fait d’être payé pour son travail l’aide à accepter de renoncer complètement à la rémunération symbolique liée au fait de pouvoir revendiquer la paternité des textes qu’il produit :

c’est assez important d’être payé car le degré d’implication est tel qu’il vaut mieux faire appel à un professionnel. On arrive à se distancier des textes parce qu’on est payé, on compartimente d’autant mieux étant donné que l’argent est aussi un symbole de séparation. Tandis que si quelqu’un se dévouait corps et âme sans être payé il aurait plus de mal à faire le deuil de son travail, de cette absence, d’être seulement la mère porteuse mais pas la mère.

Le second élément qui fait que les auteurs s’accrochent – de manière assez irrationnelle – à la propriété plus qu’au travail est que toute personne vit dans l’illusion qu’elle peut avoir beaucoup de succès en produisant un « best-seller ». Uniquement dans ce cas – statistiquement improbable, mais pas impossible – le fait de pouvoir revendiquer une propriété va être plus profitable que celui de faire payer le travail concret. On est donc dans une situation proche des joueurs de loto, dont chacun espère qu’il sera le gagnant d’un gros lot, alors qu’en réalité, les perdants sont innombrablement plus nombreux et permettent par leur implication dans le processus de « fabriquer » artificiellement les rares succès qui entretiennent la machine à rêves.

Le marché de la culture est donc structurellement fait pour aboutir à une dichotomie entre un sous-prolétariat massif de créateurs expropriés et une minorité de « stars » qui constituent en réalité des rentiers.

Marchandisation fictive

Cette dialectique entre le travail et la propriété existe en fait depuis la naissance même du droit d’auteur à la Révolution française. L’historien et économiste hongrois Karl Polanyi explique en effet dans son ouvrage La Grande Transformation qu’il s’est produit au tournant du XIXème siècle une série de mutations majeures qui ont permis l’avènement de la Révolution Industrielle et l’essor du capitalisme. Cela passe par le fait que trois ressources essentielles – le Travail, la Terre et la Monnaie – ont été transformées en « marchandises fictives » par l’attribution des prix permettant de les échanger sur un marché auto-régulé.

Pour ce qui est des travailleurs, la Révolution française va les consacrer comme des «hommes libres», mais uniquement pour qu’ils puissent aller vendre leur force de travail sur le marché auprès d’employeurs, par le biais d’un contrat de louage d’ouvrage qui deviendra plus tard « contrat de travail ». Auparavant, le travail n’était pas une marchandise parce que c’était des corporations qui avaient la faculté d’en fixer le prix, et non le marché qui restait ainsi « encastré » dans la société. Or exactement au même moment, les Révolutionnaires vont faire l’inverse pour les auteurs : ils vont considérer que ces derniers ne sont pas des travailleurs, mais des propriétaires, qui iront céder sur le marché leurs droits à des intermédiaires type éditeurs.

Cette solution est à double tranchant pour les créateurs. Elle les place en apparence dans une position plus forte que les travailleurs, car leurs prérogatives s’appuient sur un droit de propriété. Mais la propriété a ceci d’ambigu qu’elle est par essence transférable, d’où ce moment critique des contrats d’édition où le taux de rémunération des auteurs est « librement » fixé par les parties, dans une situation de rapport de forces structurellement défavorable aux auteurs, ce qui tire fatalement leur rémunération vers le bas. Pire encore, la propriété « masque » alors le travail concret de l’auteur, qui n’est jamais payé en tant que tel et qui disparaît littéralement de l’équation. Si bien que l’on peut dire que la fonction première du droit d’auteur n’est pas d’assurer aux auteurs des moyens de vivre (hypothèse rarement concrétisée en pratique), mais de faire symboliquement disparaître le travail des auteurs.

Si l’on revient aux analyses de Karl Polanyi, on constate que les oeuvres sont donc bien aussi devenues des « marchandises fictives » (la soit-disante « exception culturelle » n’est qu’une plaisante fable…), mais par des mécanismes différents de ceux qui ont conduit à la marchandisation du travail. D’un côté, le système issu de la Révolution a fait des travailleurs manuels des individus subordonnés qui vendent leur travail sur le marché et que l’on prive de la qualité de propriétaires (c’est pourquoi la résistance s’est faite dans des coopératives où les travailleurs ont pu devenir co-propriétaires de l’outil de production). De l’autre, le même système a fait des travailleurs intellectuels des individus qui ne sont pas subordonnés (peut-être parce que le travail de création ne peut que difficilement l’être ?), qui vendent la propriété de leurs œuvres sur un marché et qui ne doivent surtout pas être vus comme des travailleurs (et la résistance pourrait se faire dans des « syndicats d’auteurs » qui auraient justement pour but de faire reconnaître ce « travail de création » invisibilisé).

La parenthèse Jean Zay

Il y a eu un moment dans l’histoire où cette invisibilisation du travail de création a failli être renversée : ce fut durant l’entre-deux guerres, lorsque Jean Zay devint Ministre de la Culture sous le Front Populaire et qu’il tenta d’opérer une profonde réforme du droit d’auteur.

Image Wikimedia Commons. Domaine public.

Son but était justement de faire en sorte que les créateurs soient juridiquement reconnus et protégés comme des travailleurs et non comme des propriétaires. Il l’exprime de manière très claire dans l’exposé des motifs de la loi qu’il proposa en 1936 :

L’expression de « propriété littéraire et artistique », inexacte et impropre, s’est peu à peu introduite dans le vocabulaire des hommes de loi et dans le langage usuel. Le fait que, dans les lois de l’époque révolutionnaire, dans les rapports de Chapelier et Lakanal, le mot de propriété avait été employé, fut largement exploité.

Et pourtant Chapelier déclarait, dans son rapport de janvier 1791 (1- Voir Annexe II.), qu’il s’agissait de la plus personnelle de toutes les propriétés, que c’était une propriété différente des autres propriétés.

En réalité ce que Chapelier demandait, pour l’auteur ayant livré son ouvrage au public, c’était la rémunération du travail. Le vocable de « propriété » ne vient sous sa plume, au lendemain de l’abolition du régime féodal, que pour désigner ce droit nouveau, autrement que par le mot de « privilège », auquel se relient les souvenirs de l’ancien régime.

[…]

L’auteur ne doit plus désormais être considéré comme un propriétaire, mais bien comme un travailleur, auquel la société reconnait des modalités de rémunération exceptionnelles, en raison de la qualité spéciale des créations issues de son labeur. L’assimilation de la protection particulière prévue en sa faveur à celle que le code du travail et le code civil octroient à l’ensemble des travailleurs doit donc être admise de plus en plus largement. C’est sous le signe du travail, et non sous le signe de la propriété, que doit être construit ce nouveau droit français accordant aux auteurs, dans leur intérêt propre, comme dans l’intérêt spirituel de la collectivité, la protection légitimement due à ceux qui forment, suivant la magnifique expression d’Alfred de Vigny, la « Nation de l’Esprit ».

On ne s’étonnera pas que Jean Zay soit aussi à l’origine du régime des intermittents du spectacle, système qui permet une rémunération particulière du travail de création, tenant compte de ses spécificités, et notamment de son caractère discontinu, en s’appuyant sur une « socialisation du salaire » et alors même ce travail n’est pas nécessairement subordonné. Mais Jean Zay ne put faire aboutir sa réforme du droit d’auteur, en raison d’une résistance acharnée des milieux de l’édition et de l’irruption de la Seconde Guerre mondiale qui devait conduire à sa disparition tragique suite à son assassinat par la milice de Vichy.

Après la Seconde Guerre mondiale, c’est la vision « propriétariste » du droit d’auteur qui s’est imposée avec l’adoption en 1957 d’une « loi sur la propriété littéraire et artistique » et on est retombé dans l’invisibilisation systématique du travail de l’auteur.

Aller au bout de la colère

Paradoxalement, la situation de cet écrivain public « faussaire » correspond à une des rares hypothèses où un auteur de l’écrit est rémunéré pour son travail, mais on comprend mieux pourquoi au vu de l’histoire qui a conduit à dissocier propriété et travail dans le champ de la création artistique. Si j’ai intitulé ce billet « Portrait de l’artiste en travailleur exproprié », c’est parce que certaines recherches, en sociologie notamment, tentent aujourd’hui de faire réapparaître cette dimension cachée du travail dans la création. On pense notamment aux ouvrages de Pierre-Michel Menger (Portait de l’artiste en travailleur, Le travail créateur), professeur au Collège de France. Il aborde ces questions en montrant que si le capitalisme valorise aujourd’hui fortement la figure de l’artiste et la pousse comme un modèle, c’est justement parce qu’elle permet de dissimuler le travail et de préparer les esprits à une précarisation généralisée que nous accepterons beaucoup mieux en nous faisant miroiter l’espoir de tous devenir « artistes »…

Cette question du travail de création rejaillit aussi au grand jour en ce moment à travers le mouvement #PayeTonAuteur ou #AuteursEnColère, qui a pris de l’ampleur depuis le début de l’année. Cette revendication quasi-syndicale voit des auteurs de l’écrit s’organiser collectivement pour revendiquer que leur travail concret soit effectivement rémunéré, comme lorsqu’ils donnent des conférences dans les salons littéraires ou qui se battent pour la défense de leurs droits sociaux, fragilisés comme jamais par la politique de casse systématique du gouvernement.

Cette mobilisation des auteurs pour leurs droits me paraît constituer un des événements les plus intéressants que l’on ait vu depuis des années, car elle fait réapparaître en filigrane des questions fondamentales qui avaient été oubliées en France depuis la disparition de Jean Zay. C’est le travail concret de création qui se manifeste, en exigeant reconnaissance sociale et rémunération économique, après avoir été si longtemps nié. Mais il arrivera sans doute un moment où ce mouvement des auteurs devra aller au bout de sa colère et regarder en face la dissimulation du travail par la propriété, ce qui ne peut conduire qu’à réinterroger en profondeur les fondements mêmes du droit d’auteur.