PROJET AUTOBLOG


S.I.Lex

Site original : S.I.Lex

⇐ retour index

L’oeuvre, le mythe et le domaine public (Réponse à Alexandre Astier)

samedi 7 décembre 2013 à 20:07

Avertissement préalable : suite à la publication de ce billet, Alexandre Astier est venu discuter sur Twitter et l’échange fut constructif et intéressant, ce qui est très rare sur ces questions. J’insère ci-dessous certains des tweets d’Alexandre Astier. La suite du billet doit être lue à la lumière de ces déclarations, qui sont sensiblement différentes des propos qui ont pu être tenus lors de l’émission Ce soir (ou jamais !) ou qui les éclairent autrement ("K " veut dire Kaamelott). Alexandre Astier autorise les usages pédagogiques de son oeuvre ; il autorise aussi les fanfictions s’inscrivant dans son univers et on peut discuter avec lui d’une éventuelle réduction de la durée du droit d’auteur.

***

Vendredi dernier, j’ai participé à Ce soir (ou jamais !) sur France 2, dans une émission intitulée "Tintin, Astérix, James Bond, Yves Saint Laurent : y a t-il une vie après la mort du créateur ?". Frédéric Taddeï a souhaité en effet rebondir sur le débat suscité en octobre dernier par les déclarations parues dans le Monde de Nick Rodwell, mari de la veuve d’Hergé et gestionnaire des droits sur Les Aventures de Tintin via la Société Moulinsart. Celui-ci avait en effet annoncé son intention de publier un nouvel album de Tintin en 2052, pour essayer d’empêcher que l’oeuvre d’Hergé n’entre dans le domaine public (contre la volonté exprimée par l’auteur de son vivant). Pier-Carl Langlais avait réagi à ces propos sur Rue89 et je l’avais fait aussi de mon côté sur Slate, car il peut paraître assez choquant de voir un héritier chercher à arracher une oeuvre du domaine public et cela rappelle funestement l’allongement de la durée des droits votée en 1998 aux États-Unis sous la pression de la Walt Disney Company, juste avant que le personnage de Mickey n’entre dans le domaine public.

Qu’est-ce qui fait la différence entre une oeuvre et un mythe ? (Image tirée de "La quête du Saint Graal et la mort du roi Arthur". Domaine public. Source : Wikimedia Commons)

Le débat sur le plateau de Ce soir (ou jamais !) a bien confirmé que Rodwell avait l’intention de tenter quelque chose, sans que l’on puisse savoir exactement quoi. Mais une autre personne était présente parmi les invités, qui était directement concernée par cette question du domaine public. Il s’agissait d’Alexandre Astier, auteur-réalisateur-acteur de la série télévisée Kaamelott, s’inscrivant dans l’univers de la Légende arthurienne et de la quête du Graal. A vrai dire, on ne pouvait trouver meilleur exemple de ce que permet l’ouverture du domaine public en terme de réutilisation de personnages préexistants pour créer une nouvelle oeuvre. Et Alexandre Astier est aussi allé puiser dans le domaine public à l’occasion de son récent spectacle "Que ma joie demeure !" consacré au compositeur Jean-Sébastien Bach.

Or lors de l’émission – et il me semble que ce furent les échanges les plus intéressants de la soirée -, Alexandre Astier a tenu des propos contradictoires sur le domaine public. D’un côté, il a admis que les oeuvres comme les Aventures de Tintin avaient une dimension particulière et qu’elles tendaient à devenir des "mythologies" destinées à être "remâchées comme du chewing-gum" à travers les époques (métaphore qui fait furieusement penser au mashup). Mais lorsqu’on lui a fait remarquer que lui-même avait réutilisé des éléments du domaine public pour créer à son tour, il s’est subitement raidi, allant jusqu’à dire "si vous écrivez, écrivez vos trucs, les gars. Ne venez pas chercher les autres". Et lorsqu’on lui oppose que c’est pourtant ce qu’il a fait avec Kaamelott, il répond que la Légende arthurienne n’est "pas une oeuvre", mais "un mythe" et qu’on ne peut pas la comparer avec les Aventures de Tintin.

N’ayant pas eu le temps de répondre sur le fond à Alexandre Astier pendant l’émission, je voulais le faire dans ce billet, pour montrer que cette conception minimise certains fondements profonds de la création, qui puise toujours à des degrés divers dans ce qui a existé auparavant ("Nous sommes des nains assis sur les épaules des géants"). Alexandre Astier illustre ainsi le fait qu’une grande partie des créateurs aujourd’hui oublient la dette fondamentale qu’ils ont vis-à-vis du domaine public et c’est l’une des sources majeures du déséquilibre du système de la propriété intellectuelle.

Ecouter la légende aux portes des oeuvres et les oeuvres aux portes de la légende

La distinction qu’Alexandre Astier fait entre "l’oeuvre" et le "mythe" ou la "légende" me paraît contestable. Il n’y a qu’une différence de degré, mais pas de nature entre les deux, car c’est finalement le travail du temps, au fil des réutilisations d’une oeuvre qui transforme les créations en légende ou en mythe.

La page Wikipédia "Liste d’oeuvres concernant le cycle arthurien" montre bien ce lent processus d’alluvionnement, qui fait que l’accumulation successive des oeuvres reprenant les mêmes histoires et les mêmes personnages transforment leur nature. Tout comme la droite est une succession de points, le mythe est bien une succession d’oeuvres créées par des auteurs, même si leur nom finit par disparaître avec le temps. Issu de la synthèse entre des légendes celtiques et bretonnes et d’élements issus du Christianisme, le "fonds commun" de la légende arthurienne a été ensuite cristallisé par des auteurs médiévaux, avec un rôle particulier joué par Chrétien de Troyes au XIIème siècle. Les personnages, les événements et les lieux du la Quête du Graal sont ensuite sans cesse repris, modifiés, augmentés par des auteurs successifs, jusqu’à l’époque contemporaine où la Légende arthurienne continue à alimenter l’imaginaire des créateurs. Notre appréhension de l’histoire d’Arthur et des chevaliers de la Table ronde est aujourd’hui par exemple indissociable du film Excalibur de John Boorman, de l’Enchanteur de Barjavel, des Dames du Lac du Marion Zimmer Bradley, du Merlin de Disney ou encore, bien entendu, de Sacré Graal des Monthy Python dont la veine parodique a plus d’un lien avec Kaamelott.

Kaamelott est l’un des maillons d’une longue chaîne d’oeuvres qui ont forgé au fil du temps le cycle du Graal et nul doute que la légende continuera encore longtemps, augmentée de l’apport d’Alexandre Astier. Dans la dynamique de la création, il y a donc un lien profond entre les oeuvres et les mythes. Les oeuvres vont souvent chercher leurs inspirations dans des mythes et les mythes sont régénérés et augmentés périodiquement par les oeuvres, sans quoi ils tomberaient dans l’oubli.

Le cycle de la création

Il se trouve que ce grand "cycle" de la création a très bien été décrit par l’américain Joseph Campbell dans son ouvrage de 1949 "Le héros aux mille et un visages", dont j’ai eu déjà l’occasion de parler dans S.I.Lex. Campbell soutient qu’un très grand nombre d’histoires peuvent se ramener à un schéma narratif archétypique, qu’il nomme le "voyage du héros". Cette structure constitue à ses yeux un "monomythe" qui constitue la matrice de la plupart des grands récits de l’Humanité.

Mais loin d’être limité aux mythes et aux contes traditionnels, le pouvoir explicatif de la théorie du monomythe s’applique en réalité à de très nombreuses créations contemporaines. Georges Lucas par exemple reconnaissait sa dette vis-à-vis de l’ouvrage de Campbell pour l’écriture de Star Wars et de plusieurs analyses ont mis en évidence la présence de la même structure sous-jacente dans de nombreux récits contemporains, que ce soit Harry Potter, Le Seigneur des anneaux ou même… Le monde de Nemo !

Avec Kaamelott, ce jeux des influences est encore plus riche et complexe, car la série puise bien plus largement que dans la Légende du Graal. On y retrouve des traces de l’Univers fantasy des jeux de rôles (Donjons & Dragons, Warhammer) ; des références plus ou moins directes à l’univers d’Astérix, de Star Wars ou de Stargate, des liens avec Sacré Graal ou la série La Vipère noire, de Rowan Atkinson (Mister Bean). Tout ceci fait de Kaamelott un grand mélange et un carrefour entre beaucoup d’influences : un amalgame d’éléments légendaires et d’oeuvres, pour former quelque chose de nouveau.

Loin de moi l’idée d’insinuer que Kaamelott n’est pas une création originale, au sens que le droit attribue à ce terme (portant l’empreinte de la personnalité de l’auteur) ou de diminuer le mérite d’Alexandre Astier. Mais l’originalité n’est justement pas la nouveauté et ce qui fait l’intérêt de Kaamelott, c’est précisément la manière dont des figures immémoriales (Arthur, Guenièvre, Lancelot, Perceval, Merlin, etc.) ont été "télescopées" par Astier de manière complètement anachronique avec des références récentes et notre langage d’aujourd’hui. Du coup, entendre quelqu’un comme Alexandre Astier dire : "si vous écrivez, écrivez vos trucs, les gars. Ne venez pas chercher les autres", a vraiment du mal à passer, car il est l’exemple même de ces auteurs qui ont "recyclé" au sens le plus noble du terme des éléments préexistants.

Et tout cela n’a été possible que grâce à l’existence du domaine public.

Tintin au pays du Folklore

Faut-il maintenant faire une distinction entre la Légende arthurienne et les Aventures de Tintin ? Bien sûr, Tintin n’est pas né dans la "vallée du Floklore" pour reprendre cette belle expression inventée par Aymeric Mansoux, à une époque où les oeuvres naissaient et restaient dans le domaine public. C’est une oeuvre moderne, issue du travail créatif d’Hergé et elle porte la marque d’un seul auteur. Mais si nous le voyons ainsi, c’est aussi parce que nous ne pouvons pas encore connaître l’avenir et savoir si Tintin accèdera un jour au statut de mythe. A vrai dire, certaines oeuvres créées au 20ème siècle par des auteurs uniques ont rapidement acquis une dimension qui les rapproche des mythes d’antan. C’est le cas par exemple de Star Wars de Georges Lucas ou du Seigneur des Anneaux de Tolkien (aussi peut-être des comics américains). C’est le cas en réalité des "oeuvres univers", qui font davantage que raconter une histoire et dessinent un "monde" avec une galerie de lieux et de personnages. Or l’univers de Tintin présente de telles caractéristiques.

Galerie des personnages des Aventures de Tintin, dessinée par Hergé sur les pages de garde des albums.

Juridiquement, Tintin et Arthur n’ont pas une nature différente : ce sont tous deux des personnages que les juges acceptent de considérer comme protégeables en eux-mêmes par le droit d’auteur lorsqu’ils ont suffisamment de caractéristiques originales. La différence, c’est bien qu’Arthur est dans le domaine public, ce qui le rend disponible pour toutes les réutilisations, alors que Tintin reste protégé par le droit d’auteur, et fait l’objet d’un contrôle féroce exercé par la société Moulinsart. C’est ce qui m’a fait dire au cours de l’émission que nous sommes en réalité la première époque dans l’histoire qui se refuse à elle-même que ses oeuvres accèdent au statut de mythes, à cause d’une conception déséquilibrée de la propriété intellectuelle. Si Rodwell parvient artificiellement à prolonger les droits sur Tintin, alors il n’entrera pas dans le domaine public et il ne pourra pas faire l’objet d’appropriations et de réinterprétations libres, à l’image de celle qu’Astier a pu faire à partir de l’histoire de la Quête du Graal. Et le cas de Rodwell n’est pas isolé, puisque d’autres ayant droits s’efforcent en ce moment d’empêcher des oeuvres majeures du 20ème siècle d’entrer dans le domaine public (Sherlock Holmes, Zorro, Tarzan).

Ce faisant, on s’éloigne d’ailleurs complètement de l’esprit originel du droit d’auteur. En 1791, à la Révolution, lorsque le droit d’auteur fut créé en France, il durait seulement pendant 10 ans après la publication de l’oeuvre, ce qui permettait rapidement qu’elle accède au domaine public et que le public s’en empare. Le Chapelier, le représentant qui fut le rapporteur de cette première loi sur le droit d’auteur, concevait les oeuvres comme des propriétés de l’auteur, mais il ajoutait : "Lorsqu’un auteur fait imprimer un ouvrage ou représenter une pièce, il les livre au public, qui s’en empare quand ils sont bons, qui les lit, qui les apprend, qui les répète, qui s’en pénètre et qui en fait sa propriété. " Et c’est préciser cette appropriation par le public, qui constituait un mécanisme essentiel dans la création des contes et des mythes, qui est bloqué aujourd’hui à cause des restrictions imposées par le droit d’auteur, ainsi que par la durée très longue des droits. Ce qui était libre au bout de 10 ans ne l’est aujourd’hui qu’après presque un siècle et demi…

Schéma par Guillaume Champeau. Source : Numerama. CC-BY-NC-ND.

Harry Potter a déjà des milliers d’auteurs… 

Lors de l’émission, il n’a finalement été question que des suites que des auteurs professionnels pouvaient donner à des oeuvres après la mort de leur créateur, mais nous n’avons pas pu parler des productions amateurs, qui constituent pourtant un aspect important de la créativité aujourd’hui sur Internet. Il en existe sans doute sur Tintin, mais elles sont obligées plus ou moins de se cacher, étant donné que la Société Moulinsart a déjà attaqué en justice des sites de tintinophiles.

Mais d’autres titulaires de droits n’ont pas la même attitude et c’est le cas par exemple de J.K. Rowling, l’auteur de Harry Potter, qui accepte assez largement les fanfictions s’inscrivant dans son univers et reprenant ses personnages. Elle a posé des limites, comme le fait de ne pas faire d’usage commercial ou de mettre en scène ses personnages dans des situations pornographiques, mais en dehors de ces restrictions, les créations dérivées réalisées par les amateurs foisonnent sur Internet et forment des communautés d’écriture et de partage (fandoms). Cela signifie donc que Rowling accepte qu’Harry Potter ait des milliers d’auteurs partout dans le monde, dès maintenant de son vivant, sans attendre le passage de l’oeuvre dans le domaine public. Elle accepte aussi que l’univers dont elle a planté le décor s’enrichisse de nouveaux personnages, de nouveaux lieux, de nouvelles histoires, qui s’inscrivent dans les "creux" qu’elle a pu laisser. L’univers d’Harry Potter se développe ainsi, en dehors de son auteur, d’une manière qui rappelle beaucoup la génération des mythes.

gazette

La Gazette du Sorcier, l’un des hauts points de rassemblement de la communauté du fandom d’Harry Potter en France.

Ce phénomène des fanfictions, qui explose avec Internet, nous ramène directement à la citation de Le Chapelier. Il manifeste cette propension du public à "répéter", "se pénétrer" des oeuvres et "en faire sa propriété", par l’activité créative. Et c’est là que l’on se dit aussi qu’Alexandre Astier passe à côté de quelque chose de fondamental dans la dynamique actuelle de la création, en disant "si vous écrivez, écrivez vos trucs, les gars." Une des différences majeures entre Tintin et Harry Potter, c’est que le second peut disposer d’une communautés de fans créatifs qui font vivre dès aujourd’hui cet univers et qui participent à son élévation au rang de mythe moderne, tandis que la protection tatillonne de Nick Rodwell fait que Tintin n’a quasiment plus aujourd’hui que des consommateurs passifs. Et c’est à mon sens un facteur d’appauvrissement et de dévitalisation de l’oeuvre, beaucoup plus que de protection.

A un moment donné de la discussion lors de l’émission, Alexandre Astier a pris l’exemple des LEGO, qui ont perdu l’essentiel de leur protection par la propriété intellectuelle et sont quasiment passés dans le domaine public. Or pour lui, cela n’avait aucun intérêt, sinon de permettre à des concurrents de faire des copies de mauvaise qualité. Mais cette ouverture a bel et bien un intérêt : des fans des LEGO organisés en communautés peuvent maintenant librement produire de nouvelles pièces et customiser des éléments. Et par exemple, on trouve sur Internet une gamme de LEGO Sacré Graal que la firme danoise n’aurait sans doute jamais produite d’elle-même. De l’intérêt du domaine public et de l’ouverture…

Le domaine public protège, surtout de l’oubli…

Lors du livetweet de l’émission vendredi soir, l’auteur de nouvelles Neil Jomunsi a fait un lien très pertinent entre le sujet de l’émission et le cas de H.P. Lovecraft, l’auteur du mythe de Cthulhu :

Lovecraft est en effet un exemple d’auteur qui a délibérément laissé d’autres écrivains reprendre de son vivant les personnages et l’univers qu’il avait créés afin qu’ils le développent et l’enrichissent. Et sans doute n’est-ce pas étranger au fait que Lovecraft avait d’emblée eu la volonté de créer une mythologie moderne, avec sa cohorte de Dieux et sa cosmogonie. Ce choix de l’ouverture eut une importance capitale dans la destinée de son oeuvre, car Lovecraft rencontra durant toute sa vie les plus grandes difficultés à se faire publier et à toucher un lectorat. Ce n’est que parce qu’il réussit en somme à créer de son vivant autour de son oeuvre une communauté de "fans" créatifs que celle-ci a pu ensuite être reconnue comme une des créations majeures du XXème siècle. D’une certaine manière, Lovecraft a choisi de faire comme si son oeuvre était déjà dans le domaine public avant sa mort. Pourtant ironiquement après sa disparition, certains de ses collaborateurs ont essayé de se réapproprier son oeuvre et de la placer sous copyright, ce qui a d’ailleurs perturbé son entrée définitive dans le domaine public à la fin des années 2000…

Dans le cas de Lovecraft, l’ouverture l’a protégé de ce qu’il peut peut-être y avoir de pire pour un auteur : l’obscurité et l’oubli.

La tombe de Lovecraft, avec une peluche de Cthulhu déposée par un fan… (Par StrangeInterlude. CC-BY-SA. Source : Flickr)

***

Écrivez vos propres histoires ! Ne volez pas celles des autres ! J’avouerais avoir été terriblement déçu par ces propos d’Alexandre Astier, moi qui ait passé des heures et des heures à voir et revoir les saisons de Kaamelott. Il faut que nous ayons perdu beaucoup en sagesse pour oublier à ce point la dette que nous avons vis-à-vis du domaine public. Suprême ironie au début de l’émission, Frédéric Taddeï a demandé à Alexandre Astier où en était son projet d’adaptation de Kaamelott en film, dont on parle depuis un certain temps. Et Astier a répondu qu’il était toujours bloqué "à cause de problèmes de droits d’auteur"…

On lui souhaite qu’il n’ait pas à attendre l’entrée de Kaamelott dans le domaine public pour pouvoir porter à l’écran sa propre création. Car il sera mort à ce moment et avec lui, tous ses fans…

PS : @_Quack1 m’a signalé sur Twitter qu’Alexandre Astier a utilisé pour écrire Kaamelott une méthode développée par l’américain Christopher Vogler, qui travaille avec Hollywood. Or celle-ci repose en partie sur les travaux de Joseph Campbell dont j’évoque plus haut. Je l’ignorais lorsque j’ai inséré cette référence dans ce billet. Astier en parle dans cette vidéo :


Classé dans:Domaine public, patrimoine commun Tagged: Alexandre Astier, Ce soir (ou jamais !), Domaine public, droit d'auteur, Frédéric taddéï, Harry Potter, Kaamelott, Lovecraft, Nick Rodwell, Tintin

Et Facebook inventa le Robocopyright "social"…

jeudi 5 décembre 2013 à 02:07

3 décembre 2013 : alors que nos libertés numériques partent déjà bien en lambeaux, Facebook s’est vu accorder un brevet sur un dispositif de contrôle des contenus circulant sur un réseau social qui fait littéralement froid dans le dos, en mélangeant allègrement le Copyright Madness, Big Brother et Minority Report.

C’est le site TorrentFreaks qui explique que Facebook a déposé un brevet sur une méthode permettant d’utiliser les informations de profils d’utilisateurs et des "signes sociaux" pour déterminer si des contenus partagés sont piratés ou non. Les données mises à contribution pour réaliser ces analyses incluent les centres d’intérêt déclarés par les membres du réseau, leur localisation géographique et leurs relations sociales.

Des systèmes automatiques de filtrage des contenus existaient déjà, et notamment le dispositif ContentID fonctionnant sur YouTube, capable de repérer des oeuvres d’après leurs empreintes et d’appliquer des actions de retrait, de sanction ou de monétisation, en fonction de la volonté des titulaires de droits. Cette application "robotisée" de la règle de droit constituait déjà une forme de police privée du copyright, entraînant des dérapages attentatoires à la liberté d’expression et une fragilisation rampante des droits des internautes.

Mais Facebook franchit cette fois un pas de plus vers la dystopie, car il ne s’agit plus de marquer les contenus, mais les utilisateurs eux-mêmes, en les profilant selon leur "propension à pirater". Le fonctionnement de la Hadopi soulevait déjà des questions en termes de surveillance des individus et de traitement de données personnelles. Mais ici, le système est infiniment plus pervers, puisque ce sont les individus qui fournissent eux-mêmes les données servant à les contrôler, en acceptant ce type de traitement via les conditions d’utilisation du site qui prévoient que les informations des utilisateurs pourront être utilisées "pour protéger les droits ou la propriété de Facebook ou de tiers".

On aboutit à quelque chose de potentiellement très inquiétant, et j’ai envie de dire surtout en France, où l’objectif d’arriver à mettre en place un système "d’auto-régulation des plateformes" a clairement été exprimé, tant au niveau de la Hadopi que du rapport Lescure. Cela pourrait même constituer l’enjeu principal de la future loi sur la création, annoncée pour 2014, et Facebook vient de mettre sur la table une proposition en or pour ceux qui rêvent d’un "Robocopyright", capable de réguler la circulation des contenus sans passer par le juge.

Surveiller et prévoir

La grande différence entre ContentID et le dispositif inventé par Facebook est que ce dernier ne reconnaît pas le contenu piraté à une empreinte (fournie à la plateforme par les titulaires de droits) permettant d’appliquer un filtrage. Le caractère illégal est "déduit" de l’analyse des données sociales collectées sur les profils des utilisateurs. Et pire que cela, Facebook prétend pouvoir "prédire" qu’un utilisateur fera circuler des contenus piratés, ce qui nous amène directement vers quelque chose ressemblant à la nouvelle Minority Report de Philip K. Dick

Voilà ce que dit le texte du brevet, rapporté par TorrentFreaks :

Le système s’appuyant sur le réseau social pourra collecter des signaux sociaux à propos du contenu, comme les divers profils des personnes l’ayant consulté, les relations entre ces personnes et un autre utilisateur ou une entité qui serait mentionnée ou taggée dans le contenu, et les relations entre ces personnes et l’utilisateur ayant posté le contenu.

Ces signaux sociaux sont ensuite utilisés pour calculer une série de métriques agrégées pour générer une prédiction permettant de déterminer si l’usage de ce contenu est autorisé sur ce réseau social.

Sur le schéma ci-dessus, tiré du brevet, on voit bien à droite l’articulation entre un "Content Abuse Prediction Module" et un "Content Removal Module", qui procédera à la suppression du contenu en fonction des calculs opérés. On imagine aussi que la plateforme pourra avertir ou sanctionner les utilisateurs, comme Youtube le fait déjà par le biais de ses Copyright Strikes.

Faire la police pour échapper à la responsabilité

Facebook indique également quel est le bénéfice recherché par ce système pour les plateformes qui l’utiliseraient. Il s’agit de limiter les risques d’engagement de leur responsabilité juridique (minimize legal liabilities). En ce moment, les plateformes 2.0 permettant aux utilisateurs de poster leurs propres contenus, comme Youtube, facebook et bien d’autres, vivent sur le fil du rasoir, car elles bénéficient encore d’un régime de responsabilité allégée mis en place pour les hébergeurs, issu chez nous de la loi LCEN de 2004. Il leur permet de ne pas être frontalement responsables des contenus qu’elles abritent, dans la mesure où elles sont capables de les retirer rapidement lorsqu’on leur signale qu’une infraction a été commise.

Mais cet équilibre de la responsabilité des hébergeurs, qui constitue pourtant l’une des clés de voûtes de la protection des libertés en ligne, est aujourd’hui très fortement remis en cause par les titulaires de droits, appuyés par les gouvernements. D’où la tentation, comme l’a déjà fait Youtube avec ContentID, de prendre les devants et de mettre en place des moyens pro-actifs de répérage des contenus contrefaisants, sur une base contractuelle avec les titulaires de droits.

Yes, I’M A Cop : Robocop. CC-BY-NC. Source : Flickr.

Pour les réseaux sociaux comme Facebook, la question du partage de contenus protégés par le droit d’auteur ou de liens permettant d’y accéder devient non négligeable. Une étude publiée par la Hadopi la semaine dernière montrait que l’accès à des œuvres piratées se faisait dans 27% des cas par le biais des réseaux sociaux.

Il y a donc un vrai enjeu pour ces plateformes à pouvoir mettre en place un système de contrôle des contenus, sous forme automatique, ce qui leur permet de ne pas perdre le bénéfice de leur responsabilité allégée. Mais cela ne peut se faire qu’au prix de la mise en place d’une police privée du droit d’auteur.

Particulièrement inquiétant pour la France…

Facebook n’a visiblement pas encore précisé si ce Robocopyright "social" pouvait déjà être déployé sur son site, ni quand il comptait le faire. Mais il est certain que cette perspective fait déjà écho à un discours que l’on entend monter depuis plusieurs mois en France à propos de "l’auto-régulation des plateformes".

Cette idée a germé d’abord en dans un rapport sur les moyens de lutter contre le streaming et le DirectDownload, réalisé par la magistrate Mireille Imbert-Quaretta de la Hadopi. Les grandes lignes de cette étude se retrouvent ensuite dans le rapport Lescure, qui manifeste un grand intérêt pour ContentID de Youtube et les solutions directement négociées en les titulaires de droits et les plateformes. Depuis, le Ministère de la Culture a confié à nouveau à Mireille Imbert-Quaretta une mission de lutte contre la contrefaçon commerciale, qui s’appuie visiblement également sur ce concept "d’auto-régulation des plateformes". Le même discours se retrouve dans la bouche du CSA et l’auto-régulation est aussi poussée par la France au niveau européen. Last but not least, la décision rendue par le TGI de Paris la semaine dernière dans l’affaire Allostreaming va encore un peu plus dans ce sens, puisqu’elle incite explicitement les intermédiaires techniques à entrer en négociation avec les titulaires de droits pour mettre en place des moyens de lutte contre la contrefaçon.

Les pièces du puzzle s’emboîtent peu à peu, et on sent bien que cette question de "l’auto-régulation des plateformes" risque d’être le gros enjeu de la future loi sur la création annoncée pour 2014, bien plus finalement que la question de l’avenir d’Hadopi et de la riposte graduée.

Le graphe Facebook transformé en toile d’araignée pour la police du droit d’auteur…

Ce mouvement était déjà inquiétant, mais avec ce brevet déposé par Facebook, nous rentrons dans une nouvelle dimension. La surveillance et l’exploitation des données personnelles rejoignent le Copyright Madness. Là où nos données étaient déjà utilisées pour prédire nos attentes et nos comportements de consommation à des fins de profilage publicitaire, elles pourraient aussi l’être pour surveiller et même anticiper nos comportements délictuels liés à la violation du droit d’auteur. On sait depuis l’affaire Snowden et le scandale PRISM que les grands sites du Web sont prêts à aller très loin dans la collaboration avec les gouvernements et la France a montré encore la semaine dernière son inféodation quasi-totale à ces logiques derrière une opposition de façade.

Ce Robocopyright "social" de Facebook est une monstruosité numérique et une nouvelle étape dans l’escalade de la guerre au partage. Il ne faut pas laisser la France mettre en place un dispositif légal pour appuyer ce type de logique.


Classé dans:A propos des libertés numériques Tagged: censure, contentid, données personnelles, Facebook, filtrage, Google, piratage, police privée, réseaux sociaux, robocopyright, surveillance, youtube

Et si une directive européenne permettait de financer la numérisation du domaine public ?

mardi 3 décembre 2013 à 07:18

Lorsque l’on parle du domaine public et en particulier de sa numérisation, une des questions les plus épineuses concerne le financement de ces opérations, très onéreuses, et de leur durabilité dans le temps. Lors de l’affaire des accords de numérisation conclus par la BnF avec des sociétés privées, ce fut un des points majeurs du débat et ceux qui ont soutenu ces partenariats public-privé avançaient que sans cet apport de fonds par des sociétés, les oeuvres du domaine public ne pourraient pas être numérisées ou seulement très lentement. C’est ce qui a conduit certains à accepter les exclusivités de 10 ans conférées aux partenaires de l’établissement en échange de leurs investissements, alors que nous les avons combattus de notre côté au nom de la préservation de l’intégrité du domaine public.

Money. Par Adrian Serghie. CC-BY-NC-SA. Source : Flickr.

En ces temps de disette budgétaire, les établissements culturels sont soumis à des restrictions budgétaires ou à l’obligation de dégager des ressources propres et ce contexte fait du domaine public une victime collatérale de la situation de crise dans laquelle nous nous trouvons. Mais une proposition, venue de l’Union européenne, est peut-être susceptible d’apporter une solution de financement pérenne pour la numérisation du patrimoine. En effet, une directive européenne sur la gestion collective des droits est actuellement en cours d’élaboration et elle prévoit visiblement d’utiliser une partie des sommes collectées par les sociétés de gestion collective (SACEM, SACD, SCAM, Adami, SPEDIDAM etc) pour financer la numérisation en bibliothèque.

Vous avez dit "irrépartissables" ?

L’article L. 321.9 du Code de Propriété Intellectuelle définit ces "irrépartissables" comme étant des sommes "qui n’ont pu être réparties soit en application des conventions internationales auxquelles la France est partie, soit parce que leurs destinataires n’ont pas pu être identifiés ou retrouvés".

La SACEM les présente de son côté de cette manière :

Ce qu’on appelle de manière impropre « irrépartissables » désigne les droits d’auteur qui n’ont pu encore être payés, les données d’exploitation remises par les utilisateurs ne permettant pas d’identifier les œuvres exploitées et donc leurs ayants-droit. Il s’agit le plus souvent d’une erreur (ex : nom de l’interprète au lieu du compositeur ou de l’auteur, faute d’orthographe dans la rédaction…), voire d’informations lacunaires provenant des exploitants. Il se peut également que l’œuvre n’ait pas encore été déposée par les créateurs ou, s’agissant d’une œuvre étrangère, que les documents permettant son identification ne soient pas encore parvenus à la Sacem.

Ces irrépartissables peuvent atteindre des montants non négligeables (plusieurs dizaines de millions d’euros par an) et le rapport annuel 2012 de la Commission permanente de contrôle des SPRD en parle à plusieurs reprises. En vertu de l’article L. 321.9 cité ci-dessus, elles sont conservées pendant un certain laps de temps par les sociétés de gestion collective, après quoi elles sont employées pour financer des "actions culturelles". Mais leur attribution fait couler beaucoup d’encre, au point que certains, comme Guillaume Champeau, parlent à leur sujet de "piratage légal" :

Ce sont des sommes dites "irrépartissables". Du piratage légal. Parce que les sociétés de gestion ne connaissent/cherchent pas l’adresse de leur destinataire, ces sommes ne sont pas versées. On ne connaît pas leur montant, mais les consommateurs les payent, directement, ou indirectement, pour rémunérer les auteurs et les artistes-interprètes lorsque leurs chansons sont diffusées.

Les actions culturelles financées en partie par le biais de ces irrépartissables (le reste provenant des 25% de la copie privée) font l’objet de critiques régulières, dans la mesure où elles peuvent servir de manière détournée à faire pression sur des élus. En Belgique, la gestion de ces irrépartissables (plus de 8 millions par an) par la SABAM a soulevé des débats, au point de terminer par un procès. Autant dire que ce sujet des irrépartissables constitue une question sensible…

Une ouverture dans la directive européenne sur la gestion collective

Or en lisant cet article, paru il y a quelques jours sur le site de l’ADBS, on se rend compte que la nouvelle directive sur la gestion collective envisage que ces sommes puissent être utilisées pour la numérisation des oeuvres par les bibliothèques :

Soutenir le projet de directive européenne sur les sociétés de gestion collective dont une version amendée (mais non encore rendue publique) prévoit au paragraphe 12.6 que les irrépartissables (sommes collectées par les sociétés de gestion collective ne pouvant pas être reversées) puissent être aussi consacrés à la numérisation des œuvres par des bibliothèques. Selon des sources sûres, ce nouveau paragraphe donne aux États membres le droit d’utiliser l’argent non distribué « pour financer des projets sociaux, culturels ou éducatifs ». Un lobbying intense s’impose donc au niveau national pour que l’État utilise ce droit pour financer aussi des projets de numérisation de collections de bibliothèques.

L’information vient d’EBLIDA, le bureau chargé de faire du lobbying au niveau européen pour les professionnels de l’information.

Il est certain qu’une telle formule changerait profondément la donne. En France, une partie de la numérisation est déjà financée grâce à des crédits versés par des sociétés de gestion collective. C’est le cas pour la numérisation de masse du domaine public à la BnF, financée  via le Centre National du Livre (CNL) par le reversement de sommes collectées au titre de la copie privée (6 millions par an). Mais ces financements restent insuffisants pour couvrir les besoins de la seule BnF (d’où le recours aux contestables partenariats public-privé), et ne parlons pas des autres établissements culturels français (bibliothèques, archives, musées). Par ailleurs, ces financements du CNL pour la numérisation du domaine public semblent aujourd’hui dangereusement menacés par le programme de numérisation des indisponibles dans le cadre du projet ReLIRE, qui pourraient finir par les absorber.

Le recours aux irrépartissables des sociétés de gestion collective (SACEM, SACD, SCAM et autres) permettraient à la fois de trouver une source de financement plus large, déchargeant le budget de l’État, mais aussi d’éviter le recours à des formules qui portent atteintes au domaine public. On pense bien sûr à ces fameux partenariats public-privé, qui constituent de véritables pièges en raison des exclusivités conférées aux sociétés privées qui apportent des fonds.

On pense aussi à une autre solution, proposée par Pascal Rogard de la SACD, à savoir le domaine public payant, qui consisterait instaurer une sorte de taxe sur l’usage commercial du domaine public pour financer la restauration et la numérisation des collections. Une telle mesure serait en réalité catastrophique, car elle reviendrait à une négation pure et simple du domaine public.

Une occasion à saisir en France 

Les informations rapportées par EBLIDA indiquent que les choses risquent de se jouer en deux temps, d’abord au niveau européen pour que cette possibilité soit inscrite dans la directive, mais aussi au niveau français : "Un lobbying intense s’impose donc au niveau national pour que l’État utilise ce droit pour financer aussi des projets de numérisation de collections de bibliothèques."

Or on nous annonce pour l’année prochaine l’introduction de lois sur la création et sur le patrimoine, qui constituent deux occasions en or d’entériner cette possibilité de recours aux irrépartissables pour qu’elle devienne une réalité en France. Une loi a récemment été déposée par la députée Isabelle Attard "visant à consacrer le domaine public, à élargir son périmètre et à garantir son intégrité". Elle pourrait être complétée par un volet financier reprenant cette proposition.

En tous cas, cette idée constitue une chance inespérée d’accélérer la numérisation du domaine public, tout en évitant que de nouvelles couches de droits soient recréées à cette occasion. Il s’agira de ne surtout pas laisser passer cette occasion.


Classé dans:Bibliothèques, musées et autres établissemerents culturels, Domaine public, patrimoine commun Tagged: Bibliothèques, BnF, Domaine public, gestion collective, Numérisation, partenariats public-privé, SACD, sacem

Deux enjeux stratégiques dans la nouvelle version 4.0 des Creative Commons : Open Data et clause Non-Commerciale

samedi 30 novembre 2013 à 16:49

Cette semaine, après un processus d’élaboration de plus de deux ans, Creative Commons International a annoncé la publication de la nouvelle version 4.0 de ses licences. Framablog a déjà traduit en français un article d’une des responsables de l’organisation, Diane Peter, qui explique les principales modifications par rapport à la version 3.0 remontant à 2007. Creative Commons a travaillé par exemple pour simplifier le texte des licences afin de les rendre plus compréhensibles ; les licences auront également un effet plus global, car elles n’auront plus désormais à être transposées pays par pays et des clarifications intéressantes ont été apportées, notamment en ce qui concerne l’attribution des auteurs et l’adaptation des oeuvres.

Creative Commons. Par Skley. CC-BY-ND. Source : Flickr.

Mais je voudrais dans ce billet m’attarder sur ce qui constitue à mon sens les deux points les plus importants à souligner dans cette nouvelle version des Creative Commons. Le premier est qu’à présent, les licences prennent en compte le droit des bases de données, ce qui les rend applicables dans le cadre de projets d’Open Data, alors que c’était difficilement le cas auparavant. Par ailleurs, la clause NC, qui permet aux auteurs de réserver les usages non-commerciaux d’une oeuvre, a été maintenue, alors qu’un débat assez vif avait agité la communauté pour savoir s’il fallait ou non la supprimer. J’étais d’ailleurs moi-même intervenu dans cette discussion côté français, pour me prononcer en faveur du maintien. Cette clause a finalement été conservée, mais sans modification, ce qui n’est sans doute pas complètement satisfaisant.

Des licences Creative Commons applicables dans le cadre de l’Open Data

Jusqu’à présent, les licences Creative Commons n’étaient pas véritablement applicables aux bases de données, du moins de ce côté-ci de l’Atlantique. En effet le droit spécifique reconnu aux producteurs de bases de données est une particularité européenne, découlant d’une directive européenne de 1996. Il n’existe pas comme tel aux États-Unis par exemple, qui considèrent plutôt les bases de données comme des compilations et les protègent par le copyright uniquement lorsqu’elles sont originales.

La démarche d’ouverture des données, qui caractérise l’Open Data, implique que les producteurs de bases expriment leur intention de permettre la réutilisation par le biais d’une licence. Dans certains pays, comme l’Australie ou la Nouvelle Zélande par exemple, le choix a été fait d’utiliser les Creative Commons au niveau des portails gouvernementaux de diffusion des données publiques.

Comme les Creative Commons ne prenaient pas en compte le droit des bases de données, la démarche a été différente dans plusieurs pays d’Europe, comme l’Angleterre, qui la première a créé une Open Government Licence spécialement pour l’ouverture des données publiques. La France a fait de même de son côté avec la Licence Ouverte/Open Licence, mise en place par Etalab qui est l’équivalent d’une licence CC-BY, mais adaptée au cadre législatif français de la réutilisation des données publiques.

Les projets communautaires ont eux-aussi parfois ressenti des difficultés dans l’utilisation des Creative Commons appliqués aux bases de données. C’est notamment ce qui avait motivé le choix de la communauté OpenStreetMap de passer en 2012 d’une licence CC-BY-SA à la licence OdbL (Open Database Licence), proposée par l’Open Knowledge Foundation et mieux adaptée aux bases de données. Cette licence, qui présente l’intérêt d’appliquer une clause de partage à l’identique à la réutilisation des données est également employée par un nombre significatif de collectivités territoriales en France, notamment la Ville de Paris qui fut la première à la retenir et qui l’a traduite en français.

Creative Commons avait jusqu’à présent peut-être mal négocié le virage de l’Open Data et cette version 4.0 va permettre à ces licences de jouer un rôle sur ce terrain. Il va être intéressant à présent de voir quel va être l’effet concret de cette modification. Le paysage français, après une certaine incertitude sur les licences qui a duré plusieurs années, s’est peu à peu structuré autour de la Licence Ouverte et de l’ODbL, entre lesquels se répartissent l’essentiel des projets d’ouverture des données. Certains acteurs vont-ils à présent opter pour les Creative Commons pour mettre en oeuvre une politique d’Open Data ?

J’aurais tendance à voir plusieurs avantages aux Creative Commons. Ils sont déjà plus connus et constituent l’un des "standards" du web. Par ailleurs, les CC sont désormais aussi bien applicables à des bases de données qu’à des contenus (oeuvres) et il est intéressant de pouvoir couvrir par une même licence ces deux types d’objets. Par exemple, imaginons un projet de recherche qui veuille ouvrir ses résultats à la réutilisation. Il pourra maintenant utiliser une seule licence Creative Commons, à la fois pour les articles ou les images produits dans le cadre du projet (oeuvres) et pour les données de recherche collectées à cette occasion, alors qu’avant il aurait fallu deux licences différentes, une pour les oeuvres et une autre pour les données.

Un point important cependant sera de comparer les Creative Commons (en particulier la CC-BY-SA) et l’ODbL pour déterminer si l’effet du partage à l’identique est le même ou non dans les deux licences. C’est une question complexe à propos de laquelle j’avoue ne pas m’être fait encore une religion.

Enfin, mais c’est essentiel, toutes les licences Creative Commons ne seront pas utilisables dans le cadre de projets d’Open Data. Les licences comportant une clause NC (Non Commercial) ou ND (Pas de modification) sont incompatibles avec une vraie démarche d’Open Data, si l’on se réfère notamment à l’Open Definition mise en place par l’open Knowledge Foundation.

Esta es la primera camiseta de Creative Commons Colombia. Par Colores Mari. CC-BY. Source : Flickr

Maintien de la clause Non-Commerciale, mais sans modification.

La clause Non-Commerciale, qui permet à un auteur d’autoriser via la licence la réutilisation de ses oeuvres, mais uniquement dans une sphère non-marchande, est depuis longtemps la cause de tensions au sein de la communauté de la Culture Libre. Il est vrai que ce fut un débat fondateur de l’émergence du logiciel libre que de permettre les usages commerciaux et de forger des licences, comme la GNU-GPL qui octroient et garantissent cette liberté aux réutilisateurs. Mais ce fut aussi l’une des spécificités des Creative Commons de proposer à la fois des licences libres (CC-BY, CC-BY-SA) et des licences de libre diffusion plus restrictives (CC-BY-NC, CC-BY-ND, CC-BY-NC-ND et CC-BY-NC-SA) pour fournir davantage d’options aux créateurs.

Or au cours du processus d’élaboration de la nouvelle version 4.0, plusieurs voix se sont élevées pour demander à Creative Commons de supprimer la possibilité de retenir ces options. Ce fut le cas notamment de l’Open Knowledge Foundation, par le biais de l’un de ses co-fondateurs Rufus Pollock, qui avançait l’argument que les licences empêchant la réutilisation commerciale ou la modification ne permettaient pas de constituer des biens communs (position que j’ai eu l’occasion de critiquer du point de vue de la théorie des biens communs elle-même).

Toujours est-il que Creative Commons a essayé de proposer plusieurs aménagements, pour tenir compte de ce point de vue. Notamment, il avait été envisagé de renommer la clause Non-Commercial en "Usage commercial réservé" (Commercial Rights Reserved), car le NC ne signifie pas que l’usage commercial de l’oeuvre est impossible, mais qu’il est soumis à l’autorisation préalable de l’auteur. Néanmoins cette option n’a finalement pas été retenue. Des améliorations ont cependant été apportées pour que les auteurs visualisent plus clairement la différence entre les licences "libres" et celles qui ne le sont pas parmi les CC.

Au final donc, la clause NC a été reconduite à l’identique et personnellement, je pense que c’est une bonne décision. Je n’ai jamais défendu l’idée que toutes les oeuvres devaient être placées sous NC, mais dans ma réflexion concernant les modèles économiques, j’ai souvent constaté que la clause NC pouvait être utile à certains créateurs pour tirer revenu de leurs oeuvres , tout en permettant leur réutilisation dans un certain périmètre. Je suis pour que les licences Creative Commons offrent un maximum d’options aux auteurs afin que chacun puisse développer une stratégie adaptée à sa pratique et à son but.

Si je me réjouis donc de la décision de Creative Commons de maintenir le NC, je déplore cependant qu’il ait été maintenu à l’identique. La clause est en effet rédigée ainsi :

L’Acceptant ne peut exercer aucun des droits qui lui ont été accordés à l’article 3 d’une manière telle qu’il aurait l’intention première ou l’objectif d’obtenir un avantage commercial ou une compensation financière privée.

Beaucoup critiquent cette formulation en disant qu’elle est trop complexe et trop vague. Personnellement, je n’ai jamais été d’accord avec ce jugement. La clause telle qu’elle est rédigée me paraît relativement claire, mais elle possède surtout une portée très large, puisqu’elle inclut dans la "commercialité" le simple fait "d’obtenir un avantage commercial", au-delà du fait de recevoir une rémunération sous forme financière.

Plusieurs propositions intéressantes ont été faites au cours du processus d’élaboration des 4.0 pour reformuler cette clause. Certains par exemple avait proposé de mieux délimiter sa portée pour en exclure certains usages (exemples : les usages pédagogiques payants ou la rémunération par la publicité). Mais ces discussions n’ont pas pu aboutir, en grande partie à cause de la crispation engendrée par le demande de suppression de la clause émise par une partie de la communauté.

Nous sommes pourtant plusieurs à penser qu’il faut à présent se tourner vers une approche plus fine des usages commerciaux et cesser de tout mettre dans un même panier. Silvère Mercier a écrit notamment un billet important intitulé "Pour une approche complexe des usages marchands des biens communs de la connaissance" qui détaille bien cet enjeu d’une meilleure appréhension de ce qui doit être considéré comme commercial ou non. Un angle d’attaque particulièrement intéressant est celui de la "lucrativité limitée" que l’on voit se développer dans le secteur de l’Economie Sociales et Solidaire (ESS) par exemple, qui prouve que tous les acteurs commerciaux ne sont pas assimilables. Peut-être faudra-t-il pour prendre en compte cette complexité se tourner vers d’autres instruments juridiques, comme la Peer Production Licence, dont j’avais parlé l’année dernière.

Mieux cerner la distinction entre le commercial et le non-commercial constitue aussi un enjeu majeur si l’on veut arriver à une légalisation du partage des oeuvres en ligne, car les principales propositions qui sont faites en ce sens reposent sur l’idée d’une légalisation des échanges dans une sphère non-marchande seulement, ce qui suppose qu’on soit à même d’en donner une définition. Et cette question concerne à présent aussi Creative Comons directement, puisque l’organisation s’est récemment prononcée en faveur d’une réforme globale du droit d’auteur.


Classé dans:Alternatives : Copyleft et Culture Libre, Données publiques et Open Data Tagged: Creative Commons, données publiques, licences, licences libres, modèles économiques, non commercial, open data, partage

Ivre, le Forum d’Avignon veut écrire une déclaration des droits et pond une déclaration de guerre…

mardi 26 novembre 2013 à 07:22

Je ne pensais pas un jour être amené à utiliser la fameuse formule "Ivre virgule" au début du titre d’un billet sur S.I.lex, mais il s’est produit une telle ÉNORMITÉ ce week-end lors du dernier Forum d’Avignon  que je n’avais plus tellement le choix…

Le Forum d’Avignon, c’est cette grand-messe annuelle qui rassemble pendant plusieurs jours la fine fleur des industries culturelles, afin de se livrer à des exercices de futurologie avancée concernant l’avenir de la création à l’heure du numérique. Le tout bien sûr, en présence des pouvoirs publics, qui viennent en Avignon prendre un bon bain de lobbies (such a lobby place, comme dit la chanson…).

Le Serment du Jeu de Paume peut aller se rhabiller : on parlera bientôt du Serment d’Avignon ! (Image source Wikimedia Commons. Domaine public)

Bien qu’un tel évènement recèle déjà en lui-même un très haut potentiel LOLesque, cette année il s’est produit quelque chose de complètement extravagant, qui restera certainement gravé à jamais au firmament de la Légende dorée des Internets. Le Forum d’Avignon a solennellement proclamé un Manifeste intitulé : "Principes d’une déclaration universelle de l’internaute et du créateur à l’heure du numérique". Rien de moins !

Que s’est-il passé exactement pour en arriver là ? Sans doute cette assemblée d’ayants droit, habitués depuis des années à livrer des textes de lois "prêts-à-voter" à nos chers élus s’est soudainement sentie pousser des ailes démocratiques. Tels les représentants du Tiers-État lors de la Révolution Française, ces Solon et ces Numa des Temps Modernes ont pensé qu’ils pouvaient constituer à eux seuls la Nation toute entière. Que dis-je la Nation, l’Univers plutôt, puisque leur Manifeste aspire à une portée universelle !  Les esprits de Mirabeau et de René Cassin vinrent à souffler sur ce qui ressemble à un mauvais mashup du Serment du jeu de Paume, revu à la sauce "ni vu, ni connu, j’t'embrouille" … Accrochez-vous !

Un manifeste manifestement chelou !

Bon, quand on gratte un peu derrière l’annonce, on se rend compte que le texte de ce Manifeste ne pèse quand même pas bien lourd et qu’il a franchement l’air d’avoir été écrit sur un coin de nappe à l’issue d’un repas qu’on imagine arrosé (au champagne, comme il se doit…). Mais peu importe ! Comme dit le proverbe, c’est l’intention qui compte.

Et l’intention principale, c’est donc de produire une "déclaration de l’internaute". Notez déjà qu’étrangement, on ne parle pas d’une déclaration des "droits" de l’internaute. Un mot a dû sauter quelque part, mais n’y voyons surtout pas malice (l’habitude du Director’s cut sans doute…).

Le texte se veut sans doute un écho à la période troublée que nous traversons, suite aux révélations du lanceur d’alertes Edward Snowden, concernant la surveillance massive dont les individus font l’objet sur internet. Mais au lieu de parler de protection des "données personnelles", le Manifeste dérape d’emblée en se référant à la notion étrange de "données culturelles numériques" (quid ?) :

Les données culturelles numériques de chaque individu lui appartiennent. Elles ont une valeur patrimoniale et morale qu’il est seul à même de négocier.

Chaque homme a droit au respect de sa dignité et de sa vie privée quelles que soient les empreintes qu’il laisse sur les réseaux numériques. Le consentement, libre et éclairé de l’intéressé doit être préalable à toute utilisation de ses données culturelles.

Le Forum d'Avignon rapportant au peuple les tablettes de la Loi.

Le Forum d’Avignon rapportant au peuple les tablettes de la Loi.

Étrange mixture des données culturelles (des oeuvres ?) et de la vie privée, qui laisse un peu songeur, mais les choses deviennent subitement beaucoup plus claires par la suite, lorsque derrière ces "données culturelles numériques" apparait en réalité la propriété intellectuelle, pure et dure, telle que la rêve cet aréopage d’industriels de la culture :

Chaque homme a droit au respect de sa création. La propriété intellectuelle, clé de voûte de la liberté des auteurs et de l’économie de la culture, doit être protégée dans tous les pays sur tous les supports.

Le consentement, libre et éclairé du créateur doit être préalable à toute utilisation. L’autorisation donnée ne saurait être tacite ou illimitée dans le temps.

La création ne saurait être manipulée sous quelle que forme que ce soit sans l’accord express et préalable de l’auteur.

Para Bellum ! 

Le masque de cette farce n’aura pas tenu bien longtemps, et c’est là que subitement d’une déclaration des droits, on passe à une véritable DÉCLARATION DE GUERRE !

C’est la guerre. Par Félix Vallotton. Domaine Public. Source : Gallica.

Pourquoi y a-t-il lieu de parler de déclaration de guerre ? Parce que ce Manifeste exprime une conception absolue et sans limite de la propriété intellectuelle, qui bafoue les droits culturels fondamentaux du public et renie complètement l’état du droit existant. Car la propriété intellectuelle a toujours été conçue, au moins en principe, comme un droit d’équilibre, entre la protection des créateurs et les droits du public. La propriété intellectuelle n’est jamais absolue : elle est limitée dans son étendue, par le mécanisme essentiel de l’épuisement des droits ; dans sa durée, par le domaine public et dans sa portée, par les exceptions consacrées par la loi au droit d’auteur.

Le Manifeste du Forum d’Avignon proclame que toute utilisation d’une création doit être soumis à consentement préalable. Mais un tel état de la culture constituerait une dystopie effroyable. Quand vous faites une citation d’un texte, quand vous copiez vos supports pour les sauvegarder, quand vous écoutez de la musique en famille, vous effectuez des usages sans le consentement des titulaires de droits, en vertu de facultés reconnues par la loi. Quand des oeuvres sont utilisées en classe par des élèves ou par des handicapés, ce sont encore des exceptions qui s’appliquent légitimement. Quand vous prêtez ou donnez un livre à un ami, c’est l’épuisement des droits qui vous offre cette possibilité sans passer par une autorisation de l’auteur. Et quand les créateurs puisent librement dans le fond des oeuvres anciennes pour produire de nouvelles oeuvres, c’est alors le domaine public qui permet cet usage, nonobstant le recueil du consentement.

Que dire également de l’idée que "la création ne saurait être manipulée sous quelle que forme que ce soit sans l’accord express et préalable de l’auteur", sinon qu’elle nie la possibilité de réaliser des parodies, pastiches et caricatures, pourtant reconnue par la loi au titre d’une exception au droit d’auteur…

Au final, cette conception maximaliste de la propriété intellectuelle, maquillée en déclaration des droits de l’internaute, est la même que l’on retrouve à l’oeuvre depuis des années, depuis la loi SOPA à l’accord ACTA, réinjectée malgré le rejet démocratique dans CETA, TAFTA et récemment TPP de la pire des manières !

Aie confiance, internaute…

Tes paupières sont lourdes, internaute ; je protège tes droits. SSSSssss…

Concernant cet appel vibrant à protéger la vie privée des internautes, il est en outre particulièrement cocasse de rappeler que le Forum d’Avignon est présidé par Nicolas Seydoux, que le hasard le plus total a placé par ailleurs à la tête de l’ALPA (Association de Lutte contre la Piraterie Audiovisuelle). Et c’est ce personnage qui a fièrement annoncé au monde ébahi la parution de cette déclaration.

Or cette association est très bien placée pour parler de données personnelles, puisqu’elle fait partie des organismes qui se sont vues reconnaître suite au vote de la loi Hadopi le pouvoir de collecter via des agents assermentés les adresses IP des internautes. Elle les remet à la société TMG (Trident Media Guard) qui agit en lien avec la Hadopi pour faire tourner la machine à spams de la riposte graduée, dans des conditions qui ont mainte fois suscité les inquiétudes de la CNIL. Et le principe même de la collecte des adresses IP via des agents privés constitue l’un des reproches les plus lourds adressés au système Hadopi.

Nicolas Seydoux, le boss final de l’ALPA soucieux de la vie privée des internautes, c’est quand même franchement le loup dans la bergerie, l’hôpital qui se moque de la charité et le sérail à l’eunuque !

Cherche à qui le ©rime profite… 

Tout ceci serait donc déjà en soi lourdement burlesque, si le Forum d’Avignon 2013 n’avait pas donné lieu en plus à la publication d’une étude réalisée par le cabinet Kurt Solomon relative aux modèles économiques de la culture dans l’environnement numérique. Et surprise, que montre cette étude que l’on peut difficilement soupçonner de connivences avec les tenants de la Culture libre ? Que les secteurs de la musique, du cinéma, des livres et des jeux vidéo "ont désormais renoué avec la croissance depuis 2012 et tendent vers une croissance annuelle moyenne, d’ailleurs assez significative de 5% par an", soit deux points supérieure à la croissance économique mondiale prévue par l’OCDE.

Mais plus fort encore, et c’est là que vous allez voir que les choses deviennent tordantes, que "Globalement le pouvoir des producteurs et des éditeurs s’est affermi et leurs revenus ont augmenté. Les producteurs captent plus de valeur que dans l’univers physique. Mais le prix unitaire des œuvres a baissé. Et l’artiste y a donc perdu." Le schéma suivant tiré de l’étude est particulièrement éloquent :

Il montre bien que dans tous les secteurs culturels, alors qu’ils sont les premiers à jeter les hauts cris face aux insupportables pertes que causeraient les affreux pirates à l’économie de la culture, les éditeurs et producteurs, qui forment le plus gros des cohortes du Forum d’Avignon, ont été ceux dont la part de revenus a le plus progressé avec le passage au numérique, tandis que celle des auteurs stagne ou baisse.

Et donc ces intermédiaires, qui se sont complus à allumer une guerre artificielle entre les internautes et les créateurs, étaient certainement les plus mal placés pour proposer une telle déclaration des droits… A moins que ce ne soit comme dans la Ferme des Animaux d’Orwell et qu’avec le temps, les mots de cette déclaration universelle soient appelés à changer pour révéler leur véritable sens : dans l’écosystème de la création, "les animaux sont tous égaux", mais "certains animaux sont plus égaux que d’autres". Et comme par hasard, ce sont toujours les porcs qui gagnent à ce jeu, et pas les créateurs !

En direct du Moyen Age… 

Laissons la conclusion à Lawrence Lessig, le juriste américain inventeur des licences Creative Commons, qui avait été invité à participer à cette sixième édition du Forum d’Avignon, sans doute pour parfaire cette opération si subtile d’Open Washing. Déjà invité en 2009, Lessig est sorti de l’édition 2013 en constatant que les titulaires de droits étaient toujours "au Moyen Age" et il en a profité pour  lancer un appel : "Ne criminalisez pas toute une génération !".

Dans ses propos, retranscrits par le site Meta-Media, on constate qu’il plaide pour une légalisation du partage de la culture, accompagnée de financements mutualisés, comme un moyen de rétablir l’équilibre juste entre la protection des auteurs et les droits du public :

La question est de savoir si c’est un meilleur moyen de compenser les artistes à l’ère numérique, plutôt que de chercher à contrôler absolument tous les moyens de distribution.

A mon sens, oui, c’est un meilleur moyen.

Un meilleur moyen car 1/ l’artiste va gagner plus d’argent 2/ les sociétés pourront innover de manière plus ouverte et avec plus de confiance dans ce nouvel environnement juridique légal. Mais la chose la plus importante pour moi, c’est 3/ nous n’allons pas ainsi criminaliser toute une génération de jeunes. Des jeunes qu’on qualifie aujourd’hui de criminels, d’immoraux, comme l’a décrit aujourd’hui ici un professeur de littérature. Immoraux car ils partagent des oeuvres créatives. Ils ne seront plus immoraux lorsqu’ils feront exactement ce que la loi les autorise à faire dans le contexte naturel de l’Internet.

Merci au Forum d’Avignon pour cette belle tranche de rigolade et le mot de la fin à Laurent Chemla qui résume parfaitement le fond de ma pensée :


Classé dans:A propos des libertés numériques Tagged: déclaration des droits, données personnelles, droit d'auteur, forum d'avignon, Lawrence Lessig, libertés fondamentales, Nicolas Seydoux, Propriété intellectuelle