PROJET AUTOBLOG


S.I.Lex

Site original : S.I.Lex

⇐ retour index

Filtrage : Quand SoundCloud joue au RoboCopyright

jeudi 18 avril 2013 à 21:28

SoundCloud, le service de partage de sons et de musiques en streaming,  avait jusqu’à présent l’image d’une plateforme plutôt ouverte et innovante, avec son API largement disponible et la possibilité qu’il donnait à ses utilisateurs d’utiliser les licences Creative Commons. Cette image a cependant été sévèrement écornée ces derniers jours. Un changement de politique dans l’application du droit d’auteur a en effet provoqué une réaction virulente de la part des usagers.

Avec sa nouvelle politique en matière de droit d'auteur, SoundClound pourrait bien entrer en conflit avec les DJ, qui constitue une partie importante de ses utilisateurs.

Avec sa nouvelle politique en matière de droit d’auteur, SoundClound pourrait bien entrer en conflit avec les DJ, qui constitue une partie importante de ses utilisateurs.

Une pétition, « SoundCloud : change your copyright policy« , a été lancée par le DJ et producteur français, Stephan Hedfors. Il reproche à la nouvelle politique du site d’entraîner des retraits arbitraires de contenus originaux postés par des utilisateurs de bonne foi. En tant qu’utilisateur d’un compte premium proposé par SoundCloud à destination des professionnels, Hedfors estime que dans ces conditions la plateforme ne remplit plus les services qu’elle était censée lui rendre.

La pétition a déjà été signée par plus de 4000 personnes et le texte qui l’accompagne met également en avant le problème particulier que pose cette nouvelle politique vis-à-vis des mashups, remix et autres bootlegs qui abondent sur SoundCloud.

Traduction :

Soundcloud était un outil intéressant de promotion pour les musiciens. Malheureusement, avec leur nouvelle politique de droit d’auteur, même des contenus originaux peuvent être signalés comme des infractions au droit d’auteur et retiré du site, avec pour conséquence la fermeture des comptes des artistes.

Les bootlegs et mashups ne sont plus autorisés, en dépit du fait que ceux qui les font en les exploitent pas commercialement et que de grands artistes soutiennent cette pratique. [...]

Tout ce que nous voulons est que SoundCloud change cette politique, pour les utilisateurs avec un compte premium puissent bénéficier des services pour lesquels ils ont payé.

Nous voulons pouvoir disposer d’un vrai outil de promotion et pas seulement d’un site avec de jolis lecteurs exportables.

Ce qui s’est produit en réalité (et c’est là que les choses deviennent intéressantes), c’est que SoundCloud a mis en place un nouveau système de filtrage automatique des contenus de la plateforme, permettant aux titulaires de droits de charger des empreintes afin que leurs morceaux soient identifiés automatiquement. C’est ce qu’admet un des responsables du site, en réponse aux signataires de la pétition :

At SoundCloud we use a well-established and market leading third party content ID system to help identify and block known copyright works from appearing on our platform. Unfortunately, this sometimes has the unwanted consequence of blocking a sound uploaded by a legitimate rights holder. “

Our content ID system relies on rules set by rights holders, and will only block or remove a sound automatically if the rights holder, usually (in the case of music) a record label or distributor, has requested this when delivering their content into the content ID system.  If a creator has permission to post his/her own content and their sound gets blocked, we have a clear and effective process to deal with this quickly and efficiently.

Ce système automatique de filtrage des contenus rappelle celui qui est utilisé par YouTube, qui lui permet de proposer aux titulaires de droits de monétiser des contenus au lieu de les retirer. Dénommé ContentID, ce dispositif constitue un des éléments clés de l’architecture de YouTube et j’avais déjà eu l’occasion d’étudier son fonctionnement, dans des billets consacrés à Gangnam Style ou au Harlem Shake.

La différence majeure entre YouTube et SoundCloud, c’est que ce dernier n’est sans doute pas en mesure de proposer un partage des recettes publicitaires aux titulaires de droits, puisque le site ne contient pas de publicités. Là où sur YouTube, les titulaires peuvent être incités à plus de souplesse en acceptant la diffusion de leurs contenus en échange d’une rémunération, ils n’ont pas cette possibilité sur SoundCloud et c’est peut-être ce qui les conduit à demander plus souvent le retrait.

[On trouve sur SoundCloud pas mal d'artistes défiant ouvertement les règles du droit d'auteur, comme ce Copyright Criminal qui se présente ainsi sur son profil :

Charged for crimes he didn't commit, Copyright Criminal was convicted and incarcerated for sample theft in a maximum security unit, from where, during a riot , he managed to sieze his opertunity and escape.

Copyright Criminal now lives out days in hiding from government forces .........where he fights on to clear his name!!]

On peut se demander si SoundCloud utilise le même système que celui développé par Google (ContentID). A priori, il semble que non, car on trouve des articles datés de 2011, indiquant que SoundCloud avait déployé la solution technique fournie par la société AudibleMagic, spécialisée dans la gestion des droits en ligne. Cette irruption du filtrage, sur une plateforme jusqu’alors plutôt tolérante, avait déjà provoqué des remous avec la communauté des DJ, notamment à propos des mashups.

Ce qui arrive à SoundCloud est significatif d’une tendance lourde dans l’évolution des plateformes de partage de contenus en ligne. En tant qu’hébergeurs, ces sites ne sont normalement pas astreints à une obligation de surveillance de leurs contenus, car ils bénéficient d’un régime de responsabilité allégée les obligeant seulement à retirer les contenus illégaux qu’on leur signale. Mais les systèmes automatiques de filtrage ont grandement bouleversé le paysage, car ils permettent à ces plateformes d’exercer un contrôle sans perdre le bénéfice de cette responsabilité allégée, puisque ce sont des robots qui font ce travail de surveillance et non des humains.

Lors des luttes contre SOPA et ACTA, un des points centraux des opposants avaient été de défendre ce régime des intermédiaires techniques, pour empêcher qu’un surcroît de responsabilité ne les forcent à filtrer les contenus. Malgré le rejet de ces deux textes, on voit pourtant que ces solutions de filtrage gagnent du terrain sur une base contractuelle, que ce soit sur YouTube, sur SoundCloud et même visiblement sur Facebook, sur lequel ContentID semble en mesure d’intervenir.

Une autre manière de voir ces systèmes automatisés de filtrage des contenus...

Une autre manière de voir ces systèmes automatisés de filtrage des contenus…

Ces solutions automatisées peuvent sembler avoir des effets bénéfiques, notamment parce qu’elles assouplissent en apparence les règles du droit d’auteur, tout en permettant une rémunération des titulaires de droits. Mais elles présupposent aussi que les usagers des plateformes soient soumis à une surveillance constante et que des acteurs privés puissent s’entendre entre eux pour mettre en place une véritable police du droit d’auteur, fonctionnant en parallèle du système légal. La semaine dernière, on apprenait par exemple, qu’en vertu d’accords particuliers avec Youtube, Universal détenait en fait un véritable pouvoir unilatéral de censure sur la plateforme, ce qui illustre les risques de dérives de cette police privée.

Yes, I’M A Cop : Robocop. CC-BY-NC. Source : Flickr.

D’une certaine façon, ces solutions préfigurent une forme de licence globale privée et j’avais déjà été amené à dire qu’à ce compte, l’ensemble de l’écosystème numérique aurait intérêt à adopter une solution de type contribution créative plutôt que de s’en remettre à ces arrangements entre firmes. Pour les remix et les mashups, une consécration par la loi sous la forme d’une exception au droit d’auteur serait infiniment préférable à ce régime de tolérance organisée, qui peut à tout moment se retourner contre les créateurs d’oeuvres dérivées.

Imaginons un instant qu’un acteur comme Google avec ContentID propose un jour son système comme un moyen général de filtrer l’ensemble d’Internet, en offrant des solutions de monétisation aux titulaires de droits. Nous verrions alors surgir une sorte de Robocopyright global qui modifierait profondément la nature d’Internet tel que nous le connaissons.


Classé dans:Quel Droit pour le Web 2.0 ? Tagged: bootleg, contentid, copyright, droits d'auteur, mashup, partage, remix, soundcloud, streaming, youtube

Les Google Glasses peuvent-elles changer le statut juridique de la vision ?

vendredi 12 avril 2013 à 18:23

Les articles se sont multipliés à propos des Google Glasses depuis quelques semaines et nombreux sont ceux qui ont souligné que ce nouvel objet connecté soulevait des difficultés juridiques potentielles, notamment en termes de protection de la vie privée. Plusieurs lieux physiques ont déjà annoncé qu’ils entendaient interdire l’usage de ces lunettes dans leur enceinte, comme un bar, un club de streap-tease, un casino ou encore une salle de cinéma.

F.A.T. GOLD @eybeam – YOUR ART!! party. Par agoasi. CC-BY-NC-ND. Source : Flickr

Le fait que les Google Glasses suscitent l’inquiétude d’un cinéma nous ramène sur le terrain du droit d’auteur et de la contrefaçon, car il est évident que cet outil facilitera grandement les possibilités de se livrer à la pratique du camcording, l’enregistrement de films lors de leur passage en salle, l’un des cauchemars de l’industrie cinématographique.

Un écran en permanence devant nos yeux

Avec un tel appareil capable de photographier ou de filmer avec facilité directement ce que nous voyons et de le partager instantanément à distance, les possibilités de violer les droits d’auteur attachés sur les objets dans notre environnement, comme les oeuvres architecturales,  sont augmentées. Mais pas tellement davantage que celles offertes par les smartphones qui ont déjà mis à la portée du plus grand nombre des appareils de reproduction connectés, en faisant trembler au passage les limites étroites de la copie privée

A mon sens, la vraie rupture introduite par les Google Glasses en terme de droit d’auteur est d’une autre nature. Ce n’est pas tellement du côté de la reproduction qu’il faut se pencher, mais plutôt de celui de l’autre droit patrimonial : le droit de représentation.

Le problème vient du fait que ces lunettes interposent entre notre regard et le monde qui nous entoure un écran, invisible certes, mais susceptible de provoquer des turbulences juridiques redoutables. En effet, le fait que les ordinateurs aient obligé l’acte de lecture à passer par la médiation d’un écran a provoqué une extension considérable du champ d’application du copyright.

Lorsque vous entrez dans une bibliothèque ou dans une librairie et que vous commencez à lire un livre de vos propres yeux, l’acte que vous accomplissez n’est pas saisi par le droit d’auteur. Cette lecture « naturelle » n’est pas assimilée juridiquement à une forme de représentation ou de « communication au public ». Mais lire ce même ouvrage, transformé en eBook à partir des écrans des ordinateurs de la bibliothèque, relève bel et bien d’un acte de représentation, soumis au droit exclusif des auteurs et de leurs ayants droit.

La médiation par les écrans a eu pour effet que des contemplations privées, et même purement solitaires d’oeuvres, ont été soumises au droit d’auteur : lorsque je lis un livre dans ma chambre, le droit d’auteur n’a absolument rien à voir (c’est le cas de le dire) avec cet acte, mais si je regarde la télévision, il entre dans la pièce par l’écran.

Un voile juridique sur le réel

Porter des Google Glasses, c’est accepter constamment qu’un voile numérique couvre notre regard et se pose sur le monde environnant. La vision se transforme en une perpétuelle représentation, alors que cela n’arrivait auparavant que lorsque nous jouissions d’oeuvres dans les conditions d’une communication au public (assister à une pièce de théâtre ou voir un film). Mais nous pouvions encore regarder librement des monuments, des statues ou des affiches protégés dans la rue, sans que notre regard ne soit saisi par le droit d’auteur.

Par tryingmyhardist. CC-BY-NC-SA. Source : Flickr

Par rapport à la simple télévision qui ne stocke rien, les écrans des ordinateurs sont plus redoutables encore, car tout affichage d’une oeuvre à l’écran suppose une reproduction quelque part dans la mémoire de la machine, assimilable à une copie. Et cette copie, fût-elle transitoire et fugace, est susceptible de déclencher l’application du droit d’auteur. Ce phénomène d’extension du domaine de la copie par le numérique a très bien été décrit par Siva Vaidhyanathan :

Le moment numérique a fait s’effondrer la distinction entre trois processus auparavant différents : accéder à une œuvre, utiliser ou lire une œuvre, et copier une œuvre. Dans l’environnement numérique, on ne peut accéder à un article de presse sans en faire de nombreuses copies. Si je veux partager un article avec un journal en papier avec un mai, je n’ai qu’à lui donner cet objet. Je n’ai pas à en faire de copie. Mais dans l’environnement numérique, c’est nécessaire. Quand je clique sur le site internet qui contient l’article, le code dans la mémoire vive de mon ordinateur est une copie. Le code source en langage html constitue une copie. Et l’image de l’article à l’écran est une copie. Si je veux qu’un ami lise également cette information, je dois en faire une nouvelle copie attachée à un mail. Ce mail aboutira à une autre copie sur le serveur de mon ami. Et ensuite, mon ami fera une nouvelle copie sur son disque dur en recevant ce message et d’autres encore dans sa mémoire vive et sur son écran en lisant. Le droit d’auteur a été conçu pour réguler seulement la copie. Il n’ était pas supposé réguler le droit de lire et de partager. 

Lire le monde et en garder copie

Le droit d’auteur n’avait donc pas vocation à s’appliquer à l’acte de lecture, mais la multiplication des écrans lui a permis de le faire. Les Google Glasses constituent un nouveau stade dans cette évolution, qui transforme toute vision en lecture potentielle.

On trouve sur Canard PC un article passionnant de science-fiction juridique intitulé « Johnny Mnemonic est-il coupable ? », qui se demande ce qui se produirait si on considérait le cerveau comme un espace de stockage, à l’instar d’un disque dur d’ordinateur. L’auteur se pose ensuite la question complexe de savoir si nous sommes responsables lorsque nous regardons des oeuvres diffusées illégalement en streaming :

Bon, mais qu’en est-il du spectateur ? Ce dernier commet-il également une contrefaçon, rien qu’en regardant ou en écoutant l’oeuvre streamée ? [...] Regarder ou écouter une oeuvre diffusée illégalement, s’il n’y avait pas de copie de cette dernière, serait-il légal ? Pour bien répondre à la question, imaginons une technologie qui diffuse l’oeuvre par des ondes qu’un récepteur reçoit et lit sans rien copier, oui, comme la radio ou la télévision d’antan, à cette époque lointaine où les dinosaures marchaient sur la terre et où les disques durs et les mémoires caches ne se trouvaient pas dans tous les appareils [...] Le seul fait de regarder ou d’écouter passivement une oeuvre de l’esprit diffusée en fraude des droits de l’auteur, sans avoir participé à cette diffusion, ne m’apparaît pas illégal ![...] Dire l’inverse reviendrait à ce que le stockage de l’oeuvre dans votre cerveau, sans autorisation de l’auteur, soit illégal. Pour l’instant, nous n’en sommes pas encore là.

Avec les Googles Glasses, on se trouve en présence d’un appareil qui dispose bien d’une telle mémoire cache et qui donc transforme notre vision en un flux de streaming continu. Plus besoin de passer par la fiction du cerveau qui stocke les oeuvres, puisque ce sont les lunettes qui réalisent cet acte de copie transitoire comme un écran.

Réalité augmentée, réalité recréée

On pourra me rétorquer que ce raisonnement ne tient pas, parce que nous n’avons pas continuellement des oeuvres protégées sous les yeux et c’est vrai. Mais les Googles Glasses permettent de proposer une réalité « augmentée » sur laquelle vient se surajouter des couches diverses, qui pourront très bien finir par être assimilées à des oeuvres de l’esprit. Imaginons des applications qui modifient les couleurs de notre environnement, un peu comme des filtres Instagram permanents. Voilà le réel qui prendrait soudain les allures d’une oeuvre ! Et les lunettes permettront sans doute rapidement de transformer les surfaces autour de nous – les murs,  les bus et les voitures, les tshirt des passants, le ciel, etc- précisément en écrans où l’on pourra choisir d’afficher des projections (vous ne voyez pas par exemple Google proposer d’y afficher de la pub en « louant » de nouveaux espaces dans la réalité elle-même ? Je parie qu’il le fera comme il offre de louer les espaces de nos sites internet).

Second Life, Woman, Eyes Wide Shut. Par yukali. CC-BC-NC-ND.

On arriverait à un état où la réalité deviendrait saturée en permanence de propriété intellectuelle. A vrai dire, une telle situation a déjà existé, mais dans les mondes virtuels comme Second Life ou World Of Warcraft, où toute chose est assimilable à une création protégée. J’avais d’ailleurs écrit il y a quelques années un billet pour étudier les conséquences juridiques de ce « panthéisme » du copyright :

A la différence du monde réel, où des pans entiers de notre environnement n’ont pas été « créés » et échappent (encore…) à l’emprise du droit d’auteur, tous les éléments constitutifs de Second Life sont des créations et peuvent être considérés comme des œuvres de l’esprit protégées. Ce caractère « démiurgique  » des univers persistants n’est pas sans conséquence juridique.

L’autre risque possible, si les Google Glasses ou des dispositifs similaires venaient à proliférer, c’est que des acteurs puissants essaient de s’arroger un droit de propriété sur le spectacle même de la réalité. On pourra juger cette hypothèse peu crédible, mais le Code du Sport prévoit déjà par exemple que les photographies prises lors d’une compétition appartiennent automatiquement aux fédérations sportives, ce qui ouvre la porte à une forme d’appropriation directe du réel, alors même que les performances sportives ne sont pas considérées comme des oeuvres ou des interprétations. Et l’on sait lors des derniers JO à Londres le CIO a déployé des moyens féroces pour contrôler les images qui étaient prises de compétitions. Que n’aurait-il fait s’il avait pu s’en prendre directement au regard des spectateurs !

Google Glasses, mauvais oeil ?

Si nous sommes plongés en état de constante représentation par des appareils comme des Google Glasses, nul doute qu’il y aura un intérêt majeur à ce que les évènements en eux-même puissent faire l’objet d’un droit exclusif et non plus seulement leur enregistrement.

Voilà ce qui pourra peut-être se produire lorsque nous aurons le droit d’auteur attaché à la prunelle de nos yeux…

Mise à jour du 18 avril 2013 : Cela n’a pas directement de liens avec l’angle d’attaque de ce billet, mais cet article nous apprend que Google interdit, via la licence d’utilisation de ses lunettes de les revendre ou de les louer, mais aussi simplement de les prêter ou de les donner ! Soit des restrictions qui vont bien plus loin que celles des smartphones et des tablettes par exemple…


Classé dans:Penser le droit d'auteur autrement ... Tagged: copies, droit d'auteur représentation, google glasses, réalité augmentée, streaming

Réponses à François Gèze, membre du conseil scientifique du registre ReLIRE

jeudi 4 avril 2013 à 12:50

Lundi soir, François Gèze, directeur des Editions La Découverte et membre du comité scientifique du registre ReLIRE institué par l’arrêté du 18 mars 2013, a laissé sous le billet que j’ai consacré à cette affaire un long commentaire, dans lequel il conteste l’exactitude de plusieurs des arguments que j’avance. Il défend par ailleurs le dispositif mis en place par la loi du 1er mars 2012 sur l’exploitation numérique des livres indisponibles du XXème siècle, à la conception duquel il a participé.

S’agissant d’une affaire dans laquelle on a pu déplorer un constant  manque de transparence, y compris lors du vote de la loi au Parlement, je tiens à saluer ce geste de François Gèze, d’autant plus qu’un échange intéressant avec d’autres personnes a pu s’installer par la suite dans les commentaires du billet. Malgré la vigueur des critiques qui se sont exprimées contre le dispositif ReLIRE, les parties prenantes officielles n’ont pour l’instant pas engagé de débat réel. Il faut donc créditer François Gèze d’avoir pris sur lui le faire loyalement ici, alors que rien ne l’y obligeait.

Néanmoins, je tiens à répondre dans le détail à ces observations, car les commentaires de François Gèze comportent des erreurs manifestes, portant sur les termes mêmes de  la  loi, qu’on peut juger inquiétantes s’agissant d’un des membres du comité scientifique du Registre. Par ailleurs, François Gèze apporte des éléments d’informations concernant la constitution de la base ReLIRE qui confirment certaines des craintes que je nourrissais, notamment sur le fait que certains éditeurs auraient pu bénéficier d’un opt-in à la place de l’opt-out prévu par la loi.

Les commentaires de François Gèze figurent ci-dessous en bleu, suite aux passages de mon billet en noir. J’inclus également des commentaires laissés par d’autres personnes sous ce billet, qui peuvent apporter des éléments intéressants à la discussion.

A chacun de se faire une opinion concernant l’exactitude et la pertinence des arguments échangés.

***

Eh ben, eh ben, que dire face à tant d’ire ? Simplement que l’auteur de ce billet s’égare, étant sans doute mal informé, alors qu’il n’était pourtant pas si difficile de le faire. Quelques rectifications semblent nécessaires ;-). Et pour savoir « d’où je parle » : je dirige depuis trente ans les Éditions La Découverte et j’ai été étroitement associé, en tant que président du groupe des éditeurs universitaires du Syndicat national de l’édition, tant à la loi ici contestée qu’à sa mise en œuvre.

Les lecteurs de ce blog, qui savent que depuis plusieurs années, je veille, écris, développe des analyses et interviens sur cette question de la numérisation des livres indisponibles et épuisés, apprécieront sans doute à sa juste valeur le fait que je serais « mal informé ».

Par ailleurs, vu les erreurs commises par François Gèze sur la signification des termes de la loi, cette insinuation est entièrement réversible. Je me tiens d’ailleurs à son entière disposition pour compléter son information s’il le souhaite.

***

Calimaq : « ReLIRE comporte visiblement d’étranges erreurs. On y trouve par exemple 538 titres publiés postérieurement au 1er janvier 2001, qui ne sont donc pas couverts par la loi du 1er mars 2012. »
François Gèze : Ces titres sont, sauf erreur toujours possible, des « manifestations » (éditions) publiées de titres initialement publiés avant 2001 et aujourd’hui indisponibles : elles ont donc toute leur place dans le registre.

Voilà ici l’erreur d’interprétation de la loi du 1er mars 2012 et elle est très lourde, eu égard à ses conséquences pour les auteurs.

Contrairement à ce qu’avance François Gèze, il est manifeste que les livres publiés après le 31 décembre 2000 ne peuvent être inclus dans le Registre, y compris lorsqu’il s’agit de rééditions de titres plus anciens. Ce jugement résulte d’une mauvaise compréhension de ce qu’est une « manifestation » par rapport à une « oeuvre » (titre), termes issus du modèle FRBR.

A vrai dire, cette précision est écrite dès la page d’accueil du registre ReLIRE, qui indique : « ReLIRE vous donne accès à une première liste de 60 000 livres indisponibles du 20ème siècle : des livres sous droits d’auteur, publiés en France avant le 1er janvier 2001, et qui ne sont plus commercialisés ».

Cette page du site opère d’ailleurs bien la distinction entre les oeuvres et les éditions, en indiquant que « lorsqu’il y a dans ReLIRE plusieurs éditions d’un même livre, on appelle cet ensemble « œuvre » » et « pour qu’un livre soit considéré comme indisponible, toutes les éditions qui en contiennent le texte intégral doivent être indisponibles » (merci @BlankTextField de l’avoir signalé).

Le texte de la loi est également très clair sur cette question. L’article L. 134-1 indique :

 On entend par livre indisponible au sens du présent chapitre un livre publié en France avant le 1er janvier 2001 qui ne fait plus l’objet d’une diffusion commerciale par un éditeur et qui ne fait pas actuellement l’objet d’une publication sous une forme imprimée ou numérique.

Ceux qui ont suivi attentivement l’élaboration de cette loi au Parlement (ce qui est mon cas) savent qu’il y eu une modification importante du texte en cours de route sur ce point et que le terme « oeuvre » initialement prévu dans la proposition de loi introduite par Hervé Gaymard a été remplacé suite à un amendement par le terme « livre » :

On entend par oeuvre indisponible, au sens du présent chapitre, une oeuvre non disponible commercialement de façon licite dans un format papier ou numérique, publiée en France sous forme de livre avant le 31 décembre 2000 et inscrite sur la base de données mentionnée à l’article L. 134-2.

Le juriste Franck Macrez, auteur d’une étude détaillée de la loi sur les indisponibles au Dalloz, avait d’ailleurs relevé cette variation dans le texte, en expliquant qu’elle avait des conséquences importantes en termes juridiques.

En effet,  cette modification entraîne qu’il faut se placer justement au niveau des différentes « manifestations » d’un titre (ses différentes éditions), pour examiner leur disponibilité une par une, et non au niveau de « l’oeuvre » toute entière. C’est le sens que l’on doit donner au mot « livre » dans la loi, sinon le législateur aurait dit « oeuvre ».

Il en résulte que contrairement à ce qu’affirme François Gèze, les éditions d’un livre parues après le 31 décembre 2000 sont à l’évidence en dehors du périmètre de la loi et ne devraient en aucun cas figurer dans le registre.

On dira sans doute que je suis un peu taquin, mais prenons au hasard l’exemple de ces douze titres publiés aux Editions La Découverte et présents dans le Registre (merci @Thelonius_Moon de me les avoir transmis !). Ils comportent tous des éditions publiées après le 31 décembre 2000. Ces dernières sont donc en dehors du champ de la loi et n’ont rien à faire dans cette base…

C’est même pire que cela, puisque @Blanktextfield signale sur Twitter que 4 titres parmi ces 12 font partie d’une collection [Re]Découverte dont François Gèze ne peut pas ignorer l’existence et qui vise précisément à rééditer des titres du catalogue :

Grâce aux nouvelles techniques d’impression numérique, donner une seconde vie à des textes classiques, dont certains sont épuisés depuis plusieurs années pour répondre ainsi à l’attente des lecteur.

Ces rééditions sont donc disponibles (exemple) et aucune édition précédente ne devrait pas figurer dans la base (pourtant…).

Je constate donc, à ma plus grande stupéfaction, que l’un des membres du comité scientifique du registre, chargé de l’établissement des critères d’inclusion des ouvrages dans ReLIRE, et qui plus est, l’un des concepteurs mêmes de cette loi d’après ses propres propos, se trompe sur l’interprétation de ce texte.

Sans doute pourra-t-on rétorquer que cette loi est redoutablement compliquée et c’est ce qu’une juriste comme Isabelle Sivan avait relevé après la parution du texte, non sans se poser quelques questions :

La rédaction de cette loi est particulièrement complexe au point que l’on pourrait penser qu’elle cherche à semer certains de ses lecteurs ou intéressés.

Au vu du commentaire de François Gèze (dont je ne remets pas en cause la bonne foi), on constate que la complexité de cette loi est visiblement capable de perdre en cours de route l’une des personnes impliquées dans sa conception et qui représentera les éditeurs dans sa mise en oeuvre !

De là à dire que l’on a joué aux apprentis sorciers avec ce texte, il n’y a qu’un pas à franchir et je pourrais même dire « pardonnez-leur, parce qu’ils ne savent pas ce qu’ils font« , si ce n’est que ce genre d’erreur de droit est difficilement pardonnable. Car pour les auteurs en cause, cela signifie que les droits sur leurs oeuvres peuvent être placés en gestion collective, alors même que les livres en question ne sont pas couverts par la loi et qu’il est absolument illégitime de faire peser sur eux une quelconque obligation de retrait.

Ces derniers sont entièrement fondés à saisir directement la justice pour faire valoir leur droit, car l’inclusion de ces livres publiés après le  31 décembre 2000 constitue une négligence caractérisée, puisqu’un simple tri par date aurait permis de les exclure.

D’après les estimations faites par la Team AlexandriZ à partir du contenu de la base, la proportion de ces « dommages collatéraux » n’est pas complètement négligeable, puisque 1% de la base ReLIRE correspondrait à de tels livres hors du champ de la loi.

Voilà donc pour la première inexactitude de ma part. Passons donc aux suivantes !

***

Calimaq : « Plus surprenant encore, ReLIRE contiendrait quelques rééditions de livres publiés au 18ème et 19ème siècle, ainsi que de simples reprints, qui n’ont absolument rien à y faire… »

François Gèze : Bien sûr, de « simples reprints » d’œuvres du domaine public n’ont rien à y faire, mais le conditionnel est en effet de mise : il n’est pas si facile, vu les possibles insuffisances des bases de données bibliographiques, de vérifier si toutes les éditions de ces œuvres sont ou non de « simples reprints » et si elles ne comportent pas un appareil critique qui ne relève pas du domaine public. Et c’est précisément l’objet de la publicité donnée par la base ReLIRE de permettre que ces éventuelles anomalies soient corrigées. Comment faire autrement, SVP ?

Comment faire ? Même réponse que plus haut : un simple tri par date et on exclut ces ouvrages trop anciens, au moins à titre de précaution s’il est trop difficile d’établir s’ils sont bien concernés par la loi. C’est ainsi que nous avons fait pour les rechercher et cela n’a rien eu de bien compliqué. Il faut arrêter avec les arguments du genre : « Mais c’est compliqué de gérer une telle base ! ». 60 000 références, on est très loin du Big Data !

Pour la première parution de cette liste, on aurait été en droit d’attendre une prise de risque minimale pour éviter tout risque de contestations. S’il est difficile de distinguer les simples reprints des livres avec appareil critique, la simple prudence aurait dû conduire à exclure ces titres, surtout si le stock global des indisponibles s’élève à 500 000 livres. Quel besoin de remonter aussi loin dans le temps ?

Mais il a fallu faire vite pour constituer ce registre, notamment à des fins d’affichage politiques lors du Salon du Livre 2013. Bruno Racine se félicitait (le mot est faible…) d’avoir « tenu les délais« , comme si c’était l’alpha et l’oméga. Mais à quel prix ?

***

Calimaq « ReLIRE pousse l’ironie jusqu’à avoir mis en place un formulaire pour signaler qu’un titre figurant dans la base est en réalité disponible, comme s’il s’agissait d’une simple erreur à rectifier, alors qu’il s’agit de violations de la loi ! Je dirai ça à la police, la prochaine fois que je suis pris en excès de vitesse : merci de me le signaler ! »
François Gèze : Dios mio ! Mais où sont donc l’« ironie » et la « violation de la loi » ? Cette remarque acerbe est sans le moindre fondement, car l’établissement du statut « indisponible » est tout sauf simple (à la différence d’un radar constatant un excès de vitesse). La seule base existante mentionnant le statut d’indisponibilité d’un livre, Electre, peut comporter des erreurs, malgré tous ses efforts, car elle agrège des informations venant des distributeurs (et encore, certains petits échappent peut-être) qui peuvent parfois être erronées. De surcroît, comme l’explique justement le site ReLIRE : « Il n’existe pas en France de base de données interprofessionnelle recensant la disponibilité numérique. D’autre part, la disponibilité est très mouvante. Des erreurs sont donc possibles, et chacun est invité à les signaler à la BnF. Le registre est conçu en ce sens : il est possible de signaler la disponibilité d’une œuvre en indiquant les précisions nécessaires à sa vérification (coordonnées de l’éditeur, lien vers le site de l’éditeur, vers la fiche de l’ouvrage sur le site d’une librairie en ligne, etc.). » Mais Lionel Maurel s’est-il donné la peine de lire ces explications et de s’intéresser au vaste problème que constitue la vérification de la fiabilité des bases de données bibliographiques (y compris celle de la BNF, qui est très loin d’être sans défauts s’agissant des titres du dépôt légal antérieurs aux années 1980) ?

Sur ce point, je persiste et je signe. La loi est la loi, et nul ne peut s’abriter derrière de prétendues difficultés techniques pour ne pas la respecter. Pour prendre une autre métaphore que celle de l’excès de vitesse, lorsqu’un médecin se trompe de diagnostic et administre à tort un traitement qui cause un préjudice à son patient, il ne peut que très difficilement s’abriter derrière la difficulté technique pour s’exonérer de sa responsabilité.

C’est la même chose ici, car inclure un livre disponible dans ReLIRE cause un préjudice incontestable aux titulaires de droits sur cette oeuvre, en les forçant à se manifester pour rectifier l’erreur, au risque de voir autrement leurs droits passer en gestion collective. C’est déjà en soi très contestable, y compris sur le plan du droit, pour les livres indisponibles. Mais cela devient catégoriquement inacceptable pour les ouvrages qui sont encore disponibles !

Contrairement à ce que François Gèze sous-entend, je suis parfaitement au courant des difficultés qui existent pour établir qu’une oeuvre est indisponible ou non, ainsi que des lacunes figurant dans les bases de données (Electre ou le catalogue de la BnF).

Mais si d’un point de vue technique, la détermination de l’indisponibilité est si complexe et faillible, alors la conclusion que l’on peut en tirer, c’est qu’il ne FALLAIT PAS instaurer un système d’opt-out pour régler la question des indisponibles, car le risque de préjudice était trop grand. Le commentaire de François Gèze fait tout simplement la preuve du vice de conception fondamental de cette loi.

C’est exactement à cette conclusion qu’est arrivée la justice américaine dans l’affaire Google Books aux Etats-Unis, en rejetant le principe même de l’opt-out. Les instigateurs de la loi française auraient bien fait de se ranger à cet exemple de sagesse juridique…

***

Calimaq : « Le ridicule a été poussé jusqu’à nommer par arrêté un « conseil scientifique » le 20 mars, dont la mission consiste justement à définir les critères et la méthode d’établissement de la liste des ouvrages inclus dans la base. Or cette fameuse liste a été publiée dès le lendemain, en même temps que le Registre ReLIRE. On en déduit soit que les membres de ce conseil sont des surhommes qui ont abattu le travail de sélection de 60 000 livres en une nuit, soit que la besogne a été accomplie ailleurs – on ne sait où, par qui et comment – avec à la clé, les ratages qui éclatent au grand jour à présent. »
Mais où est le « ridicule », sinon aux yeux de celui qui ne veut pas s’informer ? Ce n’est pas parce que ce « conseil scientifique » (dont je fais partie, honte sur moi) n’a été nommé que le 20 mars qu’il aurait travaillé « en une nuit » pour établir une première liste de 60 000 titres (limitée aux sciences humaines et sociales, à l’histoire et à la fiction), soit à peine plus de 10 % du corpus estimé : à l’avenir, sa mission sera justement d’affiner les critères et les méthodes de constitution de la base. En pratique, il y a plus de trois ans que des représentants des auteurs, des éditeurs et des bibliothécaires (pas mal de professionnels, qui n’ont rien de « clandestins ») ont engagé, sous la houlette très officielle du ministère de la Culture, le travail nécessaire pour construire un dispositif, aujourd’hui contesté, dont le seul objectif est de rendre accessibles des centaines de milliers de livres épuisés du XXe siècle. La mise au point de la première liste, certainement à améliorer, a nécessité des mois de travail de beaucoup de gens – en particulier d’une équipe ad hoc de la BNF, remarquablement compétente –, consacrés à la résolution de mille problèmes purement techniques, tant la vérification d’une vraie indisponibilité est complexe.

Dans une démocratie bien comprise, les comités travaillent après avoir été officiellement nommés, de manière à ce qu’ils puissent fonctionner en conformité avec les règles posées par les actes qui les instituent. On pourra me trouver rigide, mais concernant une affaire si sensible, toutes les garanties formelles auraient dû être apportées.

François Gèze semble par ailleurs se féliciter que des travaux aient eu lieu depuis plus de trois ans à propos de l’établissement de ces listes d’indisponibles, mais c’est aussi l’un des points que les détracteurs de ce projet mettent en avant. Une grande part des négociations et travaux liées à ce projet des indisponibles s’est accomplie de manière complètement opaque, très en amont du vote de la loi.

Comme je le disais dans mon précédent billet, Il en a d’ailleurs résulté un accord-cadre conclu entre le Ministère de la Culture, le SNE, la SGDL, la BnF et le Commissariat à l’Investissement qui n’a pas été publié, alors même qu’il avait des incidences majeures sur l’emploi des crédits publics. A force d’être réclamé, notamment par des députés, ce texte a fini par être révélé, mais seulement à la fin du vote de la loi.

Le problème, c’est justement que quelqu’un comme François Gèze ne voit plus où est le problème avec ces méthodes, qui jettent le discrédit sur l’action publique et minent la légitimité des lois.

Pour l’anecdote, on espère à présent que le comité scientifique dont fait partie François Gèze va redoubler d’effort en ce qui concerne la sélection, car si cette première liste de 60 000 titres devait se limiter « aux sciences humaines et sociales, à l’histoire et à la fiction« , on peut s’étonner d’y trouver Les Roucasseries de Jean Roucas, les Eclats de rire de Lagaf ou Les meilleures histoires drôles de Carlos !*

***

Calimaq : « Une partie de ces titres a été sélectionnée dans le cadre d’un marché passé avec Electre, mais le document indique aussi que 10 000 ouvrages auraient été « fournis par les éditeurs ». Qu’est-ce que cela peut signifier ? Mystère, sinon que l’on voit que les éditeurs bénéficient en réalité sans doute d’une forme d’opt-in, puisqu’ils ont la main sur la liste, alors que les auteurs de leur côté restent individuellement soumis à l’opt-out. Cette « cuisine interne » aboutit à quelque chose de vraiment pire que tout ce que l’on pouvait imaginer ! »

François Gèze : Les éditeurs ne « bénéficient » de rien du tout : si certains d’entre eux (ceux qui avaient les fonds les plus anciens) ont été sollicités par la BNF, c’est simplement parce que, Electre ne recensant que des titres publiés depuis sa création au début des années 1980, nombre de titres publiés antérieurement et déjà épuisés à cette date ne pouvaient y figurer. Il était donc important que des éditeurs « anciens » puissent vérifier sur les listes (établies à partir de la base bibliographique de la BNF) de leurs titres antérieurs au début des années 1980 ceux qui étaient effectivement indisponibles à ce jour : je l’ai fait par exemple pour ma maison (créée en 1959) et je peux vous assurer que c’est un travail long et complexe (que beaucoup d’autres maisons devront d’ailleurs poursuivre), qui n’encourage de surcroît aucun « opt-in » (car si jamais je souhaite à l’avenir exploiter moi-même certains de ces titres épuisés, il me sera beaucoup plus facile de le faire en pratiquant l’« opt-out » sur le registre). Où est la « cuisine interne », sinon dans la vision de ceux qui n’ont pas compris le dispositif ?

Je crains hélas que François Gèze ne maîtrise pas certains termes du débat, car contrairement à ce qu’il avance dans sa réponse, son commentaire atteste bien que certains éditeurs ont bénéficié d’un opt-in, alors même que la loi a mis en place une procédure d’opt-out. C’est une distorsion majeure du dispositif, que j’avais déjà pressentie à la lecture de la révélation d’un document interne de la BnF sur Actualitté, qui indiquait que 10 000 indisponibles seraient « fournis par les éditeurs » à la BnF. On sait maintenant que c’est vrai et comment cela s’est passé, grâce à ce commentaire.

Je ne remets cependant pas en cause la bonne foi de François Gèze et je ne minimise pas la difficulté pour un éditeur d’établir une liste des indisponibles à partir de son propre fonds. Néanmoins cette faculté de choix réservée à certains de déterminer quels livres ou non figureront dans la base constitue à l’évidence une rupture d’égalité vis-à-vis de ceux – éditeurs et auteurs – qui seront soumis à l’opt-out strict prévu par la loi.

L’opt-out n’est absolument pas quelque chose d’anodin. Si l’opt-in est ouvert pour certains, il devrait être ouvert à tous : éditeurs, mais aussi et surtout, auteurs !

Lucie Chenu dans un commentaire laissé sous le billet explique bien en quoi laisser la possibilité à certains éditeurs de choisir les livres qu’ils veulent inclure dans la base constitue bien un opt-in :

Je pense que vous n’avez pas compris le propos de Calimaq (qui me corrigera si je me trompe). Ou alors, vous faites semblant. L’opt in, vous en avez déjà bénéficié lorsque vous avez eu la possibilité de choisir les titres que vous voulez inclure dans le registre.

Quand on sait le déséquilibre de traitement qui existe déjà à la base entre les éditeurs et les auteurs dans le mécanisme même de la loi sur les indisponibles (analyse détaillée ici), c’est vraiment pousser très loin que de donner en plus à certains éditeurs la possibilité de maîtriser l’entrée de leurs ouvrages dans le Registre. Dans un commentaire supplémentaire, François Gèze donne des garanties vis-à-vis de « ses » auteurs et il n’y a pas lieu de mettre sa parole en doute. Mais il ne comprend pas que c’est le principe même qui est choquant.

Dans un autre commentaire, François Gèze ajoute ceci :

Cher Lionel Maurel, je ne sais comment vous l’expliquer : je n’ai « bénéficié » de rien du tout, sauf du pénible « privilège » de vérifier titre par titre si, à ma connaissance, des titres du fonds ancien de ma maison étaient ou non indisponibles, sans que cela me donne le moindre avantage par rapport aux auteurs concernés.

Je tiens à préciser qu’il existe néanmoins une forme de privilège important à figurer ou non dans cette première liste du registre. Car la BnF a annoncé son intention de financer sur ses propres crédits la numérisation des 10 000 premiers titres (1 millions d’euros), ce qui lève pour cette tranche l’obligation de rembourser l’emprunt qui sera mobilisé par la suite pour numériser les indisponibles.

Sans remettre en cause encore une fois la bonne foi de François Gèze, est-il seulement sain dans ces conditions qu’un membre du comité scientifique puisse choisir la liste des livres de son fond qu’il inclut dans le système ? Je soulève la question.

Encore une fois tout ceci donne une impression désagréable d’arrangement par rapport aux termes mêmes de loi, qui ne peut que ternir la légitimité du processus.

***

Calimaq : « Or la directive européenne prévoyait un système différent par lequel les bibliothèques françaises, après avoir établi par des recherches diligentes que les ouvrages étaient bien orphelins, auraient pu numériser et mettre en ligne gratuitement les ouvrages à la disposition du public. Il y a fort lieu de penser que cette possibilité de diffusion gratuite a complètement affolé les titulaires de droits en France, qui ont utilisé l’artillerie lourde de leur lobbying pour neutraliser la directive au profit du système des Indisponibles. »
« Fort lieu de penser » : là, on n’est pas très loin de la paranoïa… Car les « titulaires de droits », auteurs comme éditeurs, je peux en témoigner, n’ont jamais le moins du monde été « affolés » par la perspective d’une diffusion gratuite des œuvres orphelines, puisque, par hypothèse, celles-ci n’ont plus d’ayants droit identifiables. L’article L. 134-8 de la loi a introduit simplement un délai de dix ans avant de permettre cette diffusion gratuite conforme à la directive européenne, laps de temps assez raisonnable pour s’assurer qu’une telle œuvre est vraiment orpheline et ne léser aucun ayant droit, tant la tâche est complexe (« Sauf refus motivé, la société de perception et de répartition des droits mentionnée à l’article L. 134-3 autorise gratuitement les bibliothèques accessibles au public à reproduire et à diffuser sous forme numérique à leurs abonnés les livres indisponibles conservés dans leurs fonds dont aucun titulaire du droit de reproduction sous une forme imprimée n’a pu être trouvé dans un délai de dix ans à compter de la première autorisation d’exploitation »).

Je ne sais pas si je suis paranoïaque, mais j’ai appris au fil des années à devenir extrêmement méfiant pour tout ce qui touche à la politique en direction des bibliothèques. Et il se trouve qu’il est possible de citer des déclarations d’acteurs impliqués dans ce dossier des indisponibles attestant que ce dispositif a été mis en place pour contrer la directive européenne sur les oeuvres orphelines en la prenant de vitesse.

A ce sujet, on constate par exemple un flottement surprenant dans le discours de Nicolas Georges, directeur du livre et de la lecture, qui varie en fonction de l’assistance à laquelle il s’adresse. Lors du congrès 2012 de l’ABF à Montreuil, directement interrogé sur la question, il déclare que la loi sur les indisponibles n’a jamais été conçue comme une parade contre la directive sur les orphelines. Mais quelques mois plus tard, lors d’une table-ronde organisée par la SCAM sur la loi, à laquelle j’assistais, il fera une déclaration exactement contraire, en affirmant que l’un des intérêts de cette loi était d’empêcher l’application dans le secteur du livre de la nouvelle exception prévue pour les oeuvres orphelines dans la directive. Lors du forum SGDL 2012, lors de la table ronde Internet et Droit d’auteur, ce sera au tour de Jean-Claude Bologne, président de la SGDL, de critiquer très fortement le mécanisme d’exception mis en place par la directive et de se féliciter de la mise en place de la loi sur les indisponibles, qui permettait de l’éviter. Nicolas Georges aura à cette occasion l’occasion de rappeler que le mécanisme de l’exception était pour lui un « constat d’échec » à éviter à tout prix et que la loi sur les indisponibles avait permis de l’éviter.

Que dire d’autre, sinon que je laisse les lecteurs de ces lignes juger !

Ceci étant précisé, il est également sidérant de lire que François Gèze considère que la loi du 1er mars 2012 confère aux bibliothèques une réelle possibilité de diffuser des livres orphelins. Il n’en était absolument pas question dans la proposition initiale de loi et c’est au Sénat qu’un mécanisme a été introduit, qui aurait effectivement apporté une solution assez intéressante à ce problème, en permettant aux bibliothèques de diffuser les oeuvres non réclamées dans le Registre au bout d’un délai de 10 ans.

Mais la moulinette de la navette parlementaire est lourdement passée sur cette partie du texte, jusqu’à réduire l’article L.134-8 à un véritable trompe-l’oeil. Un lobbying d’enfer a d’ailleurs été exercé sur les représentants afin qu’ils fassent machine arrière, dont le député Patrick Bloche s’était même plaint lors des débats de la Commission Mixte Paritaire :

Le lobbying que nous avons subi, avant la CMP, sur cet article, m’a choqué. A croire que l’accord entre auteurs et éditeurs est si parfait que le législateur n’aurait plus qu’à l’enregistrer.Mais c’est notre légitimité d’élus du suffrage universel qui doit nous guider, pour trouver un point d’équilibre : nous sommes là pour faire la loi. Et que l’on ne vienne pas me dire que nous sortons de notre rôle : il nous revient de prendre en compte, faut-il le rappeler, des objectifs d’intérêt général. C’est le cas sur ce sujet des livres indisponibles, auxquels les enseignants, les chercheurs, doivent pouvoir avoir accès.

Voilà la triste vérité… Et au final, il ne reste quasiment plus rien de ce qui avait été introduit par le Sénat : les bibliothèques devront attendre 10 ans avant de diffuser les oeuvres orphelines parmi les indisponibles, mais uniquement en les renumérisant à leurs frais, pour une diffusion non pas en ligne, mais sur des extranets sécurisés à leurs seuls usagers. Et pire que tout, la Société de gestion collective en charge des indisponibles conservera la faculté, titre à titre, d’apprécier discrétionnairement (« sauf refus motivé ») si les bibliothèques pourront ou non diffuser les ouvrages orphelins !

Conçu sciemment pour être inapplicable, ce mécanisme est infiniment en retrait par rapport à la directive européenne, même si celle-ci est loin d’être si ouverte que les titulaires de droits français le disent.

Sur ce point encore, je ne peux suivre François Gèze.

***

Calimaq : « Des alternatives existaient, qui auraient permis de mettre en place des solutions bien plus équilibrées, sans tordre le cou aux principes les plus essentiels du droit d’auteur. Concernant les œuvres indisponibles, la seule solution équitable était celle du retour automatique des droits à l’auteur et l’inclusion des œuvres dans le registre sur la base d’un opt-in strict. »
« Inclure des œuvres [indisponibles] dans le registre sur la base d’un opt-in strict » : cela revient à attendre, avant de commencer la numérisation de masse (seul moyen de maintenir les coûts de cette opération à un niveau raisonnable), que plusieurs dizaines de milliers d’auteurs et d’ayants droit aient exercé cet opt-in. Autant dire jamais, ou plutôt attendre quelques décennies que toutes ces œuvres tombent dans le domaine public. Il serait plus honnête de dire franchement que c’est le projet même de rendre dès maintenant disponible les livres disparus du XXe siècle qui doit être abandonné. Il faudrait d’autres arguments pour prouver que la loi de 2012 « tord le cou aux principes les plus essentiels du droit d’auteur », alors même – et les auteurs y ont veillé –, qu’elle met leurs droits en avant en leur permettant l’opt-out.

Il est certainement très efficace d’un point de vue rhétorique de laisser penser que cette loi, avec son opt-out, constituait le seul moyen de permettre la numérisation des livres indisponibles du 20ème siècle. Mais c’est manifestement faux.

La preuve, c’est l’attitude que les éditeurs français ont eu vis-à-vis de Google et de ses projets de numérisation. On sait en effet que des éditeurs comme Hachette et Le Seuil/La Martinière ont accepté des partenariats avec Google, pour la numérisation de livres hors commerce, à la condition que le moteur de recherche revienne à un opt-in strict, tant pour les éditeurs que les auteurs. Le SNE a même signé par la suite un accord-cadre avec Google sur les mêmes bases.

Les chiffres annoncés dans le cadre de ces partenariats sont assez considérable, puisqu’on parlait de 50 000 ouvrages pour Hachette. Si l’opt-in est impossible à mettre en oeuvre comme l’insinue François Gèze, comment est-il possible que de tels partenariats aient été  signés avec Google ?

La question se pose d’ailleurs sérieusement (et je l’avais déjà fait), de l’articulation entre la mise en oeuvre de la loi sur les indisponibles et celle des partenariats signés avec Google. Un éditeur comme Hachette est également présent dans ReLIRE et j’avais d’ailleurs indiqué que des risques de « porosité » entre les deux initiatives étaient tout à fait possibles.

L’opt-in strict est le seul moyen d’aborder le problème de la numérisation des indisponibles dans le respect des droits des auteurs et les nombreux ratés de ReLIRE prouvent que cette précaution était essentielle. C’est aussi sur ce point que la loi du 1er mars 2012 soulève le plus de critiques, quant à sa compatibilité avec la Constitution et la Convention de Berne.

Si des difficultés insurmontables se posent à propos d’un partie du corpus, c’est alors que les ouvrages sont orphelins et c’est un des autres vices majeurs de cette loi, d’avoir voulu traiter les oeuvres orphelines au sein des livres indisponibles sans les distinguer. C’était aussi précisément ce que la justice américaine avait reproché à Google et la France n’a pas fait mieux. Pour ces livres orphelins, c’est le mécanisme de la directive, beaucoup plus cohérent, qui devrait s’appliquer.

C’est Philippe Aigrain qui a vu le plus juste à propos de la loi sur les indisponibles, lorsqu’il dit qu’elle constitue « un plan concerté pour la destruction d’un possible« . Ce possible, à base d’opt-in et de solution adaptée au cas spécifique des orphelines, aurait été respectueux à la fois des intérêts des auteurs et de ceux du public.

Mais il faut croire que d’autres intérêts sont plus puissants que ceux-là en France…

***

Calimaq : « Pour mettre en œuvre la base ReLIRE, le gouvernement devait nécessairement prendre un décret, mais publier cet acte, c’était exposer le flanc à un recours au Conseil d’État et plus loin ensuite, devant le Conseil constitutionnel qui a le pouvoir d’annuler la loi. »
Euh, alors là, je ne sais vraiment plus si Lionel Maurel sait encore de quoi il parle, car le décret en question a bien été publié, le 1er mars 2013, il est là :
http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000027119991&dateTexte=&categorieLien=id
comme il le signalait d’ailleurs lui-même au début de son billet, qu’il semble avoir oublié à la fin…

Sur ce point, je dois reconnaître que ma phrase ne devait pas être claire, si elle a fait croire à François Gèze que je sous-entendais que le décret n’avait pas été publié. Ce n’est pas du tout ce que j’ai voulu dire et j’avais d’ailleurs procédé à une analyse détaillée des impacts de ce décret ici.

Ce que je voulais dire, c’est justement que la publication de ce décret ouvre la possibilité d’une contestation de cet acte devant le Conseil d’Etat et à partir de ce recours, la possibilité d’atteindre le Conseil constitutionnel pour faire tomber la loi elle-même.

Et c’est sans doute ce qui va se passer dans les semaines à venir…

***

Calimaq : « Pour beaucoup, l’ouverture de la base ReLIRE a ajouté l’insulte à la blessure qu’avait constitué le vote de la loi du 1er mars 2012. Mais la réaction est déjà en marche et elle sera à la mesure du mépris dont les instigateurs de ce texte ont fait preuve ! »
Ni « insulte » ni « blessure », donc, mais la « réaction », en effet. Car il est difficile de ne pas trouver assez « réactionnaire » cette démonstration si mal ficelée, qui semble plaider de facto pour le maintien dans les ténèbres des centaines de milliers de livres indisponibles du XXe siècle, alors même que nombre de bibliothécaires râlent de longue date contre les éditeurs qui ne les republient pas (essentiellement faute d’acheteurs qui permettraient de couvrir les coûts de réédition) et dont le numérique rend enfin possible économiquement la renaissance…

Démonstration « si mal ficelée »… Au vu des failles béantes dans les arguments de François Gèze, je pense que le lecteur appréciera cette saillie à sa juste valeur.

L’accusation d’obscurantisme est aussi sans fondement, car ce que je défends, c’est qu’il y avait d’autres voies pour traiter la question des indisponibles, comme je l’ai indiqué plus haut. Celle qui a été choisie n’est que le reflet d’un rapport de forces politiques complètement déséquilibré en faveur de certains acteurs de l’écosystème.

Je remercie François Gèze d’être venu débattre ici, mais aucun de ces arguments ne m’a convaincu. Les erreurs qu’il commet, alors même qu’il siège au conseil scientifique de ReLIRE, me confortent même dans l’idée que tout ce processus ne peut conduire à présent qu’à une catastrophe.

Je terminerai en lui posant une question : si cette loi est finalement jetée à terre par une décision du Conseil Constitutionnel, que restera-t-il de tous ces efforts déployés ? Ce sera un épouvantable gâchis, qui aurait pu être évité si seulement un véritable débat public avait eu lieu.

Ce sera la grande leçon à tirer de cette affaire des indisponibles pour l’avenir.


Classé dans:Bibliothèques, musées et autres établissemerents culturels, Des lois et des débats Tagged: auteurs, éditeurs, livres indisponibles, Numérisation, oeuvres orphelines, ReLIRE

Nouveau scandale alimentaire ! On a retrouvé de la propriété intellectuelle dans le chocolat (Copyright Madness spécial Pâques)

dimanche 31 mars 2013 à 11:22

Pour Pâques, je vous propose sur Storify un Copyright Madness, spécialement dédié… au chocolat ! Du petit lapin doré de Lindt aux Sarments du Médoc, en passant par les Kit-Kat, le chocolat Milka et même l’impression 3D, vous verrez que les guerres de la propriété intellectuelle n’épargnent pas l’univers du cacao.

Mais heureusement, le chocolat est aussi un domaine dont la culture libre commence à s’emparer, comme le prouve cette tablette Space Invaders, dont la recette est publiée en Open Source !

Pour consulter ce Copyright Madness spécial chocolat, cliquez sur ce lien. Bonne dégustation !


Classé dans:CopyrightMadness : les délires du copyright Tagged: chocolat, copyright, copyright madness, culture libre, droit des marques, Open Source, pâques

Guide Data Culture : enfin un pas en avant pour l’ouverture des données culturelles

vendredi 29 mars 2013 à 18:02

En matière d’Open Data, les données culturelles accusent un retard conséquent en France, que j’ai eu l’occasion de déplorer à plusieurs reprises sur S.I.Lex, mais la parution récente d’un Guide Data Culture marque enfin un signe encourageant envoyé par le Ministère de la Culture, pour la politique d’ouverture des données.

datalove

Mais que se passe-t-il au Ministère de la Culture ? Son dernier rapport Data Culture relève quasiment de la déclaration de Datalove…

Soumises à un régime particulier « d’exception », la réutilisation des données produites par les institutions culturelles a suscité un certain nombre de blocages et de difficultés ces dernières années, que j’ai résumées dans la présentation ci-dessous, avec un point sur les évolutions en cours au niveau européen. Cette crispation s’est notamment traduite encore le mois dernier par le fait que les données culturelles restent absentes de la nouvelle feuille de route du gouvernement pour la relance de la politique d’Open Data

Mais peut-être les choses sont-elles en train de commencer à évoluer, si l’on en croit ce qu’on lit dans le Guide Data Culture, publié le 22 mars dernier sur le portail Etalab. Ce rapport, signé par Camille Domange, correspondant Open Data du MCC et réalisé au niveau du département des programmes numériques, constitue à mon sens le premier signe clair envoyé par le Ministère de la Culture en faveur d’une politique d’ouverture des données culturelles.

L’exception culturelle compatible avec l’Open Data

Bien que rappelant le cadre de l’exception culturelle inscrit dans la loi du 17 juillet 1978, le guide en propose une lecture souple, compatible avec la démarche Open Data. Les institutions culturelles disposent en effet de la latitude de « fixer les conditions de réutilisation » des données qu’elles produisent et jusqu’à présent, elles ont plutôt eu tendance à utiliser cette faculté dans un sens restrictif. Le rapport Data Culture montre que l’exception culturelle peut tout autant être utilisée en faveur de l’ouverture (p.21) :

En d’autres termes, la faculté offerte aux établissements, organismes ou services culturels dans la détermination de leurs régimes de réutilisations ne doit par être perçue comme un bouclier entravant l’innovation dans le secteur culturel mais au contraire comme le moteur d’une stratégie numérique favorisant une dissémination et une réutilisation maîtrisées des données publique.

Le schéma ci-dessous est encore plus explicite, puisqu’il indique que l’exception figurant à l’article 11 de la loi ouvre « une grande latitude pour opérer une stratégie de diffusion et de réutilisation des données sur le web« , dans le sens de l’ « Open Data Culture » et du « Linked Open Data Culture« .

open

C’est une grande avancée par rapport aux orientations officielles précédentes du Ministère, notamment celles figurant dans le rapport « Partager notre patrimoine » paru en 2010, qui recommandait d’ouvrir les données à la réutilisation tout en maintenant des redevances pour les usages commerciaux, ce qui est incompatible avec les principes de l’Open Data.

Faire de la gratuité le principe

Le rapport Data Culture conseille cette fois de faire de la réutilisation libre et gratuite le principe, en réservant la mise en place des redevances à des cas exceptionnels, ce qui revient en réalité à réintégrer les données culturelles dans le régime de droit commun :

Une analyse fine du marché de la donnée publique dans le secteur culturel met en exergue qu’à l’exception des grand projets de réutilisation menés par de grands établissements publics, le plus souvent des établissements publics à caractère industriel et commercial, le bénéfice financier reste faible ou représente des revenus marginaux. A ce titre, une mise en balance des intérêts de l’Institution doit être réalisée entre les revenus financiers réalisés en matière de réutilisation de ses données et la stratégie numérique de dissémination, de visibilité et d’économie de notoriété qui peut être développée par une ouverture plus grande des données.

Il est donc clairement assumé que les données culturelles ne sont pas la poule aux oeufs d’or que certains voulaient y voir et que l’ouverture peut s’avérer plus intéressante en terme d’intérêt général que les stratégies de monétisation.

Recourir aux licences ouvertes

Tirant les conclusions de cette analyse, le rapport recommande aux institutions culturelles d’utiliser la Licence Ouverte/Open Licence d’Etalab, qui autorise toutes les formes de réutilisation des données, y compris commerciales, à condition de citer la source :

Un contrat de licence de rétilisation consenti à titre gratuit a été élaboré dans le cadre d’un groupe de travail conduit par la mission Etalab. . Ce contrat, qui s’appuie sur les dernières versions des licences libres et gratuites élaborées par les Administrations, a vocation à bénéficier aux réutilisateurs qui disposent ainsi d’un outil juridique adapté à la réutilisation gratuite et au souhait de favoriser l’innovation et le développement de l’économie numérique. Le recours à ce contrat de licence est fortement recommandé en ce qu’il permet de fixer par écrit les conditions de réutilisation des informations publiques.

Le rapport propose bien un modèle de contrat de licence consenti à titre onéreux, mais il prend la peine de l’accompagner de cette indication :

Le contrat Open Licence doit être le contrat type appliqué par le plus grand nombre afin de favoriser un mouvement Open Data dans le secteur culturel. Le contrat de licence consenti à titre onéreux doit être utilisé seulement dans des cas exceptionnels et justifiés par les services producteurs.

Mieux encore, au-delà de la dimension Open Data, le rapport incite également les établissements à se lancer dans des approches d’Open Content, c’est-à-dire de libération des contenus numérisés, notamment en ce qui concerne les oeuvres du domaine public. A cette fin, il incite à  l’emploi de la Public Domain Mark, développée par Creative Commons et déjà recommandée par Europeana. Cette instrument permet une diffusion du domaine public numérisé, dans le respect de son intégrité, sans ajout de nouvelles couches de droits comme on peut souvent le déplorer.

Le rapport envisage également sous un jour favorable les stratégies de dissémination de contenus sur des plateformes extérieures, et notamment les partenariats avec Wikipédia. Au passage, il indique à propos de la licence Creative Commons CC-BY-SA, utilisée par l’encyclopédie collaborative que « Cette mise à disposition ouverte des oeuvres de l’esprit ne pose pas de difficulté théorique majeure au regard du système du droit d’auteur français« , ce qui est loin d’être anodin.

Certes, le rapport Data Culture ne dissimule pas que certains problèmes particuliers peuvent se poser en matière d’ouverture des données culturelles, comme par exemple la nécessité de protéger des données personnelles ou la présence de droits de propriété intellectuelle de tiers. Mais il indique que ces difficultés ne sont pas insurmontables et fournit des pistes de solution, sous la forme par exemple de très utiles clauses à insérer dans les contrats avec les prestataires pour garantir à l’administration qu’elle se fait bien céder tous les droits de propriété intellectuelle.

La limite de l’ouverture volontaire

Il y a donc vraiment lieu de saluer ce rapport, qui donnera aux nombreux porteurs de projets d’ouverture des données dans le champ culturel de nombreux éléments pour convaincre leurs tutelles et les moyens juridiques de les mettre en oeuvre. Il recoupe largement les recommandations du rapport Open Glam, qui avait été adressées l’an dernier au Ministère de la Culture par plusieurs associations.

La seule limite de cet exercice que l’on peut relever est d’avoir travaillé à droit constant, sans proposer de révision du cadre de la réutilisation des données culturelles. Il en résulte que les établissements culturels restent libres ou non de s’engager dans l’ouverture de leurs données, alors que pour les administrations centrales, la circulaire du 26 mai 2011 a mis en place le principe d’une mise à disposition gratuite sur Etalab.

Si l’on voulait aller plus loin, il ne serait nécessaire ni de modifier la loi, ni d’attendre la révision de la directive européenne de 2003, mais simplement de modifier cette circulaire pour les établissements relevant de la tutelle du Ministère de la Culture soient soumis aux mêmes obligations d’ouverture que les autres.

Suite à la parution de la feuille de route du gouvernement, les différents Ministères avaient jusqu’à la fin du mois de mars pour préciser leurs orientations en matière d’ouverture de leurs données. Il sera intéressant de voir si celles du Ministère de la Culture s’inscrivent dans la lignée des recommandations de ce rapport Data Culture.

PS : last but not least, le rapport est publié sous licence CC-BY, ce qui n’est pas si courant pour un document officiel en France !


Classé dans:Données publiques et Open Data Tagged: Creative Commons, Culure, données culturelles, données publiques, Etalab, informations publiques, licence ouverte, open data, Public Domain Mark