PROJET AUTOBLOG


S.I.Lex

Site original : S.I.Lex

⇐ retour index

Nosferatu, victime d’un copyfraud vampirique sur YouTube ?

lundi 25 novembre 2013 à 07:27

Depuis quelques mois, une chaîne s’était ouverte sur Youtube, consacrée exclusivement à la diffusion de films anciens appartenant au domaine public. Intitulée MrDomainePublic, cette chaîne apportait une valeur ajoutée substantielle, car les films étaient accompagnés de sous-titres en français.

On pouvait y voir notamment de grands classiques du cinéma, comme le Voyage dans la Lune de Méliès, M. Le Maudit et Metropolis de Fritz Lang ou encore Nosferatu le vampire de Friedrich Wilhem Murnau, qui va particulièrement nous intéresser dans ce billet.

L’appartenance des oeuvres cinématographiques au domaine public est beaucoup plus difficile à déterminer que pour d’autres types de créations, car plusieurs couches de droits se superposent : les droits d’auteur susceptibles d’appartenir à plusieurs personnes (réalisateur, scénariste, dialoguiste, auteur de l’adaptation, compositeur de la musique), les droits voisins du producteur qui prend l’initiative de fixer l’oeuvre sur un support, les droits voisins des acteurs en tant qu’interprètes. Tout ceci fait que déterminer si un film appartient ou non au domaine public relève d’un véritable casse-tête…

La chaîne MrDomainePublic présentait l’intérêt de donner un accès facilité à ces films du domaine public, mais elle a été rapidement rattrapée par des difficultés juridiques. Depuis deux semaines, YouTube indique en effet que la chaîne a été suspendue, suite à des "notifications multiples émanant de tiers se plaignant d’une violation de leurs droits d’auteur". YouTube mentionne les noms de deux de ces titulaires de droits : MK2 SA et la Friedrich Wilhem Murnau Stiefung.

murnau

S’il est difficile de savoir de quels films exactement MK2 a demandé le retrait, il est plus que probable que la Friedrich Wilhem Murnau Stiefung (Fondation Murnau) est intervenue de son côté pour violation des droits sur Nosferatu le vampire. Ce grand classique du cinéma fait pourtant partie des exemples que l’on cite fréquemment de films appartenant au domaine public et c’est sous ce statut que vous le trouverez notamment sur Internet Archive.

Quel fondement juridique la Fondation Murnau peut-elle bien invoquer pour demander le retrait de ce film, s’il appartient au domaine public ? L’affaire semblait étrange et j’ai essayé de creuser pour essayer de comprendre. Vous allez voir qu’en réalité, il se pourrait bien que l’ombre du droit d’auteur plane toujours sur Nosferatu le vampire, du moins en Europe. Mais même si le film est bel et bien protégé, la plainte de la Fondation Murnau  n’en reste pas moins particulièrement critiquable, quand on connaît l’histoire très particulière du film Nosferatu le vampire, qui a failli être perdu à tout jamais à cause d’un conflit survenu entre Murnau et la veuve de Bram Stoker, l’auteur de Dracula.

Nosferatu toujours sous droits en Europe ?

J’avais du mal à comprendre sur quelle base la Fondation Murnau avait agi, lorsque je me suis aperçu que l’article Nosferatu le vampire sur Wikipédia était illustré avec des images du film dans la version anglaise, mais pas dans la version française. En cliquant sur l’une des images, on se rend compte que les mentions de droits indiquent que Nosferatu est bien libre aux États-Unis, en vertu de la règle spécifique à ce pays selon laquelle toutes les oeuvres publiées avant 1923 sont réputées appartenir au domaine public. Mais Wikipedia (dont encore une fois, il faut souligner la qualité des informations juridiques) prévient que cela peut ne pas être le cas dans d’autres pays.

Le réalisateur F. W. Murnau est décédé en 1931, ce qui fait que les droits le concernant sont bien échus en Europe, du fait de la règle des 70 ans de protection après la mort de l’auteur. Mais en creusant un peu, on se rend compte que le scénariste du film, Henrik Galeen, est mort en 1949. Or en matière d’oeuvre de collaboration, comme c’est le cas d’un film, on doit prendre en compte la date de décès du dernier auteur à être resté en vie pour calculer la durée des droits. Nosferatu est donc bel et bien protégé au moins jusqu’en 2020 en Europe.

La Fondation Murnau n’a pas été créée par les descendants du célèbre réalisateur pour gérer les droits sur son oeuvre. Il s’agit plutôt, comme on peut le lire ici, d’une institution chargée de conserver une partie des archives du cinéma allemand, notamment des années 1920 à 1960. Ses collections proviennent en grande partie de confiscations de collections de films intervenues après la seconde guerre mondiale et dont les droits lui ont été attribués pour qu’elle se finance en les exploitant. Par ailleurs, la Fondation Murnau a aussi une activité de restauration de films et elle a justement procédé en 2005 à la numérisation de Nosferatu le vampire, à partir de plusieurs bobines conservées en Europe.

On comprend donc mieux ce qui s’est produit à propos de la chaîne MrDomainePublic. La personne qui la tenait, manifestement française au vu des sous-titres ajoutés au film, a pensé que Nosferatu était dans le domaine public, alors que ce n’est le cas qu’aux États-Unis. Ce site explique bien les différences de régime entre les USA et l’Europe à propos du domaine public :

Nosferatu est réputé appartenir au domaine public aux États-Unis. Cette oeuvre n’est donc plus soumise au droit d’auteur et peut être copiée et distribuée librement aux États-Unis. Certains sites américains, comme Internet Archive, bénéficient de ces circonstances et proposent des films du domaine public en téléchargement. Mais les utilisateurs allemands devraient à tout prix garder à l’esprit que la législation sur le domaine public peut ne pas être identique dans les pays européens.  Ce qui est légal aux États-Unis peut avoir des conséquences fâcheuses ailleurs. Pour prendre un exemple : il est parfaitement possible qu’un film appartenant au domaine public soit toujours soumis au droit d’auteur dans un autre pays.

La Fondation Murnau a donc pu demander le retrait sur la base des droits toujours valides en Europe. On ne sait pas quelle version le propriétaire de la chaîne a mis en ligne, mais s’il s’agissait de la restauration de 2005, peut-être la Fondation Murnau a-t-elle revendiqué également des droits voisins en plus des droits d’auteur, bien qu’il soit douteux qu’une simple opération de numérisation puisse suffire à faire renaître des droits.

Nous n’avons donc pas ici affaire à un copyfraud, c’est-à-dire à une revendication abusive droits sur une oeuvre qui serait entrée dans le domaine public. Néanmoins, la manière dont la Fondation Murnau a agi n’en reste pas moins hautement critiquable quand on se replonge dans l’histoire de Nosferatu le vampire.

Comment Nosferatu a déjà failli disparaître à cause du droit d’auteur… 

Murnau doit se retourner dans sa tombe… (Photo par Sami. CC-BY-NC-SA. Source : Flickr)

Nosferatu le vampire a une histoire très particulière, tenant au fait que que Murnau et le producteur du film, Albin grau, ont été poursuivis pour plagiat par la veuve de Bram Stoker, l’auteur de Dracula, ce qui a failli conduire à disparition complète du film. J’avais déjà raconté cette histoire dans un billet précédent sur S.I.Lex et ce qui est arrivé à la chaîne MrDomainePublic y fait furieusement penser :

Au début des années 20, le producteur du film, Albin Grau, souhaitait réaliser une adaptation du roman Dracula, mais il ne parvint pas à se faire céder les droits par la veuve de Bram Stoker, particulièrement dure en affaires. Le projet fut néanmoins maintenu, en introduisant des différences notables par rapport au roman, pour tenter d’échapper aux accusations de plagiat. Le lieu de l’action fut déplacé de Londres en Allemagne ; Dracula devint un Comte Orlock à l’apparence monstrueuse pour se démarquer du dandy victorien de Stoker et Murnau introduisit des détails absents du roman, comme le fait que la lumière du jour détruise les vampires. Comme le relève le site Techdirt, un certain nombre des traits que nous associons aujourd’hui naturellement aux vampires découlent en réalité de la nécessité pour Murnau d’éviter une condamnation pour violation du droit d’auteur !

Malgré ces précautions, le film fut attaqué en justice avec succès en Allemagne par la veuve de Stoker en 1925. La condamnation entraina la faillite de Prana Films, la société d’Albin Grau et la destruction de la plupart des copies et négatifs du film, ordonnée par les juges. La veuve de Stoker poursuivit de son côté une traque impitoyable de la moindre copie en circulation. L’histoire aurait pu s’arrêter là si une bobine n’avait pas miraculeusement survécu et été emportée aux Etats-Unis, où à cause d’une erreur d’enregistrement, le roman Dracula était déjà tombé dans le domaine public. La veuve de Stoker ne pouvant empêcher la diffusion dans ce pays, le film Nosferatu y connut le succès, jusqu’à ce que dans les années 60, il put revenir en Europe, lorsque les droit sur Dracula s’éteignirent.

Il est donc particulièrement cocasse de voir aujourd’hui la Fondation Murnau s’en prendre à cette chaîne sur YouTube, qui voulait rendre hommage au film Nosferatu le vampire, alors que celui-ci a failli disparaître à cause d’une querelle relative au droit d’auteur et qu’il n’a pu être sauvé que grâce au domaine public. Est-ce vraiment honorer la mémoire de Murnau que d’utiliser ainsi le droit d’auteur et qu’aurait-il voulu lui-même, sachant les épreuves qu’il a dû traverser ? On se demande aussi pourquoi la fondation a décidé de s’en prendre spécialement à la chaîne MrDomainePublic, alors que les vidéos de Nosferatu pullulent sur Youtube, qu’il s’agisse du film original ou de remix comme celui-ci :

Faire en sorte que le domaine public cinématographique existe réellement

Cette histoire édifiante montre que le domaine public est sans doute encore plus fragile en matière de cinéma que dans les autres champs de la création. Alors que j’écris ces lignes à propos de Nosferatu, le site Romaine lubrique a consacré un billet intéressant au cas du film La vie est belle de Franck Capra, qui semble lui aussi avoir bien du mal à reposer en paix dans le domaine public…

Le calcul des droits sur ce type d’oeuvres faisant intervenir de nombreux acteurs est redoutablement complexe, si bien qu’il est difficile de déterminer avec précision quand un film entre vraiment dans le domaine public. Même lorsque les questions de droits d’auteur ont été démêlées, il faut aussi prendre en compte les droits voisins qui portent sur les enregistrements et il peut s’avérer très compliqué de savoir si des droits sont encore attachés à telle ou telle version.

On se dit qu’un moyen de remédier à ces difficultés serait que des institutions publiques, chargées de conserver le patrimoine audiovisuel (on songe en France au CNC, à l’INA ou à la BnF) pourraient avoir dans leurs missions de certifier l’appartenance au domaine public des films et de proposer des versions réellement dans le domaine public, libres de droits voisins. La proposition de loi relative au domaine public déposée par Isabelle Attard contient l’idée de mettre en place un Registre du domaine public en France, qui pourrait avoir cette fonction.

En attendant le beau projet de curation que constituait la chaîne MrDomainePublic a fait les frais de ces incertitudes juridiques liées à la complexité du statut du domaine public, ainsi que de l’étrange "‘amnésie" de la Fondation Murnau quant à l’histoire de Nosferatu le Vampire


Classé dans:Domaine public, patrimoine commun Tagged: cinéma, copyfraud, Domaine public, droit d'auteur, droits voisins, films, Murnau, nosferatu, Vampire, youtube

Le partage non-marchand ne doit pas faire l’objet d’une compensation et c’est la Hadopi qui le dit !

vendredi 22 novembre 2013 à 07:01

La Hadopi a lancé depuis le mois de juillet des travaux sur la faisabilité d’une rémunération proportionnelle du partage (RPP), à propos desquels j’avais déjà eu l’occasion de m’exprimer. L’approche retenue me paraissait particulièrement dangereuse et biaisée dans la mesure où elle semblait revenir à nier le fait que certains échanges en ligne d’oeuvres protégées s’exerçaient dans une sphère non-marchande, alors que celle-ci  doit être reconnue et constituer le périmètre d’une démarche de légalisation de ces pratiques, comme le préconise notamment La Quadrature du Net.

Hadopi Remixed. Par Luis Volant. CC-BY-SA.

Cette semaine, la Hadopi a annoncé que ces travaux allaient se poursuivre en coopération avec l’INRIA concernant les aspects économiques et avec l’Institut de Recherche en Droit Privé de l’Université de Nantes pour la partie juridique. La Hadopi a publié à cette occasion une note de cadrage qui précise le dispositif qu’elle envisage pour cette rémunération proportionnelle du partage, et qui modifie même assez sensiblement les orientations initiales dévoilées en juillet. J’irai jusqu’à dire que ce document recèle même une surprise de taille, puisque la Hadopi valide une des positions essentielles des groupes qui militent depuis des années pour la reconnaissance du partage et la fin de la répression : le partage des oeuvres en ligne, lorsqu’il s’effectue dans un cadre non-marchand, ne doit faire l’objet d’aucune compensation au profit des titulaires de droits et il doit être légalisé.

Ce n’est pas la première fois à vrai dire que la Hadopi rejoint dans ses travaux les positions des militants de la légalisation. A deux reprises, en 2011 et en 2012, dans des études sur les pratiques des internautes, la Hadopi était arrivée au constat que ceux qui téléchargent illégalement sont également ceux qui dépensent le plus pour des biens ou des activités culturelles. Un tel résultat est capital, car il démontre que l’idée selon laquelle le partage cause un préjudice aux industries culturelles et  à l’ensemble de l’écosystème de la création est tout simplement fausse, alors qu’elle constitue le fondement de la politique aveugle et absurde de répression mise en oeuvre depuis des années. Une étude de la London School of Economics vient d’ailleurs récemment de le confirmer à nouveau en ce qui concerne la musique : non seulement le partage ne détruit pas les industries créatives, mais au contraire, il peut encourager la consommation de biens culturels.

La fameuse étude de la Hadopi qui confirme que les "pirates" sont aussi les plus gros consommateurs de culture… A la rigueur, ce sont ceux qui ne téléchargent pas qu’il faudrait punir ! ;-)

Pour autant, ce que propose la Hadopi n’est pas exempt de défauts, loin s’en faut ! Notamment, sa rémunération proportionnelle du partage revient en effet à un système de légalisation des échanges marchands, sans autorisation des ayants droit, reposant sur une taxation des intermédiaires intéressés financièrement dans les pratiques d’échanges et d’accès aux oeuvres. Cela veut donc dire que la Hadopi propose un système dans lequel un MegaUpload deviendrait légal, à condition qu’il s’acquitte d’une redevance versée aux titulaires de droits… Les propositions de la Quadrature visent au contraire à légaliser le partage uniquement dans le cercle délimité des échanges non-marchands entre individus, afin de favoriser le retour à des pratiques décentralisées.

Néanmoins, même si ces propositions restent difficilement acceptables en l’état, il faudra se souvenir que la Hadopi elle-même, tout comme SavoirsCom1, la Quadrature du net ou même le Parti Pirate, a admis que le partage non-marchand ne devait faire l’objet d’aucune compensation et être légalisé ! C’est un beau testament qu’elle nous laisse pour les débats futurs, avant sa disparition…

Hadopi au pays du partage 

Dans sa note de cadrage, la Hadopi commence par admettre que "le partage est consubstantiel à Internet" et elle le définit dans les termes suivants :

le mot « partage » s’entend comme l’ensemble des usages couvrant toutes les formes de mise à disposition et d’accès à une oeuvre ou un objet auquel est attaché un droit d’auteur ou un droit voisin, sans l’autorisation des titulaires desdits droits, sur un réseau de communications électroniques et qui sont réalisés à des fins non lucratives par toute personne physique connectée à ce réseau.

Une telle définition me convient tout à fait. Par contre, elle poursuit avec des propositions qui, à la première lecture, m’ont parues complètement inacceptables :

Un postulat est alors de considérer que l’exploitation des oeuvres sur les réseaux est irrémédiablement affectée par le développement des usages de partage et qu’une solution doit dès lors être recherchée pour que le droit d’auteur et la rémunération des créateurs tiennent compte de cette situation, de fait, persistante et exponentielle, dans l’intérêt commun de la création et du public.

Le principe général du dispositif est de créer une rémunération compensatoire à ces usages en contrepartie de laquelle ils deviendraient licites, réinscrivant de ce fait les titulaires des droits dans la chaîne de valeur alimentée par leurs oeuvres, tout en permettant et le développement d’offres commerciales à forte valeur ajoutée et les innovations.

Certes pour la première fois, la Hadopi parle explicitement de légaliser le partage (ce qui n’était pas clair dans la précédente étape de son étude), mais elle retombe également dans les vieilles lunes des lobbies des industries culturelles. Elle avoue en effet elle-même partir d’un postulat : celui selon lequel le partage constitue un préjudice pour les industries créatives, qui appelle une compensation, alors même que cela est démentie par les études économiques que j’ai rappelées plus haut (dont certaines émanent de la Hadopi elles-mêmes…).

Je m’apprêtais donc à tirer à boulets rouges sur cette note de cadrage, mais la suite détonne avec ce postulat de départ, notamment en ce qui concerne la sphère non-marchande du partage. 

Le partage non-marchand ne doit pas être compensé

Plus loin, la Hadopi expose en effet les principes de fonctionnement de la rémunération proportionnelle du partage qu’elle envisage. Cette rémunération serait due par les intermédiaires réalisant des gains à l’occasion des échanges (On pense à des sites de Direct Download ou de streaming payants ; des sites comme T411 monétisant le ratio imposé entre individus ; pourquoi pas aussi YouTube et ses recettes publicitaires, etc).

Mais ensuite, la Hadopi précise que ce dispositif reposerait sur un "seuil" au-dessous duquel la rémunération ne serait pas due :

Dans le cas minoritaire des usages n’entrainant aucun gain, la rémunération due est égale à 0.

Il existe par ailleurs un seuil en deçà duquel, la rémunération est supposée égale à 0. Cela recouvre les cas usages n’entrainant que de très faibles gains et les intermédiaires dont l’implication dans la chaîne de consommation est marginale (coefficient très faible).

Pour autant, le bénéfice de la contrepartie (licéité de l’usage) reste acquis pour les utilisateurs et les outils auxquels ils recourent.

Il est donc bien admis que les échanges entre individus s’effectuant dans un cadre strictement non-marchand seraient légalisés, sans aucune rémunération à verser C’est donc bien que le partage non-marchand n’a pas être compensé. Et la Hadopi va même plus loin puisqu’elle admet que de faibles gains puissent être réalisés (certaines plateformes en ont besoin, ne serait-ce que pour couvrir les coûts liés à l’entretien des serveurs ou des listes, si l’on songe par exemple à un annuaire de liens).

A la lecture de la précédente note de la Hadopi, on avait l’impression qu’elle entendait démonter l’idée qu’une sphère non-marchande de partage puisse exister et c’est ce qui m’avait fait réagir. Mais sa nouvelle note reconnaît bien la possibilité d’existence d’une telle sphère autonome, même si elle prend le soin d’ajouter qu’elle est "minoritaire". Il faut néanmoins saluer cette évolution et encore une fois relever la convergence avec le point de vue de ceux qui militent en faveur de la légalisation depuis longtemps.

Faut-il pour autant légaliser le partage marchand ? 

Néanmoins, on sent bien à la lecture de la note que le partage non-marchand n’est pas ce qui intéresse vraiment la Hadopi. Son système repose en effet sur la taxation des intermédiaires réalisant des gains financiers en fournissant des moyens de partage et d’accès aux oeuvres protégées. Le but réel de la Haute autorité est de rediriger des flux financiers vers les industries culturelles. Au lieu de prôner une mesure comme la licence globale, où la redevance était acquittée par les internautes via un surcoût à l’abonnement Internet, la Hadopi préfère chercher à mettre à contribution des plateformes. Il est vrai que l’idée est furieusement à la mode en ce moment, que ce soit du côté de la Rue de Valois ou du CSA qui devrait logiquement succéder à la Hadopi…

On peut sérieusement se poser la question de savoir si cette idée de légaliser le partage marchand sans autorisation des ayants droit (en plus du partage non-marchand) est légitime et quels effets elle aurait sur l’écosystème global. Certes, elle entérine un déplacement graduel qui s’est opéré dans les usages, puisqu’une partie des internautes qui utilisaient des systèmes de P2P pour échanger des fichiers se sont repliés au fil du temps vers des formules de streaming ou de DirectDownLoad, souvent payantes sous forme d’abonnement et/ou monétisées via de la publicité.

Mais ce basculement a été provoqué en partie à cause de la répression qui a frappé le téléchargement en P2P et dont la Hadopi est elle-même l’instrument. Elle a donc beau jeu de déclarer "partir des usages constatés", alors qu’elle a elle-même eu une responsabilité dans la modification de ces usages !

Depuis longtemps, ce que soutiennent les tenants de la légalisation du partage, c’est que la légalisation des échanges dans un périmètre non-marchand aura l’effet inverse : ne craignant plus la répression, les internautes se détourneront des formules centralisées et payantes de partage pour revenir à des formes d’échanges décentralisées, et notamment le Pair-à-Pair. D’une certaine manière, si le système de RPP de la Hadopi venait à être mis en place, elle risquerait de tuer mécaniquement sa "poule aux oeufs d’or". Les fameux intermédiaires techniques qu’elle vise avec sa RPP verraient sans doute leur fréquentation baisser, au profit des pratiques qu’elle s’échine à qualifier de "minoritaires".

Mais le vrai risque de l’approche de la Hadopi est ailleurs et il vient de la réaction prévisible des industries culturelles. Si un tel système de rémunération lié au partage marchand était mis en place, elles auraient alors objectivement intérêt à ce que les formules centralisées d’échanges soient privilégiées par les individus. Leur aversion pour la gratuité est telle qu’elles lutteraient sans doute farouchement pour que la définition de la sphère non-marchande soit la plus réduite possible. Dans le cadre du droit français, elles ont à leur disposition un arsenal juridique redoutable pour arriver à de telles fins, auquel elles ont déjà recouru avec succès pour laminer la copie privée.

C’est la raison pour laquelle je persiste à penser qu’il est hautement préférable de ne légaliser les échanges que dans la sphère non-marchande. La loi n’a pas à voler au secours de plateformes commerciales, comme MegaUpload a pu l’être en son temps ou YouTube aujourd’hui. A eux de trouver des accords contractuels avec les titulaires de droits par leurs propres moyens. Car l’objectif, autant que la légalisation et la fin de la répression, est de faire à nouveau basculer les pratiques vers des formes décentralisées. L’actualité est là en ce moment pour nous rappeler à quel point c’est important pour l’avenir d’internet et celui de nos libertés…

Désaccords et différences avec le modèle de la contribution créative

La rémunération proportionnelle de la Hadopi partage un trait essentiel avec le modèle de la licence globale, qui avait été proposé pour légaliser le partage : celui de constituer la compensation d’un préjudice subi. La Hadopi suggère également des fondements juridiques pour mettre en oeuvre sa RPP qui sont les mêmes que ceux de la licence globale :

Les options envisagées dans la recherche d’un tel dispositif pourront couvrir notamment les exceptions au droit d’auteur, existantes, élargies ou à venir, ainsi que la gestion collective des droits.

La Quadrature du net, de son côté, propose à partir des travaux de Philippe Aigrain, un modèle différent de financement de la création sous la forme d’une contribution créative, dont chaque foyer devrait s’acquitter sous la forme d’un surcoût à l’abonnement Internet. Son fondement ne serait pas une exception ou un mécanisme obligatoire de gestion collective, mais l’épuisement du droit d’auteur. Sa justification n’est pas de compenser un préjudice subi du fait du partage, mais de récompenser les créateurs pour la production d’oeuvres venant enrichir les Communs culturels partageables. Elle est strictement limitée à la sphère non-marchande et n’étant pas assise sur une exception au droit d’auteur, elle n’a pas à être répartie selon les mécanismes traditionnels de la gestion collective. On peut envisager de mettre sur pied de nouvelles institutions chargées de la répartir entre les créateurs, plus transparentes que les actuelles sociétés de gestion et fonctionnant sur la base de principes évitant la concentration de la rémunération sur un petit nombre de titulaires au détriment de la masse des créateurs.

Par ailleurs, et c’est un point majeur, dont j’ai parlé à de nombreuses reprises, la contribution créative pourrait bénéficier à tous les créateurs d’oeuvres de l’esprit, pas seulement les professionnels des industries culturelles, mais aussi les amateurs. C’est un point dont la Hadopi ne parle à aucun moment dans ses propositions, alors qu’il est central dans notre vision. La contribution créative n’est pas la compensation d’un préjudice, c’est une façon pour la société d’investir dans le terreau des pratiques amateurs (j’emprunte cette belle formule à Silvère Mercier), pour développer les capacités créatives des individus et leur permettre d’y consacrer le temps libre nécessaire.

***

Ces différences restent essentielles et elles font que je ne peux soutenir la formule de rémunération proportionnelle du partage proposée par la Hadopi. Je lui reconnaîtrais néanmoins le mérite d’avoir su faire évoluer son modèle de manière à admettre l’existence, même limitée, d’une sphère non-marchande autonome du partage. C’est un aspect important de conciliation de nos points de vue. Par ailleurs, admettre que ces échanges non-marchands n’ont pas à faire l’objet d’une compensation est une avancée décisive, à laquelle nous ne manquerons pas de nous référer dans les débats à venir.


Classé dans:Penser le droit d'auteur autrement ... Tagged: échanges non-marchands, direct download, Hadopi, la Quadrature du Net, légalisation, partage, piratage, streaming, téléchargement

Utiliser les licences libres pour un projet éditorial : quels contenus ? quels usages ? quelle diffusion ?

mercredi 20 novembre 2013 à 09:35

J’ai eu la chance de pouvoir donner récemment une formation au Labo de l’édition consacrée à l’utilisation des licences libres ou de libre diffusion dans le cadre d’un projet éditorial, devant un public composé d’auteurs, d’éditeurs et de porteurs de projets de plateformes numériques ou d’applications.

In libris libertas. Par Drewpiter. CC-BY. Source : Flickr.

La discussion avec ces professionnelles fut riche et je poste ci-dessous le support que j’ai utilisé pour cette intervention (sous licence CC-BY et donc entièrement réutilisable, modifiable et adaptable).

Je me suis efforcé d’expliquer de manière aussi simple que possible le fonctionnement des licences (notamment les Creative Commons) et de montrer quelles pouvaient être leurs applications pratiques dans le cadre d’un projet d’édition de livres (papier et numérique).  Comment intégrer des contenus libres dans un ouvrage et où les trouver ? Quels types d’usages innovants les Creative Commons peuvent-ils favoriser pour les livres numériques  (collaboratifs, transformatifs, pédagogiques, etc) ? Comment adapter les contrats d’édition lorsque l’auteur et l’éditeur conviennent de diffuser le livre sous licence libre ou de libre diffusion ?

Je tenais également à montrer que l’usage des licences libres ou de libre diffusion n’empêche pas de mettre en place des modèles économiques, contrairement à une idée trop souvent répandue. Les licences Creative Commons en particulier, par leur modularité et la gradation qu’elles permettent dans l’ouverture, offre des possibilités variées d’articuler une sphère de gratuité à des usages payants. On voit néanmoins émerger des pistes intéressantes autour du freemium, du crowdfunding, du transmédia, des modèles de  double diffusion (papier/payant, eBook/gratuit), etc. Par ailleurs, la question des circuits de diffusion se pose également, pour des oeuvres qui peuvent avoir du mal à trouver leur chemin vers les lecteurs, faute de pouvoir emprunter les canaux classiques de distribution (plateformes type iBooks, Kindle Store ou Google Play, librairies, bibliothèques, etc). Quelles stratégies employer pour rendre visibles des livres sous Creative Commons, toucher un public et éventuellement, faire tourner un modèle économique ?

Je suis souvent intervenu devant des publics de bibliothécaires pour donner des formations sur les licences Creative Commons, mais je tiens à remercier tout particulièrement le Labo de l’édition de m’avoir permis de donner des formations abordant cette question devant des auteurs et des éditeurs, qui sont directement à même de se saisir de ces outils pour produire des oeuvres libres. Les temps sont peut-être en train de changer puisque même le SNE a organisé une session sur les Creative Commons lors des dernières assises du livre numérique…

Ce travail a été alimenté par une veille que je conduis depuis plusieurs années à présent sur cette carte mentale consacrée à l’édition sous licence libre ou de libre diffusion. Si vous connaissez des exemples intéressants qui n’y figureraient pas, n’hésitez pas à les partager en commentaire de ce billet.


Classé dans:Alternatives : Copyleft et Culture Libre, Edition numérique, aspects juridiques Tagged: édition, Creative Commons, ebook, licences libres, livres numériques, modèles économiques

Verdict dans l’affaire Google Books : une grande leçon de démocratie ?

vendredi 15 novembre 2013 à 17:34

La nouvelle est tombée hier et elle fera date : après plus de 8 années de procédure d’une incroyable complexité, Google a finalement remporté le procès qui l’opposait à la Guilde des auteurs à propos de son programme géant de numérisation Google Books. Le juge Denny Chin, en charge de l’affaire, lui a donné raison sur la base du fair use (usage équitable), une disposition du droit américain qui permet dans certaines situations de se défendre de l’accusation de contrefaçon en cas d’usage d’oeuvres protégées.

The Google Book. Par Jim Barter. CC-BY. Source : Flickr

La défaite est cinglante pour la Guilde des Auteurs, qui restait seule en lutte contre Google après que les éditeurs américains aient décidé de conclure un accord en 2012 avec le moteur de recherche. Denny Chin a en effet rendu un summary judgment, ce qui signifie qu’il a estimé que la balance penchait tellement en faveur de Google qu’il pouvait recourir à une procédure simplifiée. La fermeté du jugement va rendre hasardeux pour la Guilde des Auteurs le fait de se pourvoir en appel, même si ses responsables ont déjà annoncé qu’ils avaient l’intention de le faire.

De quoi était-il exactement question dans ce jugement ? En mars 2011, le juge Chin avait refusé de valider un Règlement par lequel Google, la Guilde des Auteurs et l’Association des éditeurs américains avaient essayé de mettre fin à leur différend sur une base contractuelle. Ils avaient voulu mettre en place un système complexe qui aurait permis à Google, en contrepartie de 125 millions de dollars,  de commercialiser les livres épuisés numérisés par ses soins, sur la base d’un opt-out (option de retrait laissée aux titulaires de droits pour sortir du système). Chin avait refusé d’entériner cette solution, en estimant qu’elle risquait de conférer à Google un monopole de fait sur la numérisation à but commercial, en particulier pour les oeuvres orphelines faisant partie du corpus.

Google a donc été obligé de revenir à l’intention initiale du projet Google Books, à savoir scanner des ouvrages, y compris sous droits, mais uniquement pour en diffuser de courts extraits (snippets) répondant aux requêtes des utilisateurs. Pour aller plus loin (montrer des portions plus larges, vendre des ouvrages), Google doit passer par des accords volontaires, avec les éditeurs et les auteurs (opt-in).

C’est ce mode de fonctionnement qui était encore considéré comme une violation du copyright par la Guilde des Auteurs, mais sans réussir à convaincre le juge Chin qui a accepté au contraire de considérer que cet usage était légitime et relevait du fair use.  A la lecture, cette décision frappe surtout par sa cohérence et sa très grande qualité d’appréciation, le juge ayant pris la peine de considérer la question dans toutes ses dimensions, et notamment le bénéfice social global qu’un site comme Google Books est en mesure d’apporter en terme de diffusion du savoir et d’accès à la connaissance.

Le contraste est saisissant avec la manière dont les choses se sont passées en France, lorsque la justice a été amenée en 2009 à apprécier la légalité de Google Books, suite à une plainte des titulaires de droits. J’avais consacré une analyse détaillée à cette décision à l’époque, pour montrer les limites du mode de raisonnement du juge français, qui ressortent aujourd’hui de manière encore plus frappante au vu de la décision de son homologue américain.

Au final, si l’on prend un peu de recul, on se rend compte que cette décision, justement parce qu’elle a été rendue sur la base du fair use, va être susceptible de bénéficier à d’autres entreprises, mais surtout aux structures publiques ou à but non-lucratif qui œuvrent également pour la diffusion de la connaissance aux États-Unis : Internet Archive, Hathi Trust, la Digital Public Library of America portée par Robert Darnton, ainsi que l’ensemble des bibliothèques américaines. La France et l’Europe font de leur côté réellement pâles figures, avec notamment un dispositif comme celui de la loi sur les livres indisponibles ou la base ReLIRE de la BnF, qui n’ont réussi qu’à faire bien pire que Google, ou un projet comme Europeana, qui n’a jamais réussi à prendre réellement son envol, en grande partie à cause des restrictions trop fortes imposées par le droit d’auteur en Europe.

Au final, cette décision montre les bénéfices globaux d’une conception beaucoup plus équilibrée que la nôtre du droit d’auteur, mais elle constitue également une grande leçon de démocratie, qui devrait nous inciter à revoir en profondeur la manière dont ces questions sont abordées en France.

Fair Use versus Exceptions au droit d’auteur

La principale différence d’approche entre les États-Unis et la France sur ces questions, c’est la possibilité pour les juges américains de se placer dans le cadre du fair use, plutôt que seulement dans celui des exceptions au droit d’auteur. Devant le Tribunal de Grande Instance de Paris en 2009, Google est principalement tombé parce que les courts extraits (snippets) qu’il affiche en regard des résultats de recherche n’ont pas été considérés comme des "courtes citations" valables. Or dans la logique du droit français, les exceptions ne correspondent pas à des droits véritables des utilisateurs et elles sont systématiquement interprétées de matière restrictive par les juges.

Le fair use de son côté est très différent. Il fonctionne de manière souple sur la base de quatre critères que le juge examine, en dosant à chaque fois à partir du cas d’espèce qu’il doit apprécier (voir ci-dessous).FairUsePosterLà où le juge français était enfermé pour raisonner dans le cadre de l’exception, Denny Chin a pu prendre en compte des paramètres beaucoup plus larges. Il a ainsi pu considérer que l’usage que Google faisait des textes protégés était "hautement transformatif", c’est-à-dire qu’il différait substantiellement de celui pour lesquels les livres avaient été conçus à l’origine :

Google Books est transformatif dans le sens où il a transformé le texte des livres en données à des fins de recherche, y compris pour de la fouille de données ou de texte (data mining et text mining), ouvrant ainsi de nouveaux champs à la recherche. Les mots dans les livres ont ainsi pu être utilisés d’une manière complètement différente par rapport à ce qui existait avant. Google a créé quelque chose de nouveau dans la manière d’utiliser le texte des livres, la fréquence des mots et les tendances dans leur utilisation fournissant des informations substantielles.

La manière d’apprécier l’usage des couverture de livres ou des extraits est aussi beaucoup plus fine en droit américain. Là où le juge français apprécie un outil comme Google sur la base du concept dépassé de "courte citation", le juge Chin peut se demander si cet usage innove et concurrence les livres eux-mêmes. Et il aboutit au résultat que non : les vignettes des couvertures de livres ou encore les mots dans les extraits sont vus comme des marqueurs délivrant une information utile pour l’utilisateur, pas comme une façon de "parasiter" les oeuvres initiales :

Google utilise ainsi les mots dans un but différents : les extraits de textes sont utilisés comme des pointeurs conduisant les utilisateurs vers une large sélection de livres.

Au-delà de ces aspects qui permettent au juge américain de prendre en compte l’innovation, le fair use offre également un cadre d’analyse économique qui fait complètement défaut en France. Le juge français est obligé de condamner s’il constate une contrefaçon, sans pouvoir prendre en compte le fait que l’acte a été commis à des fins commerciales ou non. Le juge Chin a pu de son côté se demander dans quelle mesure l’usage fait par Google avait un impact sur le marché potentiel des livres.

Et cette partie de sa réponse constitue sans doute le passage le plus croustillant de toute la décision. Car il conclut que non seulement Google Books n’occasionne pas de pertes économiques pour les titulaires de droits, mais qu’il aide même à augmenter les ventes !

Google Books fait gagner les oeuvres des auteurs en visibilité, bien plus que les moyens de diffusion traditionnels. Par ailleurs, à la fois les bibliothèques et leurs usagers utilisent Google pour identifier des livres à acheter. Beaucoup d’auteurs ont remarqué que la présence en ligne en général, et en particulier sur Google Books, aidait les lecteurs à trouver leurs oeuvres, accroissant ainsi leur audience. De plus, Google fournit des liens efficaces vers des libraires pour faciliter l’achat par le lecteur. A notre époque de commerce électronique, il ne fait aucun doute que Google Books améliorent les ventes de livres.

Une chose importante est également à noter : le juge Chin ne parle à aucun moment de l’opt-out (option de retrait) dans sa décision, que Google laissait aux titulaires de droits. Le fair use permet pleinement selon lui de scanner et de rendre cherchables les livres, sans avoir à permettre aux titulaires de droits de se manifester a postériori pour l’empêcher. Cet usage est couvert par le fair use : il correspond donc pleinement à un droit.

Une prise en compte des bénéfices publics de Google Books

Plus loin dans la décision, le juge Chin a pu élargir encore son approche pour évaluer si Google Books était le vecteur de bénéfices pour la société toute entière. S’il peut le faire, c’est parce que le système du Copyright américain est conçu d’une manière complètement différente du droit d’auteur à la française. Chin rappelle au début de son raisonnement que le véritable but du Copyright est de "promouvoir le progrès des Sciences et des Arts utiles", comme l’indique la Constitution américaine. Et il cite un certain nombre de précédents qui montrent que pour atteindre ce but, la protection accordée par la loi aux créateurs et la faculté pour le public de faire usage des oeuvres sont toutes les deux utiles. Le progrès est le but ultime du système américain et la protection des auteurs n’est qu’un élément parmi d’autres d’une équation bien plus large.

Sur cette base, Chin peut alors se mettre en quête des bénéfices publics que Google Books rend possibles et la liste qu’il en dresse est impressionnante (cf. ce billet de Kenneth Crew. Je traduis les phrases de Chin) :

Tous ces éléments d’appréciation, qui sont pourtant fondamentaux à prendre en compte dans la question, un juge français ne peut à aucun moment les faire rentrer dans son raisonnement. C’est pourtant sur cette base que le juge Chin conclut :

De mon point de vue, Google Books offre des bénéfices publics significatifs. Il favorise le progrès des arts et des sciences, tout en s’inscrivant dans le respect des droits des auteurs et d’autres acteurs impliqués dans la création.

Pour arriver à cette conclusion, Chin a pu bénéficier des interventions au cours de la procédure de groupe comme ceux des bibliothécaires américains, de chercheurs en Digital Humanities ou de défenseurs des libertés numériques comme l’EFF, qui ont pu lui apporter des arguments. Et c’est là que je dis que le processus de décision américain est infiniment plus démocratique que le nôtre, car le procès français au TGI n’était qu’un affrontement entre les titulaires de droits et Google, sans aucune prise en compte du point de vue de la société civile.

Une juste appréhension technique du fonctionnement du site

Par ailleurs, une chose qui m’a frappé à la lecture du jugement de Chin, c’est la manière dont il rend compte d’une manière précise et détaillée du fonctionnement de Google Books, notamment quant aux possibilités de recherche et à la façon dont les extraits sont affichés.

Là encore, le contraste avec la justice française est saisissant. J’avais en effet montré dans mon analyse de la décision par laquelle le TGI de Paris a condamné Google Books à quel point son appréhension du site était erronée.

En effet, il faut savoir que le juge français a refusé à Google le bénéfice de l’exception de courte citation, parce qu’il a considéré que l’affichage des extraits sous forme d’entrefilets (snippets) était… aléatoire ! Et donc que de ce fait, Google ne remplissait pas vraiment un but d’information, qui est une des finalité que doit viser la courte citation pour être valable en droit français. Or rien n’est plus faux que de dire que Google marche au hasard : l’affichage des extraits obéit à un algorithme puissant qui renvoie des résultats pertinents en fonction des requêtes. La fonction d’information remplie par Google est indéniable.

Exemple d’entrefilets générés par Google Books en fonction d’une recherche.

Chin a fondé sa décision sur une appréciation technologiquement exacte de Google Books, là où les juges français n’ont tout simplement rien compris à la manière dont le site fonctionnait… Et cette supériorité de la justice américaine ne tient pas du miracle, mais du fait que le processus de décision est plus ouvert et que Chin a pu bénéficier des retours d’expérience de spécialistes de l’information et de chercheurs.

Une décision saine pour l’écosystème global

La logique de la décision américaine me paraît donc infiniment supérieure à celle du juge français. Mais qu’en est-il à présent de son impact global sur l’écosystème de l’édition et d’Internet ? L’affaire Google Books a soulevé la crainte – légitime – que Google utilise la numérisation des livres pour atteindre une position dominante dans ce secteur et renforcer encore la place de son moteur de recherche sur Internet.

Cette question est pour moi le vrai nœud de cette affaire et c’est toujours ce qui m’a guidé dans les positions que j’ai pu prendre. Or de ce point de vue, la décision rendue par Chin sur la base du fair use est infiniment plus "saine" que les versions successives du Règlement que Google a essayé de proposer avec les auteurs et les éditeurs américains.

En effet, le Règlement Google Books aurait eu pour conséquence de donner la possibilité à Google de commercialiser – à titre exclusif – des masses considérables d’oeuvres orphelines contenus dans sa base de données. Car en l’absence de loi spécifique pour surmonter cette difficulté, c’est un contrat qui aurait donné ce pouvoir à Google, et à lui seul. Cette manœuvre avait été dénoncée par plusieurs analystes américains, comme James Grimmelmann et c’est sur cette base essentiellement que le juge Chin a refusé de valider le Règlement.

La décision d’hier est complètement différente. Elle est rendue en effet sur la base du fair use, qui constitue une disposition générale figurant dans la loi américaine. Cela signifie que le jugement de Chin ne va pas profiter seulement à Google, mais aussi potentiellement à d’autres acteurs commerciaux qui voudraient se lancer dans des entreprises similaires. Par ailleurs, le périmètre de cette décision est plus délimité, car elle s’applique à des usages non-commerciaux, qui rendent des services pour la recherche et l’accès à l’information, pas pour la vente des livres scannés.

On me répondra que de toutes façons, Google a  pris une telle avance dans la numérisation qu’aucun concurrent ne pourra investir les sommes colossales nécessaires pour reproduire ce qu’il a réalisé avec Google Books. C’est sans doute vrai, mais l’alternative aux États-Unis ne viendra pas d’acteurs commerciaux, mais plutôt d’un consortium d’acteurs publics et de fondations à but non-lucratif que la décision de Chin va considérablement renforcer.

En effet, des doubles des copies de livres réalisées par Google ont été remises aux bibliothèques partenaires, qui ont pu les rassembler dans un entrepôt central : Hathi Trust. Par ailleurs, un vaste réseau de bibliothèques numériques est en train de voir le jour aux Etats-Unis dans le cadre de la Digital Public Library of America (DPLA), impulsée par Robert Darnton qui a conçu explicitement ce projet comme une réponse non-commerciale aux agissements de Google.

Or si le juge Chin a accordé le bénéfice du fair use à Google, alors a fortiori, il pourra bénéficier à des acteurs non-commerciaux comme les bibliothèques ou la DPLA. C’est déjà ce qui a été tranché en justice l’an dernier lorsque l’Author’s Guild a voulu s’en prendre à Hathi Trust. Mais grâce à Chin, les bibliothèques américaines ou des acteurs comme l’Internet Archive vont pouvoir désormais aller plus loin, notamment en scannant des ouvrages en entier, en les rendant cherchables et en affichant des extraits en fonction des requêtes. La DPLA attendait justement la décision dans l’affaire Google Books pour donner de l’ampleur à son action et il va être très intéressant de voir ce qui va se passer à présent.

Grâce au fair use, la décision de Chin peut avoir un effet bénéfique sur l’écosystème global parce qu’elle favorise grandement la possibilité d’organiser une réponse alternative à Google Books, sur une base non-commerciale.

Pendant ce temps, en France…

La France a consacré beaucoup d’efforts à essayer de "contrer" les agissements de Google ces dernières années en matière de numérisation. Cette volonté a abouti au vote de la loi sur les livres indisponibles du XXème siècle et sur le dispositif de la base ReLIRE gérée par la BnF. Or si on fait la comparaison avec la situation aux États-Unis, on constate que la France a fait en réalité bien pire que Google, en se coupant toute possibilité de mettre en place une réponse alternative fondée sur des bénéfices publics en terme d’innovation ou d’accès à la connaissance.

En effet, la loi sur les indisponibles ne vise aucunement à faciliter l’accès à l’information et à développer des usages innovants de recherche. Son but unique est la recommercialisation en bloc de livres épuisés, sans que des formes d’usage ou d’accès public ne soient prévus. Pour atteindre ce but mercantile, la loi a mis en place ce qu’il y avait de pire dans le projet Google Books, à savoir un opt-out, dans des conditions qui favorisent éhontément les éditeurs par rapport aux auteurs. A tel point que certains d’entre eux sont à présent en train d’essayer de faire annuler la loi devant le Conseil constitutionnel pour violation des Droits de l’Homme ! Chin peut dire que "Google Books favorise le progrès des arts et des sciences, tout en respectant les droits des auteurs". Nous ne pouvons en France que boire notre honte…

Pire encore, j’ai eu l’occasion de montrer qu’un des buts poursuivis par la loi sur les indisponibles est purement et simplement d’empêcher la mise en oeuvre d’une directive européenne sur les oeuvres orphelines qui aurait pu faciliter leur numérisation et leur mise en ligne par les institutions culturelles. La France s’est donc privée par cette loi d’un moyen essentiel d’organiser une réponse crédible à Google Books sur une base non-commerciale.

Si la France avait réellement voulu instaurer une réponse à Google Books, elle aurait dû commencer par réviser son droit d’auteur pour faciliter les usages publics non-commerciaux en faveur de l’accès à la connaissance. L’Europe aurait pu le faire également, mais là aussi, l’occasion a été lamentablement ratée par la Commission, alors qu’Europeana aurait pu jouer un rôle de locomotive.

***

Ajoutons à cela que la loi sur les indisponibles a été votée dans des conditions qui ne sont pas à l’honneur à la démocratie française, dans une opacité totale et avec des pressions hallucinantes des lobbies. Et vous comprendrez que tout cela mis bout-à-bout me fait dire que nous venons de prendre une grande leçon de démocratie de la part des États-Unis.

La manière dont le gouvernement continue à comporter sur les questions liées à la politique du livre, en faisant fi de l’intérêt général, montre hélas que le cap ne changera que si nous faisons en sorte de ne plus nous laisser confisquer les destinées culturelles de ce pays…


Classé dans:L'affaire Google Book Search Tagged: author's guild, denny chin, exception, fair use, Google, google books, livres, Numérisation, oeuvres indisponibles, oeuvres orpheline, procès, ReLIRE, s oeuvres épuisées

Après l’automne, le printemps ? Changement de stratégie au Ministère de la Culture en faveur de l’ouverture

samedi 9 novembre 2013 à 11:58

Il s’est produit cette semaine une série d’évènements et d’annonces faites par le Ministère de la Culture dans la cadre de "l’Automne numérique", qui traduisent un changement d’orientations significatif en faveur de l’ouverture. J’ai critiqué la politique culturelle qui a été conduite dans ce pays pendant des années sous l’ancien gouvernement et celui-ci n’avait pas jusqu’à présent réellement modifié le cap. Mais depuis plusieurs mois, on avait commencé à relever des signes encourageants en faveur de l’ouverture, notamment avec la parution en mars dernier du Guide Dataculture sur la réutilisation des données culturelles, et la publication d’une feuille de route Open Data en juillet

L’automne est donc la saison de l’ouverture, après un interminable hiver de la politique culturelle dans ce pays… (Red Leaves. Par Chang’r. CC-BY-ND. Source : Flickr)

L’Automne numérique a donné lieu à un atelier de mashup à partir d’oeuvres du domaine public, un Hackathon précédé par la libration d’une centaine de jeux de données par le Ministère et ses établissements, ainsi qu’une journée sur la transmission de la Culture à l’heure du numérique. Et c’est à l’issue de ce cycle d’évènements qu’Aurélie Filippetti a annoncé une série de mesures, visant à développer les usages du numérique, en lien avec le projet d’éducation artistique et culturelle porté par le Ministère.

Renouvellement significatif du discours

Jeudi dernier, à l’occasion d’une conférence de presse, Aurélie Filippetti a prononcé un discours dont le ton tranche avec tout ce qu’on a pu entendre jusqu’à présent dans la bouche d’un Ministre de la Culture en France. Morceaux choisis :

[...] je souhaite que mon ministère et ses opérateurs s’engagent dans une stratégie numérique d’ouverture de contenus créatifs. Je veux d’abord, dans ce processus d’ouverture, mettre l’accent sur l’éducation artistique et culturelle, dont vous savez qu’elle est une ambition forte de mon projet politique, et qui ne saurait se déployer sans cette dimension numérique.

[...] mon ministère accompagnera les établissements publics, dans le cadre d’un partenariat pilote avec Creative Commons France pour les sensibiliser et les former à l’usage des licences libres. Ce partenariat sera signé dès décembre. La maîtrise de ces nouveaux outils est la condition d’un accès renforcé à l’offre artistique en ligne.

[...] les œuvres du domaine public, qui ne sont plus sous droits d’auteur, ont un rôle spécifique à jouer et peuvent constituer un terreau particulièrement riche pour l’accès et l’utilisation de contenus culturels, notamment pour favoriser l’éveil artistique des enfants. La puissance publique doit préserver, à cette fin, des espaces culturels communs gratuits. Des espaces qui inspirent la création et valorisent les pratiques artistiques amateurs.
Nous disons couramment d’une œuvre qu’elle est « tombée » dans le domaine public comme on dirait qu’elle est tombée dans l’oubli ou en désuétude ou encore qu’elle et son public sont tombés en désamour. C’est tout le contraire qui se produit lorsqu’une œuvre entre dans le domaine public. Lorsqu’une œuvre entre dans le domaine public, elle connaît une seconde naissance. Et je souhaite que mon ministère s’engage dans cette reconnaissance.

[...] j’ai souhaité donner sa pleine mesure à la politique gouvernementale en faveur de l’ouverture et du partage des données publiques coordonnée par la mission Etalab. Cette ouverture des données publiques vise à favoriser l’émergence de projets culturels innovants [...] Je souhaite que les actions numériques de mon ministère et de ses opérateurs s’inscrivent dans le cadre de notre feuille de route stratégique d’ouverture des données culturelles.

Bien entendu, tout ceci pourrait rester au niveau de l’affichage politique, mais 12 mesures concrètes ont été également annoncées, qui viennent donner corps à ces nouvelles orientations.

Des mesures concrètes

Ces actions s’articulent autour de trois thématiques : licences libres, domaine public et Open Data (je reprends le texte du dossier de presse et je commente brièvement).

1) Licences libres

La production de ressources sous licence libre par les établissements culturels français est encore confidentielle. Il y a même parfois une vraie réticence à s’engager dans ce type de mode de diffusion. Ces orientations peuvent aider à surmonter ces obstacles. Je note en particulier l’idée de lier l’octroi de subventions par le Ministère à l’obligation de placer les contenus produits sous licence libre, qui pourrait constituer un levier efficace. L’accompagnement des établissements culturels à l’usage des Creative Commons est aussi une excellente idée, car un soutien peut être nécessaire pour appréhender ces outils (et éviter de mauvaises pratiques).

2) Domaine public

Ces mesures interviennent après que le rapport Lescure ait recommandé de renforcer le statut du domaine public dans notre pays et il est intéressant de voir que le Ministère envisage d’aller jusqu’à modifier la loi en ce sens. Cela prolonge les orientations du rapport Dataculture qui préconisait la diffusion ouverte du domaine public numérisé sous Public Domain Mark. Cette semaine, il s’est également produit quelque chose d’important, puisque la députée Isabelle Attard a déposé "une proposition de loi visant à consacrer, élargir et garantir le domaine public". J’en parlerai plus en détail sur S.I.Lex lorsque la proposition aura passé le stade de l’examen de sa recevabilité. Le développement d’un calculateur du domaine public français est également une excellente mesure, qui va être développé en partenariat avec l’Open Knowledge Foundation France, en associant dans un premier temps la BnF pour les oeuvres liés au centenaire de la guerre de 14-18. Un tel outil peut apporter une contribution importante pour renforcer l’effectivité du domaine public. Savoir si une oeuvre appartient ou non au domaine public relève encore trop souvent de la gageure, comme l’a montré récemment l’exemple d’Apollinaire.

3) Open Data

On est là dans la poursuite du changement de politique exprimé auparavant par le guide Dataculture et la feuille de roue Open Data du Ministère. Sur ce point, il semble bien que le MCC ait décidé de rompre avec l’attitude de repli précédente. Cet engagement en faveur de l’ouverture des données s’est traduite concrètement cette semaine également par le fait que la culture apparaisse formellement dans le plan d’action que le Premier Ministre a publié pour la mise en oeuvre de la Charte du G8 relative à l’ouverture des données publiques (p.13) :

Le ministère de la Culture et de la Communication entend donner sa pleine mesure à la politique gouvernementale en faveur de l’ouverture des données publiques et au soutien d’une économie numérique des données qui est en train de se construire. Il s’engage à publier une feuille de route stratégique sur l’Open Data culturel, dans le cadre de laquelle s’inscrira son action numérique, et à ouvrir des jeux de données publiques issues du secteur culturel en prenant appui sur les prescriptions de son récent rapport "Data Culture".

La prochaine étape importante dans ce processus va être l’audit que le MCC est en train de réaliser à propos des redevances de réutilisation des données culturelles mises en place par ses services et les établissements sous sa tutelle. Le rapport Trojette remis cette semaine au Premier Ministre incite nettement à supprimer ces redevances sur la vente de données brutes dans la plupart des cas, mais il a laissé de côté le secteur culturel. D’où l’importance des conclusions de cet audit conduit au niveau du Ministère de la Culture.

Après l’Automne, le printemps ? (Frosted Flower. PAr Richard Turner. CC-BY-ND. Source : Flickr)

Et maintenant ?

Bien sûr, il faudra rester très vigilant pour qu’au-delà des effets d’annonces, ces mesures se traduisent par des résultats concrets, notamment par la production effective de ressources culturelles sous licence libre et la libération de données en Open Data. A défaut, l’Automne numérique soulèverait des déceptions à la hauteur des espoirs qu’il a fait naître. La loi sur la Création, annoncée pour 2014, sera également une épreuve de vérité, car c’est à ce niveau que l’on attend le Ministère, notamment sur la question du domaine public. Un calculateur peut apporter une contribution, mais il ne pourra résoudre tous les problèmes et la loi doit être modifiée si l’on veut arriver à des changements réels. On attend également le Ministère sur les propositions en faveur des usages transformatifs (mashup, remix) sur lesquels le CSPLA travaille en ce moment, en vue de la loi sur la Création.

Mais tout n’est pas dans les mains du Ministère, loin s’en faut, car l’effectivité de ces mesures passera surtout par les établissements culturels eux-mêmes – les bibliothèques, musées et services d’archives de ce pays _ qui gèrent l’essentiel des collections et des données du secteur. Les professionnels qui souhaitent s’engager dans des démarches d’ouverture manquaient jusqu’à présent souvent d’une orientation claire du Ministère pour pouvoir convaincre leurs hiérarchies ou vaincre les inerties. Avec ces nouveaux éléments de langage, l’occasion se présente de pousser au niveau des établissements pour impulser le changement et il faut la saisir.

L’enjeu essentiel se situe au niveau des grands établissements dont les politiques sont généralement encore très loin de satisfaire ces objectifs d’ouverture. Que feront la RMN-Grand Palais, Le Louvre, le Musée d’Orsay, l’INA, le Musée du Quay Branly, le domaine de Versailles, la BnF, le Centre Pompidou, les Archives nationales pour se conformer à ces nouvelles orientations ? Ils ne pourront en tout cas plus s’abriter derrière le Ministère pour maintenir des politique de fermeture dont la justification devient à présent de plus en plus fragile… (exemple le Centre Pompidou qui a fait passer ses métadonnées en RDF, mais ne les toujours pas placées en Open Data. Comment continuer à justifier une telle aberration ?).

Pour finir, je trouve particulièrement important que ces nouvelles orientations se fassent en lien avec la question de l’éducation artistique et culturelle, c’est-à-dire avec les nouveaux usages créatifs que le numérique favorise, notamment chez les plus jeunes. C’est finalement ce levier qui aura permis d’enclencher ce mouvement positif vers l’ouverture.

***

PS : je fais néanmoins une distinction très nette entre ces nouvelles orientations de politique culturelle et la question du partage des oeuvres culturelles en ligne, au sujet de laquelle des signes inquiétants continuent de nous parvenir. Les informations diffusées par PC Inpact cette semaine à propos de la Mission Imbert -Quaretta en cours à la Hadopi nous montre que c’est une véritable loi SOPA à la française qui est en train de s’élaborer dans l’ombre. Sous prétexte de lutter contre la "contrefaçon commerciale", des mesures de fragilisation des intermédiaires techniques sont envisagées qui restent inacceptables au nom de la préservation de la liberté d’expression. Elles figureront sans doute dans la loi sur la Création de 2014, au côté des mesures positives signalées dans ce billet. Comme déjà annoncé à propos du rapport Lescure, nous soutiendrons le meilleur, mais nous combattrons le pire de toutes nos forces.


Classé dans:Alternatives : Copyleft et Culture Libre, Domaine public, patrimoine commun, Données publiques et Open Data Tagged: aurélie filippetti, Creative Commons, Domaine public, données culturelles, licences libres, ministère de la culture, open data