PROJET AUTOBLOG


S.I.Lex

Site original : S.I.Lex

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

10 ans de Creative Commons : réussites, limites et défis à relever

dimanche 16 décembre 2012 à 13:04

[Hier avait lieu à la Gaîté Lyrique une journée pour célébrer les 10 ans des Creative Commons. J'ai eu le grand honneur d'y participer et je poste ici la chronique que j'avais rédigée à cette occasion pour OWNI, illustrée par des sites et des exemples d'utilisation des CC que j'ai découverts à cette occasion].

Les licences Creative Commons vont  bientôt fêter les dix ans de leur création ! La fondation Creative Commons a en effet été lancée en 2001, à l’initiative notamment du juriste américain Lawrence Lessig, et les premiers jeux de licences ont été publiés en décembre 2002.

Avant de souffler les bougies, fermons les yeux et essayons d’imaginer un instant à quoi ressemblerait Internet si les licences Creative Commons n’existaient pas… Nul doute que quelque chose d’essentiel nous manquerait, car les CC sont devenus un des standards de l’environnement numérique.

Creative Commons Cake. Par Squigfried. CC-By. Source : Flickr.

Durant ces dix années, l’arsenal législatif, communautaire et international de protection de la propriété intellectuelle n’a cessé de se renforcer et de se rigidifier, même si les rejets d’ACTA et de SOPA ont marqué cette année un premier coup d’arrêt à ce mouvement. Dans le même temps, les Creative Commons ont pourtant apporté la preuve qu’il était possible de penser le droit d’auteur autrement, sans attendre que les lois soient modifiées.

Et c’est sans doute ce qu’il y a de plus spectaculaire avec les CC. S’appuyant sur des contrats, qui sont la base même du fonctionnement du droit d’auteur, les licences Creative Commons ont introduit dans la sphère de la création générale le renversement copernicien que les licences libres, type GNU-GPL, avaient déjà opéré dans le domaine du logiciel. Elles y ont ajouté l’idée géniale d’un signalétique simple et claire des droits en ligne, sous forme de logos et de résumés simplifiés, qui favorisent l’appropriation des licences par les non-juristes.

Créés en dehors de l’action des États, les Creative Commons ont permis de « hacker » de l’extérieur le droit d’auteur pour donner une base juridique aux pratiques de mise en partage des oeuvres, de production collaborative de contenus et de réutilisation créative (remix, mashup). Partir des libertés plutôt que des restrictions pour diffuser leurs oeuvres, voilà ce que les licences Creative Commons permettent aux auteurs, à partir d’un système d’options qui offrent à chacun la possibilité de choisir le degré d’ouverture convenant à son projet.

En cela, les Creative Commons ont pour but de remettre l’auteur au centre du système et si l’on en croit les chiffres avancés dans la brochure The Power of Open, ce sont plus de 400 millions d’oeuvres par le monde qui ont été ainsi mise en partage par leurs créateurs, formant une réserve conséquente de biens communs volontaires.

Les Creative Commons sont porteurs d’une révolution pour la conception du droit d’auteur et pour son adaptation aux exigences de l’environnement numérique. Michel Serres avait particulièrement bien expliqué les enjeux d’une telle évolution dans cette interview :

Dans une société, il y a des zones de droit et des zones de non-droit. La forêt était jadis une zone de non-droit infestée de malandrins et de voleurs. Un jour, pourtant, un voyageur traversant la forêt de Sherwood constata que tous les voleurs portaient une sorte d’uniforme ; ils portaient tous un chapeau vert et ils étaient sous le commandement de Robin Hood. Robin, qu’est-ce que ça veut dire ? Celui qui porte la robe du juge. Robin incarne le droit qui est en train de naître dans un lieu où il n’y avait pas de droit. Toutes les lois qu’on veut faire sur les droits d’auteur et la propriété sur Internet, c’est de la rigolade. Internet est un lieu de non-droit comme la forêt dont nous parlions. Or un droit qui existe dans un lieu de droit n’est jamais valable dans un lieu de non-droit. Il faut que dans ce lieu de non-droit émerge un nouveau droit. Dans le monde de demain doit émerger un nouveau droit. Si vous voulez réguler le monde d’aujourd’hui avec le vieux droit, vous allez échouer, exactement comme on a fait sur Internet. Il faut attendre que dans la forêt d’Internet on puisse inventer un droit nouveau sur ce lieu de non-droit. Plus généralement, dans cette crise qui fait entrevoir un nouveau monde, ce n’est pas le droit ancien qui va prévaloir.

Issus directement de la « forêt d’Internet », les Creative Commons constituent l’un des pans de ce droit nouveau dont le système a besoin pour retrouver la paix et l’équilibre. Avis à ceux qui cherchent « à réguler le monde d’aujourd’hui avec le vieux droit » !

Pour essayer de faire un bilan de l’avancement du projet Creative Commons à l’occasion de ces 10 ans, voici 10 points d’analyse : 3 réussites à souligner, 3 limites à dépasser, 3 défis à relever et un horizon à atteindre.

[Le superbe projet Kopfschlag : une simple page web blanche sous CC-BY où les internautes sont invités à dessiner, modifier, effacer et recommencer à créer une oeuvre graphique sans fin]

3 réussites à souligner :

1) L’épreuve du feu de la validité en justice

Les Creative Commons ne sont pas des « alternatives » au droit d’auteur, mais une façon de le faire fonctionner autrement, en jouant avec la logique contractuelle. L’un des défis majeurs pour les licences consistait à se faire accepter par les juridictions dans les divers pays du monde, alors même qu’elles étaient nées en dehors de l’action des États.

Pour l’instant, cette épreuve du feu de la validité  a été surmontée avec succès chaque fois que les Creative Commons ont été au coeur d’un litige soumis à un juge. Les Creative Commons ont ainsi été reconnues valides en Espagne, en Allemagne, aux Pays-Bas, en Belgique, aux Etats-Unis, en Israël.

Aucune affaire cependant en France n’a encore porté sur une oeuvre placée sous licence Creative Commons, ce qui permet parfois à certains juristes de continuer à faire planer le doute sur leur compatibilité avec le droit français ou d’entretenir la confusion avec l’expression « libre de droits« . Au vu des décisions rendues par d’autres juridictions en Europe, il n’y a pourtant pas lieu de penser que les Creative Commons ne seraient pas valables au pays de Beaumarchais.

2) L’adoption par de grandes plateformes des médias sociaux

La semaine dernière, la plateforme de partage de photographies 500px annonçait qu’elle offrirait désormais à ses utilisateurs la possibilité d’utiliser les licences Creative Commons. Cette adoption par les médias sociaux a joué un rôle décisif dans la diffusion des licences.

Le fait que Flickr ait très tôt offert cette possibilité à ses utilisateurs a constitué un jalon important, qui fait actuellement de cette plateforme un des réservoirs les plus importants d’oeuvres sous CC (plus de 240 millions). D’autres sites importants comme Vimeo, Soundcloud ou Bandcamp ont suivi cet exemple. Le fait que la communauté de Wikipedia ait aussi choisi en 2009 de faire passer l’encyclopédie collaborative sous CC-BY-SA a également constituer un tournant essentiel. En 2011, c’est YouTube qui avait créé l’évènement en annonçant la mise en place de la possibilité de placer des vidéos sous CC. En moins d’un an, ce sont plus de 4 millions de fichiers qui ont été mis en partage par le biais des licences sur la plateforme de Google.

Cette inclusion progressive des licences Creative Commons dans l’écosystème des médias sociaux est incontestablement une réussite, mais elle rencontre certaines limites importantes. Des réseaux sociaux comme Facebook ou Twitter n’offrent toujours pas cette possibilité à leurs usagers (même si des applications non-officielles existent). En août dernier, il a fallu qu’un service tiers « force la main » à Instagram en utilisant son API pour que les utilisateurs de ce service puissent enfin placer leurs photos sous CC, avec des résultats mitigés.

Nul doute que l’articulation entre les Creative Commons et les CGU des grands médiaux sociaux constitue un point essentiel pour leur développement.

3) La mise en place de modèles économiques convaincants

L’un des arguments utilisés pour dénigrer les Creative Commons consiste à soutenir que les licences impliqueraient nécessairement une diffusion gratuite et qu’elles empêcheraient les artistes de tirer bénéfice de leurs créations. C’est grossièrement faux et les Creative Commons ont apporté la preuve qu’elles pouvaient être utilisées au contraire pour mettre en place des modèles économiques innovants.

Grâce aux clauses NC (Pas d’usage commercial), les créateurs peuvent moduler l’ouverture des licences et continuer à monétiser certains types d’usages tout en laissant circuler leurs oeuvres. Ces modèles mixtes ont produit de belles réussites dans tous les domaines, qu’il s’agisse de musique, de livres, de vidéo ou de jeux .

L’articulation entre Creative Commons et crowdfunding ouvre également des pistes très intéressantes aux artistes pour obtenir des financements tout en élargissant les droits de leur public. Une page spéciale du site américain Kickstarter liste les projets pour lesquels les auteurs ont proposé de placer leur création sous licence Creative Commons si le public  les aidait à rassembler les financements en amont. On retrouve le même principe sur d’autres plateformes comme Indiegogo, ou côté français Ulule et KissKissBankBank, tandis que le site espagnol Goteo propose exclusivement le financement de projets sous licences libres.

Par bien des côtés, ces pratiques annoncent sans doute les modèles économiques de demain.

[My Science Work : réseau social destiné à sensibiliser les chercheurs pour développer l'Ope Access]

3 limites à dépasser :

1) Remédier à l’imprécision de la clause non-commerciale

A l’occasion du passage à la version 4.0, un débat assez vif a divisé la communauté Creative Commons à propos de l’opportunité de maintenir la clause Non-Commerciale parmi les options proposées par les licences.

Il est clair que l’imprécision relative de cette clause fragilise la mise en oeuvre des Creative Commons, d’autant plus que les licences NC sont les plus utilisées. Le juriste Benjamin Jean estime que Creative Commons International a une part de responsabilité dans ce flottement :

j’accuse pour ma part Creative Commons de maintenir ce flou en ne souhaitant pas faire le choix d’une définition précise (le problème d’une telle définition est 1) qu’il n’emporterait pas l’unanimité et 2) qu’elle ne saurait être rétroactive…).

Pour la version 4.0, il semblerait que Creative Commons ait choisi de s’en tenir au statu quo et de maintenir cette clause en l’état, vu qu’aucun consensus ne se dégageait nettement concernant sa reformulation. Il faudra sans doute pourtant réouvrir tôt ou tard cette réflexion, qui touche à quelque chose d’essentiel dans la capacité des licences Creative Commons à servir de base pour le développement de modèles économiques.

2) Une meilleure application aux bases de données et à l’Open Data

Une des évolutions que Creative Commons n’a pas très bien négocié ces dernières années est celle de l’Open Data. On aurait pu penser que ces licences auraient pu être employées pour ouvrir les bases de données et libérer les informations publiques, mais des difficultés juridiques sont survenues qui ont limité l’application des Creative Commons dans ce domaine.

Les licences Creative Commons sont prévues pour s’appliquer aux droits voisins, mais la version 3.0 appréhende relativement mal le droit sui generis des bases de données tel qu’il existe en Europe. Par ailleurs, les licences Creative Commons n’étaient pas non plus prévues pour encadrer le droit à la réutilisation des informations, ce qui a pu conduire à des flottements en France dans le cdare du développement de l’Open Data.

Certains pays ont néanmoins choisi d’opter pour les Creative Commons pour diffuser leurs données (Autriche, Australie, Nouvelle-Zélande), mais d’autres comme l’Angleterre ou la France ont préféré écrire leurs propres licences. Les difficultés susmentionnées ont aussi conduit certains gros projets collaboratifs, comme OpenStreetMap à changer de licence, préférant l’ODbL, spécialement conçue pour les bases de données aux licences Creative Commons.

Il avait été envisagé que la version 4.0 des CC soit modifiée pour mieux prendre en compte le droit des bases de données et c’est sans doute un enjeu important pour que Creative Commons continuer à jouer un rôle dans le domaine de l’Open Data.

3) Développer la compatibilité avec la gestion collective des droits :

Un des facteurs qui freinent fortement l’adoption des Creative Commons par les artistes réside dans le fait que les sociétés de gestion collective n’acceptent généralement pas que les auteurs placent tout ou partie de leur répertoire sous licence ouverte. Les artistes sont donc réduits à choisir entre utiliser les Creative Commons ou entrer en gestion collective.

Pour autant, reprenant une formule qui avait déjà été testée en 2007 aux Pays-bas, Creative Commons a conclu fin 2011 un partenariat avec la SACEM en France pour monter une expérience pilote, afin d’ouvrir aux auteurs et compositeurs de musique la possibilité d’utiliser certaines des licences CC.

On peut considérer qu’il s’agit d’une avancée importante pour la reconnaissance des Creative Commons en France, mais cet accord a également soulevé de nombreuses critiques, notamment de la part des communautés du Libre, ainsi qu’a propos de la façon dont la SACEM entend redéfinir la définition du Non-Commercial de manière extensive.

Il est clair pourtant qu’il est crucial que les sociétés de gestion collective s’ouvrent aux licences Creative Commons, mais le défi consiste à organiser cette connexion sans que les licences subissent des altérations qui en dénaturent la logique.

feat

[Featurin.gs : une plateforme qui propose de partager des beats, des voix et des vidéos sous Creative Commons, pour créer ses propres remix en toute légalité]

3 défis à relever :

1) Une meilleure prises en compte par les mécanismes traditionnels de financement de la création

On peut s’étonner que les licences Creative Commons ne soient pas davantage utilisées dans le domaine du cinéma par exemple. Il existe des exemples dans le domaine du court métrage d’animation et le Film espagnol El Cosmonauta du producteur espagnol Riot Cinema avait constitué un exemple intéressant de combinaison du crowdfunding et des licences libres pour un projet ambitieux.

Mais il faut plutôt aller voir du côté des modes de financement et de distribution des oeuvres cinématographiques pour comprendre pourquoi il est très difficile pour des films sous CC de voir le jour. Le cinéma bénéficie en effet d’importantes subventions, comme les avances sur recettes du CFC. Or les oeuvres sous licences libres ne peuvent pas bénéficier de ces formes de financement, ce qui les coupent de leviers importants. C’est une situation qu’a souvent dénoncé le Collectif Kassandre en France, avant de décider de mettre fin à ses activités cette année.

Il est clair qu’un des moyens de favoriser le développement d’oeuvres sous licence Creative Commons seraient d’organiser des filières particulièrement de financement et de distribution, par les organismes de soutien à la création que sont par exemple le CNC pour le Cinéma ou le CNL pour les livres. Cela pourrait d’ailleurs constituer un des axes de réflexion de la Mission Lescure pour favoriser le développement de l’offre légale.

2)  Favoriser l’adoption des licences Creative Commons par les administrations

L’adoption des licences Creative Commons par les administrations est un facteur qui peut grandement contribuer à leur diffusion. Pour l’instant, les exemples restent cependant relativement rares. Le site de la Maison blanche est par exemple placé sous licence CC-BY, mais il est assez difficile de citer d’autres cas aussi emblématiques. On assiste même parfois à des retours en arrière, comme au Brésil où le Ministère de la Culture a choisi en 2011 de retirer la licence Creative Commons de son site pour retourner à un régime de droits réservés.

Pourtant il existe un intérêt réel pour les administrations et les services publics à entrer dans la logique de mise en partage et de collaboration que favorisent les licences Creative Commons. En France, la municipalité de Brest par exemple montre comment ont peut développer une dynamique participative et l’expression citoyenne au niveau d’un territoire à partir de sites et de plateformes placées sous licence Creative Commons.

Au niveau central, on pourrait espérer que le premier ministre par exemple prolonge la circulaire qui a été récemment publiée pour favoriser l’usagedes logiciels libres dans les administrations par un  texte incitant les services à placer les contenus qu’ils produisent sous licence Creative Commons. Une telle démarche d’Open Content viendrait compléter celle qui est initiée actuellement au niveau de l’État en matière d’Open Data.

Dans cette optique, l’un des champs privilégiés serait le développement de ressources pédagogiques sous licence Creative Commons, ainsi que la mise à dispositions des résultats de la recherche scientifiques. La Californie aux États-Unis et la Colombie britannique au Canada ont récemment voté des textes de loi pour favoriser le développement de bibliothèques numériques de manuels d’enseignement Open Source, sous licence CC-BY. Le réseau européen Communia a également publié une déclaration importante la semaine dernière pour appeler les responsables de l’Union a rendre obligatoire non seulement l’Open Access aux articles scientifiques financés par des fonds publics en Europée, mais aussi leur passage sous licence CC-BY.

3) Peut-on rendre les Creative Commons Mainstream ?

Le défi majeur à mes yeux pour les licences Creative Commons consiste à savoir comment on peut en favoriser plus largement l’adoption, en dehors même du cercle des adeptes de la Culture libre.

Dans une chronique précédente, j’avais relevé par exemple que les 240 millions de photographies sur Flickr sous licence Creative Commons ne représentent au final qu’un peu plus de 3% des contenus du site. On retrouve à peu près les mêmes proportions sur la plateforme de partage de vidéos Vimeo. Même si en valeur absolu, l’adoption des Creative Commons par 3% des créateurs suffit à produire des masses de contenus réutilisables importantes, il est clair que l’on ne modifie pas un système en profondeur avec des pourcentages de cet ordre.

Arrivé à ce résultat au bout de dix ans, il est désormais essentiel pour Creative Commons de réfléchir à la manière dont les licences pourraient devenir « mainstream ». Une des pistes seraient peut-être de creuser les partenariats avec les grands médias. La BBC par exemple en Angleterre a conduit des expériences de diffusion de programmes télévisés sous licence Creative Commons, ainsi que pour ses archives. La chaîne d’information Al Jazeera est quant à elle engagée dans un usage avancé de diffusion ouverte de ses contenus, au sein de son Creative Commons Repository. En Hollande, c’est l’équivalent de l’INA qui valorise une partie de ses contenus sous licence Creative Commons sur la plateforme Images For The Future. Et la télévision norvégienne a déjà libéré certains de ses contenus sous licence CC, mais pour des volumes limités.

En France, on peut peut-être citer les exemples que la plateforme Arte Creative ou celui du site de critiques de livres Non Fiction, mais il faut bien avouer que les Creative Commons sont encore très en retrait dans les médias traditionnels.

[WebSpotting : une émission de télévision sous Creative Commons, diffusée sur la TNT et sur Internet]

Un horizon à atteindre

Au bout de 10 ans, les Creative Commons ont fait leur preuve quant à leur capacité à organiser la circulation et la réutilisation des contenus en ligne, tout en apaisant les relations entre les auteurs et le public. Certaines propositions de réforme du droit d’auteur vont à présent plus loin, en suggérant de placer tous les contenus postés sur le web par défaut sous un régime autorisant la réutilisation à des fins non-commerciales des oeuvres.

Une telle proposition avait été appelée Copyright 2.0 par le juriste italien Marco Ricolfi et elle aurait abouti dans les faits à faire passer par défaut le web tout entier sous licence CC-BY-NC, sauf pour les créateurs à s’enregistrer pour revendiquer l’application d’un copyright classique pour leurs œuvres.

On retrouve quelque chose de ces propositions dans les programmes qui visent à faire consacrer la légalisation du partage non-marchand entre individus des oeuvres, qu’il s’agisse des Éléments pour la Réforme du droit d’auteur de la Quadrature du Net ou du programme du Parti Pirate.

Si de telles réformes venaient à être mises en oeuvre, c’est l’ensemble du système du droit d’auteur qui serait modifié dans la logique des Creative Commons. Le régime juridique de base d’Internet deviendrait grosso-modo la licence CC-BY-NC et les auteurs pourraient toujours choisir d’aller plus loin en employant des licences encore plus ouvertes (CC-BY, CC-BY-SA, etc).

Rendez-vous dans dix ans, pour voir si cet horizon a été atteint !


Classé dans:Alternatives : Copyleft et Culture Libre Tagged: Creative Commons, culture libre, licences libres

NumeLyo, la bibliothèque numérique de Lyon, et l’ombre portée du contrat de Google

samedi 15 décembre 2012 à 11:07

NumeLyo, la bibliothèque numérique de Lyon a donc été lancée cette semaine, quatre ans après la signature d’un partenariat de numérisation avec le moteur de recherche Google.

Books and sunlight. Par quinn.anya. CC-BY-SA. Source : Flickr

Il faut se souvenir qu’à l’époque, l’annonce de ce partenariat avait suscité une vive polémique, à propos des conditions imposées par Google en contrepartie de la numérisation gratuite du fonds ancien des livres de la Bibliothèque municipale de Lyon, la seconde en volumétrie après la Bibliothèque nationale de France. Dans un article consacré au lancement de NumeLyo, Rue89 rappelle les arguments des détracteurs de ce projet :

À la signature du contrat, en juillet 2008, l’accord avait fait couler beaucoup d’encre. À l’époque, la doctrine française était dictée par la BNF de Jeanneney – auteur de « Quand Google défie l’Europe : plaidoyer pour un sursaut » – qui défendait exclusivement une alternative publique européenne. L’accord était taxé de « pacte faustien », d’« atteinte à l’exception culturelle française », voire d’ « eugénisme documentaire«  .

À Lyon, l’élu écologiste Etienne Tête s’alarmait que « le patrimoine de la bibliothèque de Lyon devienne, de fait, la propriété de Google » tandis que le Modem Christophe Geourjon jugeait le marché « trop volumineux et insuffisamment évolutif », et la clause d’exclusivité « extravagante ».

Grâce à une action de Livres Hebdo devant la CADA, ce fameux contrat avait été révélé, ce qui permettait de se faire une idée assez précise des exclusivités réclamées par Google. J’avais à l’époque publiée une analyse intitulée : « Contrat Google/Bibliothèque de Lyon : l’ombre d’un doute…« , car il était difficile d’appréhender exactement l’effet de toutes les clauses de ce contrat sans voir la bibliothèque numérique mise en place par la Ville de Lyon pour diffuser les fichiers remis par Google.

C’est chose faite à présent, et l’on peut dire que l’impression que j’en retire est partagée. La Ville de Lyon a certainement obtenu des garanties qu’aucune autre bibliothèque partenaire de Google n’était parvenue à sécuriser (notamment à propos de l’exclusivité d’indexation). Mais de l’autre côté, des restrictions pèsent sur l’utilisation et la réutilisation des oeuvres du domaine public numérisées, qui sont comme « l’ombre portée » de ce contrat sur NumeLyo. C’est principalement l’effet de l’exclusivité commerciale de 25 ans consentie par la Ville, qui ne prendra fin qu’en… 2033 !

Plus grave encore, un certain nombre de ces restrictions ne sont pas la conséquence des exigences de Google, mais ont été apportées volontairement par la Bibliothèque de Lyon, qui rejoint la longue liste des établissements français portant atteinte à l’intégrité du domaine public, en se livrant à du copyfraud. On peut aussi estimer que la Ville de Lyon n’a certainement pas utilisé toute la marge de manoeuvre de négociation dont elle disposait, car plusieurs évènements importants sont survenus depuis 4 ans, qui auraient pu lui permettre en réalité, sinon d’échapper, au moins de revoir la portée des exclusivités.

Tout ceci au final laisse comme un goût amer. La leçon a en tirer, c’est que les personnes publiques sont en définitive tout aussi menaçantes que les firmes privées pour le domaine public et les biens communs de la connaissance. L’opposition entre un service public vertueux et une secteur marchand rapace s’est complètement brouillée.

La BM de Lyon, maîtresse des murs 

La première surprise concernant NumeLyo est de constater que cette bibliothèque numérique semble avoir été entièrement développée par la Ville de Lyon, par ses propres moyens, et hébergée par ses soins.

Le CCTP (Cahier des Clauses Techniques Particulières) du marché signé avec Google prévoyait pourtant que la mise en ligne des fichiers remis par Google pourrait se faire « dans le cadre d’une solution hébergée propre à la Ville de Lyon (hosted solution) » à savoir « un service distant via Internet que [Google] hébergera, à ses frais, sur ses serveurs » (art.20 p. 12).

On comprend l’économie pour la Ville, mais j’avais tiqué à l’époque, car le contrat prévoyait que «  les fonctionnalités, le design et le contenu de ce service restent entièrement sous le contrôle du titulaire. Par design du site, il faut entendre : l’ergonomie, la présentation, l’interface et les fonctionnalités techniques de la bibliothèque numérique propre à la ville qui sera hébergée par le titulaire ».

Google aurait donc disposé d’un fort pouvoir de contrôle sur la diffusion de ces fichiers, si la Bibliothèque de Lyon avait le choix de cette hosted solution. A la place, la BM a développé sa propre bibliothèque numérique, ce qui est plus long, plus complexe et plus coûteux, mais lui assure de rester « maîtresse des murs ». Cette faculté lui était ouverte par un autre article du CCTP :

La Ville de Lyon peut librement constituer avec les ouvrages imprimés numérisés par le titulaire, au fur et à mesure de la réalisation de la prestation, sa propre bibliothèque numérique et la rendre consultable par le public gratuitement, sur place ou via Internet.

numelyoL’autre avantage pour la Bibliothèque est de pouvoir conduire sa propre démarche de valorisation de ces contenus, par le biais de textes de présentation, de parcours dans les collections, de dossiers thématiques, et c’est ainsi la valeur ajoutée propre au bibliothécaire qui est sauvegardée. NumeLyo est également interfacée avec d’autres services emblématiques de la Bibliothèque, comme le fameux service de Questions/Réponses les Guichets du Savoir ou son site d’info Points d’Actu.

Cette solution permet aussi à la Bibliothèque de rassembler au sein de NumeLyo, à la fois les livres anciens numérisés par Google, mais également les fonds d’affiches, d’estampes, d’archives, de presse et d’autres documents qu’elle avait déjà mis en ligne par ses propres moyens. La diffusion du patrimoine a tout à gagner à pouvoir ainsi rapprocher et faire communiquer entre elles les différentes sources, alors que sur Google Books, on ne trouve que des livres et des revues.

Sur ce point donc, bravo à la BM de Lyon qui n’a pas cédé à la solution de facilité, mais qui a  su faire les investissements nécessaires pour sauvegarder son indépendance technique.

Pas d’exclusivité d’indexation : une première mondiale ?

Cette valeur propre de NumeLyo est encore renforcée par le fait que cette bibliothèque numérique échappe à l’exclusivité d’indexation que les autres partenaires de Google ont dû respecter. Les autres bibliothèques qui ont signé avec Google ont en effet dû accepter une clause qui les contraignait à empêcher les moteurs de recherche d’indexer leurs contenus. Dans les contrats signés avec l’Université du Michigan et à l’Université de Californie, elle est formulée ainsi :

« University shall implement technological measures (e.g. through use of the robots.txt protocol) to restrict automated access to any portion of the University Digital Copy or the portions of the University Website on wich any portion of the University Digital Copy is available. »

Cette exclusivité était cruciale pour Google, car elle lui garantissait que ses propres copies seraient avantagées par rapport à celles remises à la bibliothèque partenaire et par ailleurs, elle empêchait des moteurs de recherche concurrents comme Bing, Yahoo! ou Exalead de pouvoir indexer ces contenus.

Google semblait accorder une grande importance à cette restriction, car même lorsqu’il a accepté de réduire la durée de l’exclusivité commerciale pour certaines bibliothèques américaines, il a refusé de lever l’exclusivité d’indexation. Par ailleurs, il l’a imposée à toutes les grandes bibliothèques patrimoniales avec lesquelles il a signé en Europe, comme la Bibliothèque nationale d’Autriche ou la British Library.

Pourtant, comme je l’avais relevé à l’époque, le contrat lyonnais présentait la très grande originalité de ne pas comporter cette exclusivité d’indexation. A l’époque, je gardais cependant un doute, car si les fichiers avaient été diffusés dans le cadre d’une hosted solution, il me semblait que Google aurait gardé la possibilité d’empêcher l’indexation par les robots des moteurs de recherche.

Mais le test a été fait cette semaine et il apparaît que le contenu de NumeLyo est bien ouvert à l’indexation des moteurs de recherche, comme vous pouvez le constater sur la capture d’écran ci-dessous.

indexation

twitindex

C’est donc sans doute une première mondiale et la BM de Lyon est parvenue à lever une des restrictions les plus fortes exigées par Google en contrepartie de sa « générosité ». Ce n’est pas anodin, car l’exclusivité d’indexation est le dispositif qui permet à Google de renforcer sa position dominante par le biais de la numérisation, peut-être même plus encore qu’avec l’exclusivité commerciale.

Mais cela ne signifie pas pour autant que toutes les restrictions ont disparu et c’est au final le domaine public qui en est la principale victime sur NumeLyo.

L’ombre portée du contrat de Google sur le domaine public

Lorsque l’on clique sur les conditions d’utilisation du site, on se rend compte que des restrictions sont imposées à la réutilisation des fichiers :

1. Pour les œuvres tombées dans le domaine public

- L’usage à titre privé des reproductions numériques figurant dans Numelyo est libre et gratuit, notamment et l’impression et le téléchargement à l’unité.
- En cas de publication sur quelque support que ce soit (livres, revues, journaux, affiches cartes postales imprimés ou électroniques, objets divers, internet…), l’utilisateur est tenu d’indiquer clairement la provenance du document telle qu’elle figure sur le site de Numelyo, sous la forme Bibliothèque municipale de Lyon, cote du document et de prévenir la Bibliothèque municipale de Lyon de la publication.
- En cas d’usage commercial, l’utilisateur s’adressera à la Bibliothèque municipale de Lyon (numelyo@bm-lyon.fr).

L’usage commercial est soumis à une demande d’autorisation préalable (mais on ne sait pas explicitement s’il est soumis à redevance). Par ailleurs, en cas de simple publication d’un contenu, en ligne ou non, l’utilisateur est tenu de mentionner la source, mais aussi de prévenir la Bibliothèque (Quelle blague ! Bonjour Monsieur le Bibliothécaire, je vous signale que j’ai posté une de vos zolies images sur mon Skyblog. Ouarf !).

Il y a donc bien une restriction à l’usage commercial des fichiers qui est incompatible avec l’appartenance des oeuvres numérisées au domaine public. On peut ici penser qu’il s’agit de l’effet de l’exclusivité commerciale de 25 ans qui a été consentie par la Ville de Lyon, en échange de la numérisation gratuite effectuée par Google. La Bibliothèque sur ce point, même si elle le voulait, ne pourrait sans doute plus accorder un droit à la réutilisation commerciale des fichiers, comme vient de le faire la British Library pour ses manuscrits enluminés.

Par ailleurs, le contrat comportait également d’autres clauses limitant la réutilisation des fichiers :

La Ville de Lyon peut permettre le téléchargement gratuit des images numérisés d’un ouvrage à partir de sa propre bibliothèque numérique, en tout ou partie, à condition que ce soit à l’unité, pour un usage individuel.

Au vu des conditions d’utilisation de NumeLyo, la Bibliothèque va un peu plus loin, dans la mesure où elle permet la publication et même l’usage en ligne des fichiers, ce qui pouvait poser des problèmes de compatibilités avec la notion « d’usage personnel ».

Mais la restriction sur le téléchargement à l’unité est bien en vigueur de son côté. Techniquement, cela se manifeste par le fait que l’on doive s’identifier pour pouvoir télécharger des fichiers (ce qui permet sans doute de surveiller que des téléchargements importants ne sont pas effectués). Par ailleurs, comme il est confirmé par Gilles Eboli, l’actuel directeur de la BM de Lyon, Google ne permet pas le téléchargement du mode texte, son « trésor de guerre » dans cette opération. On relèvera aussi que NumeLyo ne comporte pas de fonctionnalités de lecteur exportable, relativement simples aujourd’hui à mettre en oeuvre, et c’est sans doute en lien avec les restrictions imposées par son contrat.

On voit donc bien que l’accord conclu avec Google projette une ombre sur cette bibliothèque numérique, avec pour effet de porter atteinte à l’intégrité du domaine public et d’imposer des restrictions d’usage à l’internaute.

Mais sur ces aspects, on ne peut pas tellement incriminer la Bibliothèque qui, une fois le contrat conclu, est bien obligée d’en respecter les conditions (quoi que, nous verrons plus loin !). Cependant, sur d’autres points, on va voir que c’est la bibliothèque qui est directement à l’origine de restrictions tout aussi fortes et là, c’est absolument inacceptable !

Emballage de copyfraud par des licences Creative Commons !

En effet comme je l’ai dit plus haut, NumeLyo ne contient pas uniquement les ouvrages numérisés par Google, mais aussi les documents de son fonds, numérisés par ses propres moyens au fil des années, et sur lesquels elle possède une maîtrise pleine et entière.

Or les conditions d’utilisation de ces fichiers sont tout aussi restrictives que celles imposées par Google. Lorsque l’on consulte par exemple une estampe numérisée, on constate qu’elle est placée sous licence Creative Commons CC-BY-NC-ND (Paternité – Pas d’utilisation commerciale – Pas de modifications).

ccnumelyo

Vous vous attendez peut-être à ce que je bondisse de joie en voyant une bibliothèque utiliser ces licences Creative Commons, que je défends par ailleurs. Mais ce n’est pas le cas ici. En effet, appliquer une licence Creative Commons sur une oeuvre du domaine public revient à refaire naître illégitimement une nouvelle couche de droits, entravant ici à la fois l’usage commercial et la production d’oeuvres dérivées. Cela signifie que non seulement il ne sera pas possible de publier cette estampe dans une revue ou dans un livre commercialisé, mais aussi qu’on ne pourra pas la retailler, en extraire un détail ou l’incorporer dans une nouvelle création.

On est donc bien là face à un copyfraud caractérisé, d’autant plus contestable qu’il revêt les atours des licences Creative Commons pour mieux se dissimuler ou « faire branché ». Si l’on y réfléchit bien, il y a deux choses assez incroyables dans la manière dont la Bibliothèque de Lyon se comporte vis-à-vis du domaine public.

La première est de se rendre compte qu’une personne publique, théoriquement au service de l’intérêt général, applique finalement exactement les mêmes restrictions que Google à l’usage du domaine public. Au moins Google peut-il revendiquer d’avoir investi 60 millions d’euros pour numériser ces fichiers. Mais la Ville de Lyon, qui au contraire vient de faire une économie monumentale de 60 millions d’euros, pourrait au moins permettre la libre réutilisation des fichiers qu’elle a produit elle-même, y compris pour les usages commerciaux (comme l’a fait la BNUS de Strasbourg par exemple).

La seconde surprise est que cet usage des Creative Commons « plaqués » sur du domaine public est complètement et grossièrement illégal, sans le moindre doute possible. En effet, la première condition pour pouvoir utiliser une licence Creative Commons est d’être titulaire du droit d’auteur sur l’oeuvre à laquelle on l’applique. Or il est bien évident qu’en numérisant une gravure de Dürer comme celle qui figure ci-dessous, la BM de Lyon n’est titulaire d’aucun droit d’auteur puisqu’elle n’a fait que la reproduire à l’identique. Faute d’originalité pouvant être revendiquée, la licence Creative Commons ne peut avoir aucun effet… Complete Bullshit !

L'Ascension. Par Dürer. Source : NumeLyo, Bibliothèque municipale de Lyon. Domaine public.

L’Ascension. Par Dürer. Source : NumeLyo, Bibliothèque municipale de Lyon. Domaine public.

Que les services juridiques de la seconde ville de France puissent commettre une telle bévue laisse songeur et on frémit à l’idée que ces mêmes personnes aient pu être en charge de l’examen du contrat avec Google ! Néanmoins, cet amateurisme n’a pas que des désavantages, car il signifie que les utilisateurs peuvent en réalité faire absolument ce qu’ils veulent de ces fichiers récupérés sur NumeLyo, sans que la Ville ne puisse s’y opposer.

Je ne saurais trop conseiller par exemple de prendre ces fichiers et d’aller les poster sur des sites qui respectent l’intégrité du domaine public et assurent sa sauvegarde, comme Wikimedia Commons ou Internet Archive. D’autres le font déjà pour « vider » Google Books et ils n’ont jamais été inquiétés.

Hacking Public Domain ! Quand les institutions bafouent le droit, il convient de faire ce qui est juste !

La BM de Lyon a-t-elle vraiment exploité toutes les marges de manoeuvre ?

Par ailleurs, on peut se demander si la Ville de Lyon a vraiment exploité toutes les marges de manœuvre à sa disposition pour limiter les exclusivités qui lui ont été imposées.

Sur Rue89, Gilles Eboli indique que Google semble disposé à ouvrir peu à peu les conditions du partenariat :

« Google n’est pas fermé à nos ambitions d’ouverture », assure le directeur de la bibliothèque de Lyon. « Dans le cadre des sommets Google, auquel nous participons avec la trentaine d’autres bibliothèques publiques sous contrat avec Google, nous observons que Google est à l’écoute des demandes visant à rendre possible le téléchargement en mode texte, et des partenariats. C’est un contrat mais ce n’est pas une porte fermée ; des discussions sont d’ores et déjà engagées » poursuit-il.

Fort bien, mais il aurait été d’agir plus tôt pour réduire, voire lever l’exclusivité commerciale au vu de ce qui s’est passé depuis 2008.

En effet, en 2010, l’Autorité de la Concurrence a rédigé un rapport à propos de Google, remis au Ministère de l’Economie, dans lequel elle examine si le moteur de recherche ne se trouve pas en situation d’abus de position dominante. Et à cette occasion, l’Autorité a estimé que l’exclusivité commerciale de 25 ans était clairement abusive. Sommé de se justifier, Google avait alors répondu quelque chose d’assez intéressant :

Si l’accord de partenariat conclu entre Google et la bibliothèque de Lyon comporte bien certaines clauses d’exclusivité, ces clauses n’ont cependant pas été introduites à la demande de Google. En tout état de cause, Google a clairement indiqué dans le courrier mentionné ci-dessus, son intention de ne pas mettre en œuvre ces clauses d’exclusivité.

Non seulement, c’est la Ville de Lyon et non Google qui est à l’origine de cette exclusivité (c’était une des conditions de l’appel d’offre qu’elle avait lancé), mais Google indique qu’il est prêt à renoncer à ces clauses…

Alors ! Qu’à cela ne tienne ! Google a déclaré qu’il renonçait à l’exclusivité commerciale devant l’Autorité de la Concurrence. Pourquoi ne pas le prendre au mot et lever toutes les restrictions à l’usage des fichiers ? Il faut croire que la Bibliothèque de Lyon n’en a guère envie et la politique qu’elle applique aux fichiers qu’elle a elle-même produits confirme de toutes façons qu’elle partage la même conception du domaine public que Google…

Pourtant, si la BM de Lyon ne se résout pas à lever l’exclusivité, cela pourrait bien un jour lui coûter cher, car de très forts soupçons d’illégalité pèsent sur ces clauses. C’est @BlankTextField qui avait démontré en premier que la loi du 17 juillet 1978 sur les informations publiques, à son article 14, empêche les administrations d’accorder des exclusivités à moins de pouvoir se prévaloir d’une « nécessité d’exercice du service public » manifestement absente ici (c’est même tout le contraire !).

Un recours est possible et il pourrait notamment être intenté par une entreprise à qui la bibliothèque refuserait une mise à disposition des fichiers pour une réutilisation commerciale. A bon entendeur !

Enclosures publiques et enclosures privées : que doit-on le plus redouter ? 

Quels enseignements tirer de cette mise en ligne de NumeLyo ? Il y a quatre ans, j’étais défavorable à ce partenariat avec Google, parce que je pensais qu’une solution publique pouvait être mise en place en France, qui préserverait le domaine public.

Depuis, j’ai constaté avec horreur que les personnes publiques et l’Etat sont tout aussi menaçants pour le domaine public que ne le sont les grandes firmes privées. En la matière, c’est bonnet blanc et blanc bonnet.

Pour NumeLyo, c’est d’autant plus regrettable que l’établissement avait réussi à échapper à l’exclusivité d’indexation, ce qui aurait pu constituer une grande victoire. Mais elle est pour moi « annulée » par la restriction d’usage commercial du domaine public, et plus encore par cet usage fautif des Creative Commons, assimilable à du copyfraud, pour lequel l’établissement est le seul à blâmer.

Pour autant, malgré tout ce que l’on peut reprocher à NumeLyo, cela ne fait que mieux ressortir encore les abus auxquels la Bibliothèque nationale de France s’apprête à se livrer de son côté. Car chez NumeLyo, les fichiers sont encore accessibles en ligne, dans leur intégralité et gratuitement. La BnF de son côté s’apprête à signer des partenariats public-privé avec des firmes pour commercialiser des corpus d’oeuvres du domaine public sous forme de bases de données. Les contenus ne seront pas accessibles en ligne, mais seulement aux abonnées des bibliothèques qui auront fait l’acquisition de ces ressources. Et pourtant, l’argent public des Investissements d’avenir sera mobilisé pour ces projets, alors que Google a été seul à numériser les fonds de la Bibliothèque de Lyon !

L’ironie de l’histoire est invraisemblable, car l’argent de l’Emprunt national avait été débloqué pour éviter à la BnF de signer avec Google, suite aux recommandations du rapport Tessier qui désapprouvait les termes de ces accords. Tout ça au final, pour faire pire, en faisant cracher le contribuable français ! Le fiasco est total et encore plus manifeste depuis l’ouverture de NumeLyo…

Les bibliothèques protègent le patrimoine, mais qui protège celui-ci des errances de l’action publique ?

La confiance est rompue et si l’on veut préserver le domaine public en tant que bien commun de la connaissance, il est nécessaire de couler dans la loi des gardes fous puissants pour éviter de tels dérapages.

La proposition de loi pour le domaine public en France que j’ai avancée comporte une section sur les partenariats public-privé visant à les encadrer et à empêcher qu’ils n’aboutissent à faire naître de nouvelles enclosures.

PS : tiens, j’ai oublié de commenter les propos de Bertrand Calenge qui juge que tout est pour le mieux dans le meilleur des mondes (sauf qu’Internet et tous ces gens qui y parlent, vraiment c’est pénible). Je vous laisse vous faire une opinion par vous-même…


Classé dans:Bibliothèques, musées et autres établissemerents culturels, Domaine public, patrimoine commun Tagged: bibliothèque numérique, copyfraud, Domaine public, données publiques, exclusivité, Numérisation

Vers une réforme minimaliste de l’exception pédagogique dans la loi Peillon ?

jeudi 13 décembre 2012 à 18:01

C’était aujourd’hui que Vincent Peillon et Fleur Pellerin présentaient à la presse le plan du gouvernement pour le numérique à l’école et le Ministre de l’Éducation nationale a évoqué ce matin sur France Inter sa stratégie globale sur la question.

Le Ministre a orienté son discours sur le développement des usages numériques à l’école, mais on peut s’étonner qu’il ne soit aucunement fait mention d’une révision de l’exception pédagogique et de recherche, alors même que l’on sait que des discussions sont en cours sur le sujet. Cela avait été confirmé notamment lors du Forum SGDL qui s’est tenu le 25 octobre dernier, au cours duquel Aurélie Filippetti avait indiqué que le Ministère de la Culture était lui aussi associé à ces réflexions.

Bonnet d’âne. Par Tintin44 – Sylvain Masson. CC-BY-NC-ND. Source : Flickr.

On sait pourtant que l’exception pédagogique et de recherche soulève en France de nombreuses difficultés dans sa mise en oeuvre, qui font qu’il est extrêmement complexe pour des enseignants et des élèves d’utiliser des contenus protégés par le droit d’auteur en restant dans les limites de la légalité. Cette situation avait d’ailleurs été déplorée à deux reprises sous le précédent gouvernement, dans les rapports de la mission Fourgous remis au Ministère de l’Éducation, sans entraîner de réactions du pouvoir en place.

Or lorsque l’on va voir le projet de loi révélé par Le Monde la semaine dernière, on se rend compte qu’en effet, la section 3 portant sur « La formation à l’utilisation des outils et des ressources numériques » comporte bien un article 12 qui prévoit une réforme de l’exception pédagogique. L’article 122-5 du Code de Propriété Intellectuelle serait reformulé ainsi :

[Lorsque l'oeuvre a été divulguée, l'auteur ne peut interdire] : La représentation ou la reproduction d’extraits d’oeuvres, sous réserve des oeuvres conçues à des fins pédagogiques et des partitions de musique, à des fins exclusives d’illustration dans le cadre de l’enseignement et de la recherche, y compris pour l’élaboration et la diffusion de sujets d’examen ou de concours organisés dans la prolongation des enseignements, à l’exclusion de toute activité ludique ou récréative, dès lors que le public auquel cette représentation ou cette reproduction est destinée est composé majoritairement d’élèves, d’étudiants, d’enseignants ou de chercheurs directement concernés, que l’utilisation de cette représentation ou cette reproduction ne donne lieu à aucune exploitation commerciale et qu’elle est compensée par une rémunération négociée sur une base forfaitaire sans préjudice de la cession du droit de reproduction par reprographie mentionnée à l’article L. 122-10.

Cette nouvelle formulation est très proche de la rédaction précédente de l’exception, mais elle en diffère en deux points :

1) La phrase excluait auparavant du champ de l’exception les « oeuvres réalisées pour une édition numérique de l’écrit« , c’est-à-dire les livres numériques essentiellement, mais aussi peut-être les pages web tout simplement ;

2) Cette nouvelle exception ajoute une usage possible des oeuvres protégées : « y compris pour l’élaboration et la diffusion de sujets d’examen ou de concours organisés dans la prolongation des enseignements« . A vrai dire, cela n’apporterait pas grand chose, car cet usage avait déjà été inclus dans les accords sectoriels que les Ministères signent avec les titulaires de droits pour la mise en oeuvre de l’exception.

Attention école. Par adeupa de Brest. CC-BY-NC-SA. Source : Flickr.

La nouveauté principale consiste donc à étendre le champ de l’exception pédagogique aux contenus de type livres numériques, alors qu’auparavant, il était seulement possible de numériser des oeuvres sur supports physiques afin d’en utiliser des extraits pour illustrer l’enseignement.

Ce n’est pas exactement rien, j’en conviens, notamment lorsque l’on sait à quel point les éditeurs scolaires mènent un lobbying forcené afin que les livres numériques restent en dehors du périmètre de cette exception, persuadés qu’ils sont que leur inclusion conduirait au pillage des contenus et à l’effondrement de leur marché.

Néanmoins, si la réforme en reste là, l’exception pédagogique et de recherche ne serait retouchée que de manière minimaliste. Ce n’est pas seulement une question de périmètre de l’exception qui se pose, mais aussi un dramatique problème de mise en oeuvre, découlant de la complexité imposée par les fameux accords sectoriels que j’ai mentionnés plus haut (voir cette présentation de Cédric Manara pour s’en convaincre).

Car les titulaires de droits ont obtenu que l’exception prévue par la loi ne puisse s’appliquer directement. Des accords sectoriels sont actuellement nécessaires pour délimiter exactement les usages autorisés pour chaque type de contenus et prévoir une rémunération versée de manière forfaitaire chaque année par les Ministères à des sociétés de gestion collective.

Or les commentateurs et les praticiens sont unanimes pour dire que ce système est quasiment inapplicable. Pour les livres, Michèle Battisti expliquait par exemple en avril dernier les règles ubuesques auxquelles étaient soumis les enseignants et les élèves :

Pas plus de 4 pages consécutives, pour une partition, 3 pages, pour un ouvrage de formation musicale, mais pour un livre, 5 pages qui, dans le nouvel accord peuvent ne plus être consécutives.  En outre, l’extrait ne doit pas représentent plus de 20 % de la pagination totale pour un ouvrage, pas plus de 10 % pour un périodique, pas plus de 5% pour un OCFP etc. [cad un manuel]

Les précisions sur la notion d’extraits sont utiles pour donner un ordre de grandeur, mais difficiles à respecter de manière scrupuleuse : va-t-on calculer à chaque fois qu’on n’a pas dépassé les 20 % accordés ou le nombre de 20 photos par travail pédagogique ?

Pour les livres numériques, le problème restera exactement le même si on se contente seulement de les inclure dans le périmètre de l’exception. Les titulaires de droits s’arrangeront pour fixer les contraintes les plus tatillonnes possibles, afin de limiter les usages au maximum, et dans le même temps, ils demanderont une augmentation sans doute sensible de leur rémunération (déjà de l’ordre de 2 millions d’euros par an)…

Si l’on veut vraiment s’attaquer à la refonte de cette exception, il faut commencer par supprimer ces accords sectoriels, qui ne sont rien d’autre qu’un moyen pour les titulaires de contrôler l’exception à leur guise et de la vider de sa substance. Par ailleurs, il faut retravailler en profondeur le texte pour le rendre applicable aux usages numériques, comme le Canada par exemple a su le faire en début d’année.

Telle qu’elle est formulée, l’exception n’est par exemple pas adaptée pour l’enseignement à distance et au e-learning, alors même que Vincent Peillon a annoncé sa volonté de faire en sorte que l’enseignement obligatoire puisse se faire par Internet. Le développement spectaculaire des MOOC (Massive Open Online Courses) annonce aussi un basculement rapide des pratiques éducatives qui nécessiterait de revoir en profondeur les limites de l’exception.

Comme le note PCInpact, le projet est également pour l’instant muet en ce qui concerne l’usage des logiciels libres à l’école. D’après ce que nous dit Numerama, il semblerait néanmoins qu’il y ait des éléments à propos des ressources éducatives ouvertes :

[...] l’éducation nationale va mettre en ligne des ressources numériques pédagogiques « prioritairement libres« , accessibles à tous. D’ici septembre prochain, des  »films audiovisuels accessibles en ligne gratuitement et libres de droit« , seront ainsi proposés « sur des points clés des enseignements fondamentaux« , ainsi que sur des « enseignements d’ouverture » comme l’éducation civique (valeurs républicaines, égalité femmes/hommes, respect entre les générations, entraide et coopération, vivre ensemble), la connaissance du monde et l’éducation artistique et culturelle.

C’est assurément un point intéressant (bien que l’expression « libre de droits« , juridiquement fautive fasse un peu grincer des dents…). Mais cela reste encore en retrait par rapport aux orientations très volontaires récemment prises par d’autres pays. L’Etat de Californie aux Etats-Unis et celui de la Colombie britannique au Canada ont ainsi voté des lois très ambitieuses en ce qui concerne le développement des manuels pédagogiques sous licence Creative Commons (Open Textbooks). Rien de tel côté français et on peut être certain ici aussi que le lobbying des éditeurs y est pour quelque chose, alors que des expériences convaincantes existent dans l’hexagone, comme Sésamath. On a vu également passé il y a peu sur Rue89 une proposition de licence globale pour les manuels scolaires, qui mériterait d’être étudiée.

Open Education. Par opensourceway. CC-BY-SA. Source : Flickr.

Plus largement, c’est l’opacité des discussions autour de cette refonte de l’exception pédagogique qui dérange. D’après les informations qui filtrent ici ou là, il y a bien des négociations en cours entre le Ministère de l’Éducation nationale, celui de la Culture et les titulaires de droits. Mais nous n’en savons rien et il n’est pas normal qu’un sujet aussi important soit débattu dans l’ombre.

Sans compter que cette exception ne concerne pas uniquement les usages à l’école, mais aussi le secteur de la recherche, qui est lui aussi entravé par les restrictions imposées dans l’usage des contenus protégés.

Alors même que ce projet de loi Peillon avance, la Mission Lescure, dans le point d’étape qu’elle a fait la semaine dernière, semble elle-aussi vouloir se saisir de ce sujet de l’exception pédagogique. Lors de son audition par la Mission, Creative Commons France a plaidé pour le développement du recours aux licences libres dans ce secteur, en apportant de nombreuses propositions.

En l’état actuel des choses, si l’on veut vraiment faire évoluer la situation, c’est ailleurs qu’il faudrait que la question soit traitée, au niveau par exemple des commissions des affaires culturelles de l’Assemblée et du Sénat, afin de garantir un minimum de transparence de la discussion et la prise en compte d’une pluralité de points de vue.

Assez de ces projets discutés dans l’ombre, directement entre les ministères et les titulaires de droits ! Qu’un vrai débat public puisse avoir lieu ! Les usages pédagogiques valent bien cela !


Classé dans:Penser le droit d'auteur autrement ... Tagged: éducation, Creative Commons, droit d'auteur, exception pédagogique, recherche, usages collectifs, voncent peillon

La British Library adopte la Public Domain Mark pour ses manuscrits enluminés

samedi 1 décembre 2012 à 16:54

Repéré grâce @K_rho sur Twitter, la Bristish Library a choisi d’utiliser la Public Domain Mark pour la diffusion de ses manuscrits enluminés numérisés.

http://i.creativecommons.org/p/mark/1.0/88x31.png

La Public Domain Mark constitue une signalétique, développée par Creative Commons International, que les institutions culturelles peuvent employer pour certifier qu’une oeuvre appartient bien au domaine public et la diffuser sans rajouter de couches de droits qui restreignent sa réutilisation. C’est une manière de respecter l’intégrité du domaine public en j’en avais parlé dans un précédent billet consacré aux bonnes pratiques en la matière.

Le fait qu’un établissement comme la British Library décide de l’utiliser est important. Jusqu’à présent, l’adoption de la Public Domain Mark est restée relativement confidentielle, même si Européana par exemple recommande son utilisation. Plusieurs établissements patrimoniaux avaient néanmoins ouvert la voie, comme la Bibliothèque nationale de Lettonie, la Bibliothèque nationale de Pologne ou la Bibliothèque de l’Etat de Bavière.

 Historiated initial and partial border with heraldic arms, at the beginning of Franchino Gafori's Theoriae Musicae Tractatus. Domaine public. Source : British Library

Historiated initial and partial border with heraldic arms, at the beginning of Franchino Gafori’s Theoriae Musicae Tractatus. Domaine public. Source : British Library

Le fait que l’une des plus grandes bibliothèques au monde se tourne vers cette solution ne peut que renforcer la Public Domain Mark. La British Library conforte ainsi son engagement en faveur de l’ouverture, puisqu’elle s’était déjà signalée en 2010 en publiant ses données bibliographiques sous licence CC0.

Il faut d’ailleurs noter que pour employer la Public Domain Mark, la British Library a pris sur elle d’assumer une part de risques juridiques, en raison d’une étrangeté de la législation britannique qui fragilise le domaine public, comme expliqué ci-dessous :

La loi de 1988 sur le droit d’auteur, les brevets et les designs indique que les oeuvres littéraires et artistiques qui n’ont pas été publiées demeurent protégées au Royaume-Uni jusqu’au 31 décembre 2039. Dès lors, une partie importante des collections de la bibliothèque demeure sous droits, y compris des manuscrits très anciens. Cependant, s’agissant de documents anonymes inédits créés il y a des siècles et appartenant au domaine public dans la plupart des autres pays, la bibliothèque estime qu’ils peuvent être diffusés sans causer de préjudice à quiconque. En tant qu’institution dont le rôle est de favoriser l’accès à la connaissance, nous avons en conséquence pris la décision de publier ces images théoriquement toujours protégées par le droit d’auteur sous la Public Domain Mark.

C’est tout à l’honneur de la British Library d’avoir su prendre ce risque mesuré au nom de la diffusion du domaine public.

clip_image002

Miniature of the Crucifixion. Domaine public. Source : British Library

Par ailleurs, et c’est également un point très intéressant, la British Library a choisi d’accompagner la Public Domain Mark par des recommandations non contraignantes, sous forme de Guidelines. Ces dispositions formulent des principes que la bibliothèque juge importants de respecter en cas de réutilisation des documents, mais elle n’a pas voulu pour autant en faire des règles juridiquement sanctionnées. Elle en appelle plutôt à l’esprit de responsabilité de ses usagers.

Cette partie des conditions d’utilisation est remarquablement rédigée et j’en propose ici cette traduction :

Ces consignes d’utilisation sont basées sur la bonne volonté. Elles n’ont pas de valeur contractuelle. Nous vous demandons simplement de les respecter.

Je trouve cette démarche particulièrement exemplaire. Elle a le mérite de ne pas confondre le registre du droit et de l’éthique, mais aussi de montrer que la bibliothèque considère le domaine public comme un véritable bien commun et qu’elle s’inscrit dans une communauté d’utilisateurs, auxquels elle rappelle l’importance du respect de certains principes, nécessaires pour que la ressource soit durable.

On passe ainsi d’une approche où les oeuvres patrimoniales sont des biens publics, envisagées comme des propriétés des institutions, à une approche où elles sont conçues comme des biens communs, dont la sauvegarde est confiée à toute une communauté sur la base de valeurs partagées.

Certes, toutes les oeuvres du domaine public numérisées figurant sur le site de la British Library ne bénéficient pas encore d’un tel traitement et certaines sont copyrightées, mais la politique adoptée en ce qui concerne ces manuscrits enluminés doit être saluée.

Dans le même temps en France, c’est le coeur même de la notion de domaine public qui est remis en cause par les pratiques des institutions culturelles. Par ailleurs, grâce à la vigilance de @BlankTextField, on a pu apprendre que l’idée d’instaurer un « domaine public payant » figurait dans le rapport établi par le Sénat à propos du projet de loi de finances 2013, certainement soufflée par la SACD et son directeur, Pascal Rogard.

Il est donc urgent de se mobiliser pour le domaine public et vous pouvez le faire par exemple en participant à l’opération Calendrier de l’Avent du domaine public 2013, organisée par SavoirsCom1.


Classé dans:Domaine public, patrimoine commun Tagged: british library, Domaine public, Public Domain Mark

« Information wants to be free », vous vous souvenez ?

vendredi 23 novembre 2012 à 18:22

C’est sans doute l’une des phrases les plus célèbres prononcées à propos d’Internet : en 1984, l’auteur américain Stewart Brand lance au cours de la première Hacher’s Conference organisée en Californie :

Information wants to be free.

Ces mots deviendront l’un des slogans les plus forts du mouvement de la Culture libre et ils rencontrent encore aujourd’hui des échos importants, avec l’affaire Wikileaks par exemple, les révolutions arabes ou le mouvement de l’Open Data. L’idée de base derrière cette formule consiste à souligner que l’information sous forme numérique tend nécessairement à circuler librement et c’est la nature même d’un réseau comme internet de favoriser cette libération.

Bits. Par sciascia. CC-BY-NC-SA. Source : Flickr.

Mais les choses sont en réalité un peu plus complexes et Stewart Brand dès l’origine avait parfaitement conscience que la libre circulation de l’information était un phénomène qui engendrerait des conflits :

On the one hand information wants to be expensive, because it’s so valuable. The right information in the right place just changes your life. On the other hand, information wants to be free, because the cost of getting it out is getting lower and lower all the time. So you have these two fighting against each other.

D’un côté, l’information veut avoir un prix, parce qu’elle a une grande valeur. Obtenir la bonne information au bon endroit peut tout simplement changer votre vie. D’un autre côté, l’information veut être libre, parce que le coût pour la produire devient de plus en plus faible. Nous avons une lutte entre ces deux tendances.

Ce conflit latent traverse toute l’histoire d’Internet et il atteint aujourd’hui une forme de paroxysme  qui éclate dans une affaire comme celle de la Lex Google.

Encapsuler l’information

Pour obliger le moteur de recherche à participer à leur financement, les éditeurs de presse en sont à demander au gouvernement de créer un nouveau droit voisin à leur profit, qui recouvrira les contenus qu’ils produisent et soumettra l’indexation, voire les simples liens hypertexte, à autorisation et à redevance.

Il est clair que si de telles propositions se transforment en loi dans ces termes, la première tendance de Stewart Brand aura remporté une victoire décisive sur l’autre et une grande partie des informations circulant sur Internet ne pourra plus être libre. La Lex Google bouleverserait en profondeur l’équilibre juridique du droit de l’information.

En effet, c’était jusqu’alors un principe de base que le droit d’auteur protège seulement les oeuvres de l’esprit, c’est-à-dire les créations originales ayant reçu un minimum de mise en forme. Cette notion est certes très vaste puisqu’elle englobe toutes les créations quels qu’en soient le genre, la forme d’expression, le mérite ou la destinationmais elle ne s’applique pas aux idées, aux données brutes et à l’information qui ne peuvent pas faire l’objet d’une appropriation et demeurent « de libre parcours ».

Ces éléments forment un « fonds commun », comme le dit le professeur Michel Vivant, dans lequel chacun peut venir puiser librement sans entrave pour alimenter ses propres réflexions et créations. Tout comme le domaine public, ce fonds commun joue un rôle primordial dans l’équilibre du système, afin que le droit d’auteur n’écrase pas d’autres valeurs fondamentales comme le droit à l’information ou la liberté d’expression.

Créer un droit voisin sur les contenus de presse reviendrait à « encapsuler » l’information dans une carapace juridique et à anéantir une grande partie de ce domaine public informationnel. L’information en elle-même, et non son expression sous forme d’articles, passerait subitement en mode propriétaire, avec peut-être même une mise en péril du simple droit à la citation.

Capsules. Par vinodw. CC-BY. Source : Flickr

A vrai dire, cette tendance à l’appropriation existe depuis longtemps. Elle s’est déjà manifestée par la création d’un droit des bases de données dans les années 90, dont l’application soulève de nombreuses difficultés. Des signes plus récents montrent qu’un revirement plus profond encore est en train de s’opérer dans la conception de la protection de l’information.

Les dépêches de l’AFP ont ainsi longtemps bénéficié d’une sorte de statut dérogatoire, comme si l’information brute qu’elle contenait et qu’elles étaient destinées à véhiculer primait sur le droit à la protection. Les juges considéraient traditionnellement que ces dépêches n’étaient pas suffisamment originales pour qu’on puisse leur appliquer un droit d’auteur, ce qui garantissait leur libre reprise. Mais l’AFP s’est efforcée de renverser le principe, en attaquant dès 2005 Google News devant les tribunaux, ce qui préfigurait d’ailleurs très largement les débats autour de la Lex Google.

Or en février 2010, le Tribunal de commerce de Paris a reconnu que les dépêches pouvaient présenter une certaine forme d’originalité susceptible d’être protégée :

[...] Attendu que les dépêches de l’AFP correspondent, par construction, à un choix des informations diffusées, à la suite le cas échéant de vérifications de sources, à une mise en forme qui, même si elle reste souvent simple, n’en présente pas moins une mise en perspective des faits, un effort de rédaction et de construction, le choix de certaines expressions [...]

L’affaire a été portée en appel, mais en attendant, l’information brute se trouve bien à nouveau recouverte par le droit d’auteur.

Demain, tous des parasites informationnels ?

Une affaire récente, qui a défrayé la chronique, va encore plus loin et elle pourrait bien avoir des retentissements importants, puisqu’elle tend à faire de chacun de nous des parasites en puissance de l’information, attaquables devant les tribunaux.

Jean-Marc Morandini vient en effet d’être condamné à verser 50 000 euros au journal Le Point, qui l’accusait de piller régulièrement la partie Médias 2.0 de son site, afin d’alimenter ses propres chroniques. Le jugement de la Cour d’Appel de Paris qui a prononcé cette condamnation est extrêmement intéressant à analyser, car il nous ramène au coeur de la tension autour de l’information libre formulée par Stewart Brand.

En effet, le juge commence logiquement par examiner si les articles repris sur Le Point peuvent bénéficier de la protection du droit d’auteur. Et là, surprise, sa réponse est négative, en vertu d’un raisonnement qui rappelle la position traditionnelle sur les dépêches AFP. La Cour estime en effet que les brèves figurant dans cette rubrique Medias 2.0 constituent des articles « sans prétention littéraire, ne permet[tant] pas à leur auteur, au demeurant inconnu, de manifester un véritable effort créatif lui permettant d’exprimer sa personnalité ». C’est dire donc qu’elles ne sont pas suffisamment originales pour entrer dans le champ du droit d’auteur, le journaliste qui les rédige (Emmanuel Berretta) se contentant de diffuser de l’information brute.

Parasite. Par Clearly Ambiguous. CC-BY. Source : Flickr.

Nous sommes donc bien en dehors de la sphère de la contrefaçon, mais les juges ont tout de même estimé que Morandini méritait condamnation, sur la base du fondement de la concurrence déloyale et du parasitisme. La Cour reconnaît que le journaliste imite Le Point « avec suffisamment de différences pour éviter le plagiat, notamment en modifiant les titres des brèves et articles repris », mais elle ajoute qu’il tend ainsi ainsi « à s’approprier illégitimement une notoriété préexistante sans développer d’efforts intellectuels de recherches et d’études et sans les engagements financiers qui lui sont normalement liés ». Plus loin, elle explique qu’ « il ne suffit pas d’ouvrir une brève par la mention « Selon le journal Le Point » pour s’autoriser le pillage quasi systématique des informations de cet organe de presse, lesquelles sont nécessairement le fruit d’un investissement humain et financier considérable ».

On est donc en plein dans la première partie de la citation de Stewart Brand : « information wants to be expensive, because it’s so valuable« . L’avocat du Point commentait de son côté la décision en ces termes :

Qu’il y ait une circulation de l’information sur Internet, du buzz, des reprises…, c’est normal, c’est la vie du Web, reprend Me Le Gunehec. Nous l’avions dit franchement à la cour d’appel, et elle le sait bien. Mais elle a voulu rappeler qu’il y a une ligne jaune : se contenter de reprendre les informations des autres, sous une forme à peine démarquée, avec quelques retouches cosmétiques pour faire croire à une production maison, cela ne fait pas un modèle économique acceptable. Et on pourrait ajouter : surtout quand cette information est exclusive.

Cette dernière phrase est très importante. Ce qu’elle sous-entend, c’est que celui qui est à l’origine d’une information exclusive devrait pouvoir bénéficier d’un droit exclusif sur celle-ci pour pouvoir en contrôler la diffusion et la monétiser. La logique du droit jusqu’à présent était pourtant exactement inverse : pas de droit exclusif sur l’information elle-même… même (voire surtout) exclusive !

Sans avoir aucune sympathie particulière pour Morandini, il faut considérer qu’un tel raisonnement peut aboutir à faire de nous tous des parasites de l’information en puissance, car nous passons notre temps à reprendre des informations piochées en ligne sur Internet (moi le premier). Certains commentaires ont d’ailleurs fait remarquer à juste titre que cette jurisprudence heurtait de front le développement des pratiques de curation de contenus en ligne.

Revendiquer un droit exclusif sur l’information brute elle-même, différent du droit d’auteur sur son expression, c’est d’une certaine façon courir le risque de permettre l’appropriation de la réalité elle-même. Qu’adviendrait-il d’un monde où l’information serait ainsi protégée ? Certains ont essayé de l’imaginer.

Un monde où l’information est copyrightée ?

Il se trouve que la science-fiction a déjà exploré cette possibilité et la vision qu’elle nous livre est assez troublante. Elle donne beaucoup à réfléchir sur cette crispation que l’on constate à propos du droit de l’information.

Dans sa nouvelle d’anticipation  »Le monde, tous droits réservés«  figurant dans le recueil éponyme, l’auteur Claude Ecken imagine justement un monde dans lequel l’information pourrait être copyrightée et les conséquences que cette variation pourrait avoir sur les médias et la société dans son ensemble.

Dans un futur proche, l’auteur envisage que la loi a consacré la possibilité de déposer un copyright sur les évènements, d’une durée de 24 heures à une semaine, qui confère un droit exclusif de relater un fait, empêchant qu’un concurrent puisse le faire sans commettre un plagiat. A l’inverse de ce qui se passe aujourd’hui avec la reprise des dépêches des agences AFP ou Reuters, les organes de presse se livrent à une lutte sans merci pour être les premiers à dénicher un scoop sur lequel elles pourront déposer un copyright.

L’intérêt de la nouvelle est de développer dans le détail les implications juridiques et économiques d’un tel mécanisme. Les témoins directs d’un évènement (la victime d’une agression, par exemple) disposent d’un copyright qu’ils peuvent monnayer auprès des journalistes. Lorsqu’une catastrophe naturelle survient, comme un tremblement de terre, c’est cette fois le pays où l’évènement s’est produit qui détient les droits sur l’évènement, qu’elle vendra à la presse pour financer les secours et la reconstruction.

Et immanquablement, cette forme d’appropriation génère en retour des formes de piratage de l’information, de la part de groupuscules qui la mettent librement à la disposition de tous sous la forme d’attentats médiatiques, férocement réprimés par le pouvoir en place, ce qui rappelle étrangement l’affaire Wikileaks, mais transposée à l’échelle de l’information générale.

Si Claude Ecken s’applique à démontrer les dangers d’un tel système, il laisse aussi son héros en prendre la défense :

Avant la loi de 2018, les journaux d’information se répétaient tous. Leur spécificité était le filtre politique interprétant les nouvelles selon la tendance de leur parti. Il existait autant d’interprétations que de supports. Le plus souvent, aucun des rédacteurs n’avait vécu l’évènement : chacun se contentait des télex adressés par les agences de presse. On confondait journaliste et commentateur. Les trop nombreuses prises de position plaidaient en faveur d’une pluralité des sources mais cet argument perdit du poids à son tour : il y avait ressassement, affadissement et non plus diversité. L’information était banalisée au point d’être dévaluée, répétée en boucle à l’image d’un matraquage publicitaire, jusqu’à diluer les événements en une bouillie d’informations qui accompagnait l’individu tout au long de sa journée. Où était la noblesse du métier de journaliste ? Les nouvelles n’étaient qu’une toile de fond pour les médias, un espace d’animation dont on ne percevait plus très bien le rapport avec le réel. Il était temps de revaloriser l’information et ceux qui la faisaient. Il était temps de payer des droits d’auteur à ceux qui se mouillaient réellement pour raconter ce qui se passait à travers le monde.

Dans un commentaire de la décision rendue à propos de Morandini, on peut lire ceci : « Même sur Internet, le journaliste se doit d’aller chercher lui-même l’information !« . Vous voyez donc que l’on n’est plus très loin de l’histoire imaginée par Claude Ecken…

***

L’information veut être libre. Par Pierre Selim. CC-BY. Source : Flickr.

Information wants to be free… c’était le rêve qu’avait fait la génération qui a assisté à la mise en place d’internet, puis du web, et ce rêve était beau. Mais la puissance de la pulsion appropriatrice est si forte que c’est une dystopie imaginée par la science-fiction qui est en train de devenir réalité, à la place de l’utopie d’une information libre et fluide. Avec l’information brute, c’est la trame de la réalité elle-même que l’on rend appropriable, ce qui rappelle également les dérives dramatiques que l’on avait pu constater lors des derniers Jeux Olympiques de Londres, à l’occasion desquels les autorités olympiques ont défendu leurs droits exclusifs sur l’évènement avec une férocité alarmante.

Il existe pourtant une autre façon de concevoir les choses, à condition de quitter le prisme déformant des droits exclusifs. Au début de la polémique sur la Lex Google, j’avais en effet essayé de montrer que l’on peut appliquer le système de la légalisation du partage non-marchand aux contenus de presse et, couplé à la mise en place d’une contribution créative, il pourrait même assurer aux éditeurs et aux journalistes des revenus substantiels tout en garantissant la circulation de l’information et la liberté de référencer.

L’information veut être libre, c’est sa nature même, mais il nous reste à le vouloir aussi…


Classé dans:Quel Droit pour le Web 2.0 ? Tagged: AFP, copyright, droit d'auteur, droit voisin, Google, information, Lex Google, morandini, presse, science-fiction