PROJET AUTOBLOG


Owni

Archivé

source: Owni

⇐ retour index

Le non commercial, avenir de la culture libre

jeudi 18 octobre 2012 à 11:01

Depuis le mois d’avril 2012, la fondation Creative Commons International a annoncé qu’une nouvelle version de ses licences (la 4.0) allait être publiée et un appel à commentaires a été lancé pour inviter la communauté à participer à la réflexion.

Des modifications importantes sont envisagées, comme le fait de globaliser les licences pour ne plus avoir à les adapter pays par pays, en fonction des législations nationales. Mais c’est une autre question qui s’est imposée dans les discussions : celle de la conservation ou non de la clause Non Commercial – Pas d’Utilisation Commerciale (NC).

Il s’agit à vrai dire d’un vieux débat qui divise le monde du libre depuis des années. A la différence des licences libres ou Open Source nées dans le secteur du logiciel, les licences Creative Commons proposent à leurs utilisateurs une option pour autoriser la réutilisation de leurs oeuvres, tout en maintenant l’interdiction de l’usage commercial.

Si l’on en croît le graphique ci-dessous, publié par Creative Commons dans la brochure The Power of Open, l’option NC est retenue par une majorité d’utilisateurs : 60% sur les quelques 450 millions d’oeuvres placées sous licence Creative Commons. Si l’on observe un site comme Flickr, la plateforme de partage de photographies, la tendance est plus forte encore : sur les 240 millions de photos sous licence Creative Commons que contient Flickr, 170 millions comportent une clause Non Commercial, soit 71%.

En dépit de cette large adoption, le monde du libre est agité de débats pour savoir si de telles clauses sont compatibles avec les exigences de la Culture libre et si elles ne devraient pas tout simplement être supprimées des choix offerts par les licences Creative Commons.

Quand les licences Creative Commons ont commencé à devenir visibles, la communauté du libre, familiarisée avec les problématiques du logiciel, a fraîchement accueilli ces clauses NC. Une partie de la communauté a alors considéré que les licences interdisant les usages commerciaux ne devaient pas être considérées comme des licences “libres”. Une autre appellation a été mise en place pour les distinguer, celle de licences “de libre diffusion”.

Un label spécial a même été établi – et accepté par Creative Commons International – celui “d’oeuvre culturelle libre“, proche des quatre libertés du logiciel libre, accordé seulement à certaines licences parmi celles que propose Creative Commons : la CC-BY (Attribution), la CC-BY-SA (Attribution – Partage dans les mêmes conditions, qui est la licence de Wikipédia) et la CC0 (versement volontaire au domaine public).

Beaucoup de critiques adressés à la clause non commerciale portent sur son imprécision et il est vrai que la formulation actuelle des licences peut paraître ambigüe :

L’Acceptant ne peut exercer aucun des droits qui lui ont été accordés à l’article 3 d’une manière telle qu’il aurait l’intention première ou l’objectif d’obtenir un avantage commercial ou une compensation financière privée. L’échange de l’Œuvre avec d’autres œuvres soumises au droit de la propriété littéraire et artistique par voie de partage de fichiers numériques ou autrement ne sera pas considérée comme ayant l’intention première ou l’objectif d’obtenir un avantage commercial ou une compensation financière privée, à condition qu’il n’y ait aucun paiement d’une compensation financière en connexion avec l’échange des œuvres soumises au droit de la propriété littéraire et artistique.

Qu’est-ce exactement qu’un “avantage commercial” ou une “compensation financière privée” ? Le  “non-commercial” est défini de manière à inclure le partage non-marchand de fichiers, mais la délimitation avec les activités commerciales reste incertaine. Conscient du problème, Creative Commons avait publié en 2009 un rapport sur la question, soulignant la difficulté à tracer la distinction entre commercial et non commercial, mais sans apporter de réelles solutions.

Pour la version 4.0, l’intention de départ sur ce point était seulement d’essayer de clarifier la définition du NC, mais le débat a dévié vers l’opportunité de supprimer purement et simplement l’option. Plusieurs voix importantes se sont élevées pour réclamer cette réforme, comme celle de Rufus Pollock, l’un des co-fondateurs de l’Open Knowledge Foundation. Il soutient notamment que la clause non-commerciale est incompatible avec la notion de biens communs.

En France, Framablog s’est fait l’écho de ces débats, en publiant une série de traductions en défaveur de la clause non-commerciale (1, 2, 3), suivi par Stéphane Bortzmeyer sur son blog.

A contrecourant de ce pilonnage en règle, je voudrais ici montrer que la suppression de la clause non-commerciale serait une très mauvaise idée pour la défense de la Culture libre. La notion de “non-commercial” revêt même une importance stratégique décisive pour l’avenir, dans la mesure où, au-delà des licences Creative Commons, elle sert de pivot aux grands projets globaux de réforme du système de la propriété intellectuelle.

Plutôt que de la saper, les communautés du libre devraient plutôt contribuer à la réflexion pour la rendre la plus opérationnelle possible. C’est l’avenir de la réforme du droit d’auteur qui passera par le non-commercial (ou ne passera pas…).

Le faux argument du flou juridique

Le principal argument employé contre la clause “non commercial” réside dans le fait que la notion serait floue et qu’elle génèrerait de fait une insécurité juridique trop importante. Tous les détracteurs mettent en avant l’imprécision dans leur critique et on la retrouve notamment  chez Eric Raymond, repris sur Framablog :

Ce pourquoi elle devrait être enlevée n’a rien à voir avec aucune profonde philosophie ou politique couramment apportées dans le débat, et tout à voir avec le fait qu’il n’y a pas de critère légal de démarcation pour “activité commerciale”. Cette mauvaise définition se reflète dans les débats pour le terme commercial, qui signifie transaction financière ou lucratif, et c’est l’exacte raison pour laquelle l’Open Source Definition interdit aux licences logicielles open source de disposer de restrictions similaires.

Le groupe fondateur de l’OSI, après avoir étudié la possibilité, a conclu que l’attribut “NC” au sein d’une licence open source créerait une trop grande confusion au regard des droits et obligations, de trop nombreux effets secondaires sur des comportements que nous ne souhaitons pas encourager, et trop d’ouvertures possibles pour les plaideurs compulsifs. Ce qui est uniquement une source de contentieux au sein de notre communauté pourrait se révéler destructeur pour elle si des tribunaux antipathiques venaient à prendre des décisions défavorables, même de faible portée.

La première chose que l’on peut relever, c’est que le risque évoqué des “plaideurs compulsifs” ne s’est pas réalisé, depuis 10 ans bientôt qu’existent les licences Creative Commons.

Copier, coller, respirer !

Copier, coller, respirer !

Déformer, détourner, transformer, partager : le remix et le mashup nous enrichissent, à l'image de ...

Les procès ont été très rares (il n’y en a même aucun encore en France à propos des CC). Un certain nombre d’affaires cependant peuvent être citées ailleurs dans le monde, dans lesquelles les juges ont reconnu à chaque fois la validité des licences Creative Commons, lorsque des auteurs ont réclamé le respect des conditions qu’ils avaient fixées (pas du tout des plaideurs compulsifs donc, mais un usage “normal” et légitime des contrats que sont les Creative Commons).

Or plusieurs fois, les auteurs se plaignaient qu’un usage commercial avait été réalisé de leur oeuvres, alors qu’ils avaient fait le choix de les interdire par le biais d’une clause NC. Ce fut le cas en 2006 aux Pays-Bas (vente de photos par un magazine), en 2009 en Israël (photographies postées sur Flickr revendues incorporées à des collages), en 2009 encore en Belgique (reprise d’une musique dans une publicité pour un théâtre). Dans les trois cas, les juges n’ont eu aucune difficulté à établir que la clause NC avait été violée et les décisions n’ont pas fait l’objet d’un appel. Pas si mal, non, pour une clause jugée irréparablement imprécise !

La soi-disant imprécision du NC n’est en fait que relativement limitée. Il est vrai qu’elle affecte certains points importants : le fait de reprendre une oeuvre sur un site générant des revenus par le biais de publicités par exemple, ou encore celui d’utiliser une oeuvre dans un contexte pédagogique impliquant des échanges financiers (cours payant, formateur rémunéré, etc).

Mais pour l’essentiel, la définition du NC est largement opératoire. Un exemple intéressant à citer à ce propos réside dans le billet Complexité de la clause Non Commerciale des licences Creative Commons : la preuve par l’exemple, écrit par Evan Podromou et traduit par Framablog.

L’auteur liste une longue série de cas d’usages et essaie de montrer par ce biais l’imprécision de la clause NC. Mais il se trouve qu’en réalité, Evan Podromou apporte exactement la preuve inverse de celle qu’il voulait donner : dans la majorité des cas, il est capable de déterminer avec une certitude suffisante comment la clause doit être appliquée. Ce n’est que dans des hypothèses improbables et tarabiscotées que la clause est prise en défaut. Sur l’essentiel, elle tient largement la route :

  • Un éditeur télécharge un livre sous licence CC by-nc 2.0 sur internet, en fait un tirage de 100 000 exemplaires et le vend en librairies dans le pays. (Non)
  • Un particulier télécharge un livre sous licence CC by-nc 2.0 sur son ordinateur et le lit. (Oui)
  • Un particulier télécharge un livre sous licence CC by-nc 2.0 sur son ordinateur, l’imprime sur son imprimante, et lit le document imprimé. (Oui)
  • Un particulier télécharge un livre sous licence CC by-nc 2.0 sur son ordinateur et l’envoie par courriel à un ami. (Oui)
  • … et le partage avec le monde sur son site web. (Oui)
  • … et le partage avec le monde via un réseau P2P. (Oui)
  • Un particulier télécharge un livre sous licence CC by-nc 2.0 sur son ordinateur, l’imprime sur son imprimante et le donne à un ami. (Oui)

Après ça, je veux bien que l’on soutienne que l’idéologie ou la philosophie ne jouent aucun rôle dans le rejet de la clause NC, mais il me semble au contraire que l’idéologie a beaucoup de choses à voir avec la manière dont certains l’appréhendent, alors qu’une analyse juridique objective aboutit à de toutes autres conclusions.

Mettre en avant le flou juridique pour rejeter une notion, c’est aussi méconnaître profondément la manière dont fonctionne le droit lui-même. Le droit en réalité n’est jamais une matière “en noir et blanc”, même quand il utilise des catégories binaires. Il est rempli de “zones grises”, qui sont autant de marges de manoeuvre laissées aux juges pour adapter la règle de droit à la réalité, toujours mouvante.

Didier Frochot explique très bien sur le site les Infostratèges que ces zones grises du droit jouent en fait un rôle fondamental pour l’équilibre du système :

Les zones grises sont une inévitable conséquence du fait que le droit est une science humaine : rêver de supprimer ces zones reviendrait à enfermer les êtres humains dans ces règles strictes et à leur interdire de vivre et d’évoluer. C’est peut-être le cas sous des régimes autoritaires dans lesquels peu de place est laissée à la liberté de l’homme, mais dans des pays libres, c’est la rançon du respect des libertés fondamentales.

Dans les pays respectueux des libertés donc, le couple droit écrit — jurisprudence est là pour définir les grands principes par écrit et délimiter la frontière au coup par coup et à mesure de l’évolution de la société, afin de réduire le plus possible ces fameuses zones grises.

Frochot rappelle aussi que beaucoup de notions juridiques comportent une marge d’incertitude quant à leur application (l’originalité, la vie privée, la diffamation, l’injure, etc). Faut-il pour autant les supprimer ? Il ne resterait plus grand chose dans les Codes ! Et d’ajouter cet argument essentiel :

Mieux vaut considérer la vérité statistique : dans la majeure partie des cas, on sait précisément de quel côté de la frontière juridique on se trouve.

C’est le cas pour la clause NC, comme le démontre justement l’article de Framablog cité ci-dessus.

Par ailleurs, remarquons que les tenants de la suppression de la clause NC sont en général de farouches défenseurs du Partage à l’identique (Share Alike ou SA), autre option des licences Creative Commons. Or les effets de cette dernière sont tout aussi difficiles à déterminer, sinon davantage.

Un exemple éclatant en avait été donné lors de l’affaire Houellebecq contre Wikipédia, lorsque l’écrivain Michel Houellebecq avait été accusé d’avoir plagié des articles de Wikipédia en incorporant des extraits dans son roman sans citer la source. Les avis s’étaient partagés sur le point de savoir si l’effet viral de la licence CC-BY-SA de Wikipédia s’était déclenché à l’occasion d’une telle incorporation. Impossible de le déterminer : seul un juge en définitive aurait pu trancher avec certitude la question.

Supprimer la clause NC parce qu’elle est trop imprécise, pourquoi pas ? Mais si l’imprécision est la véritable raison, il faudrait aussi supprimer la clause SA !

Toutes les oeuvres ne sont pas des logiciels

Une source de confusions dans ce débat réside dans le fait que les détracteurs de la clause NC sont en général issus de la communauté du logiciel libre et ils restent fortement imprégnés de la logique particulière de ce domaine. Mais cette dernière n’est pas généralisable à l’ensemble des champs de la création, dans la mesure où toutes les oeuvres ne sont pas assimilables à des logiciels.

Dans le domaine du logiciel libre, la clause de Partage à l’identique (SA) joue en effet un rôle important de régulation, dans la mesure où elle se déclenche fréquemment en cas de réutilisation de l’oeuvre. En effet, lorsqu’un réutilisateur modifie une oeuvre pour en produire une nouvelle, la clause SA s’applique et l’oblige à placer l’oeuvre dérivée sous la même licence (effet viral). Dans le cas d’un logiciel, la clause se déclenche fréquemment lors d’une réutilisation, car pour utiliser un logiciel dans un autre contexte que celui d’origine, il est souvent nécessaire d’adapter le code. Cela induit un rapport particulier être les communautés développant les logiciels libres et le secteur marchand,  évitant que leurs créations soient réappropriées de manière exclusive. C’est aussi le cas pour les wikis, où l’usage même implique une modification, ce qui fait que la licence CC-BY-SA convient très bien à Wikipédia.

Mordre les photographes

Mordre les photographes

L’Union des Photographes Professionnels (UPP) lance un pavé dans l'argentique en réclamant la fin de la gratuité et du ...

Mais pour les oeuvres non-logicielles, les hypothèses de déclenchement de la clause SA sont plus rares. L’auteur d’un roman par exemple ne pourra pas empêcher que son oeuvre soit vendue, telle quelle par un éditeur s’il la place simplement sous licence BY-SA. Pour la photographie, c’est encore plus le cas. Les photos peuvent facilement être réutilisées sans modification, comme illustrations. Dans cette hypothèse, le partage à l’identique ne se déclenche pas.

Le problème, c’est que lorsqu’on examine les modèles économiques des acteurs qui utilisent les licences Creative Commons, on constate que dans bien des situations, ils reposent sur la réservation de l’usage commercial. Pour un auteur de textes par exemple, il arrive que des éditeurs acceptent que des oeuvres soient publiées par leur soin en papier, tout en permettant que les versions numériques circulent en ligne sous licence Creative Commons. Mais cette hypothèse est déjà rare (tout le monde n’est pas aussi militant que Framabook !) et elle le serait encore davantage, s’il n’était pas possible de réserver les usages commerciaux avec des licences NC.

Il existe également des photographes (Trey Ratcliff, Jonathan Worth), qui font le choix de diffuser leurs clichés sur Internet sous licence Creative Commons. Ils utilisent les forces du partage pour gagner en notoriété et faire connaître leurs oeuvres. Mais leur modèle économique repose sur la possibilité de continuer à tarifier les usages commerciaux, qu’il s’agisse de publications dans des médias ou d’expositions. On peut supprimer la clause NC, mais quel modèle économique pourra alors être mis en place dans le champ de la photo, hormis peut-être le crowdfunding ?

Toutes les oeuvres ne sont pas des logiciels et certains secteurs ont besoin de la clause NC pour que se constitue une économie du partage.

Défendre le non commercial, au lieu de le dénigrer

Le problème de la clause NC n’est pas tant l’imprécision que la généralité et on peut reprocher à Creative Commons International de ne pas avoir fait suffisamment de choix concernant la définition.

Car il serait assez simple en définitive de trancher une fois pour toutes les incertitudes affectant la notion. La discussion sur le site de Creative Commons à propos du passage à la version 4.0 est instructive à cet égard. 12 propositions avaient été faites dont certaines auraient pu apporter de réelles améliorations. Par exemple, préciser explicitement si la diffusion sur un site comportant de la publicité est un usage commercial ou non. Ou déterminer si un usage pédagogique doit être considéré ou non comme non-commercial, même s’il implique des échanges monétaires.

Mais pour cela, il aurait fallu que la communauté Creative Commons soit en mesure de choisir et il semble que ce soit davantage ce problème de gouvernance qui bloque l’évolution de la définition de la clause NC. La fondation Creative Commons s’oriente visiblement vers un maintien en l’état de la clause NC, ce qui ne manquera de faire grincer des dents, mais paraît l’option la plus sage, faute de consensus.

D’autres propositions intéressantes sont sur la table. Dans ce billet traduit en français par Paul Netze sur son site Politique du Netz, Rick Falkvinge du Parti Pirate Suédois propose une autre forme de définition, orientée vers la nature de la personne en cause :

En définissant l’usage commercial comme un “usage par une entité légale qui n’est pas une personne naturelle ou une association à but non-lucratif”, vous l’appliquez uniquement aux entreprises à but lucratif. Vous permettez aux particuliers de vendre des disques à la sauvette au pied du camion, mais vous évitez les arnaques à grande échelle qui se règlent désormais dans les salons feutrés des cabinets d’avocat. Vous permettez aux gens de partager pour autant que cela n’équivaut pas à un emploi dans une entreprise. C’est la meilleure définition que j’ai vue jusqu’ici.

C’est une approche “organique”, mais on peut en concevoir d’autres d’ordre “matériel”, comme de réduire strictement le commercial à la vente du contenu. On peut aussi procéder de manière téléologique en définissant le commercial par le but lucratif.

Toutes ces hypothèses sont ouvertes, mais encore faudrait-il choisir !

Du commerce et des licences libres

Du commerce et des licences libres

La dessinatrice américaine Nina Paley a publié 20.000 de ses minibooks grâce aux dons de contributeurs. OpenUtopia ...

L’important cependant, c’est de défendre le non-commercial contre les tentatives majeures de distorsion qu’il pourrait subir. Ce fut le cas notamment avec l’accord passé l’an dernier entre la SACEM et Creative Commons. La SACEM a accepté que ses membres puissent placer certaines des oeuvres de leur répertoire sous CC. Elle limite cependant cette option aux licences CC comportant la clause NC, ce qui me paraît compréhensible étant donné la nature de l’acteur. Mais à cette occasion, la définition du non-commercial a été modifiée à la demande la SACEM pour recouvrir un nombre important d’usages publics (par exemple, la simple diffusion dans un espace accessible au public). C’est une dérive grave et on ne devrait pas laisser évoluer ainsi la définition du non-commercial !

Mais pour cela, il faudrait que les communautés du libre participent à la défense du non-commercial face à ce genre d’agressions, plutôt que de le dénigrer systématiquement. D’autant plus que le non-commercial est appelé à jouer un rôle stratégique majeur pour l’avenir, au-delà de la question des licences.

Le non commercial, nouvelle frontière de la réforme du droit d’auteur ?

La notion de non-commercial joue en effet un rôle clé dans les propositions les plus élaborées actuellement pour penser la réforme du droit d’auteur. Les Éléments pour une réforme du droit d’auteur et les politiques culturelles liées, soutenus par la Quadrature du Net, s’articulent autour de la légalisation du partage non-marchand. Philippe Aigrain propose une définition volontairement restrictive du non-marchand, se rapprochant de l’usage personnel, afin d’éviter la centralisation des fichiers :

Constitue un partage entre individus toute transmission d’un fichier (par échange de supports, mise à disposition sur un blog ou sur un réseau pair à pair, envoi par email, etc.) d’un lieu de stockage “ appartenant à l’individu ” à un lieu de stockage “ appartenant à un autre individu ”. “ Appartenant à l’individu ” est évident quand il s’agit d’un ordinateur personnel, d’un disque personnel ou d’un smartphone. Mais cette notion recouvre aussi un espace de stockage sur un serveur, lorsque le contrôle de cet espace appartient à l’usager et à lui seul (espace d’un abonné d’un fournisseur d’accès sur les serveurs de ce FAI, hébergement cloud si le fournisseur n’a pas de contrôle sur le contenu de cet hébergement).

Un partage est non-marchand s’il ne donne lieu à un aucun revenu, direct ou indirect (par exemple revenu publicitaire) pour aucune des deux parties. La notion de revenu est à entendre au sens strict comme perception monétaire ou troc contre une marchandise. Le fait d’accéder gratuitement à un fichier représentant une œuvre qui fait par ailleurs l’objet d’un commerce ne constitue en aucun cas un revenu.

Un même rôle décisif est alloué au non-commercial dans le programme du Parti Pirate, dont on retrouve les grandes lignes dans l’ouvrage The Case For Copyright Reform, traduit à nouveau en français par Paul Netze.

Nous voulons que le droit d’auteur redevienne ce pourquoi il a été conçu, et rendre clair qu’il ne doit réguler que les échanges commerciaux. Copier ou utiliser un travail protégé sans but lucratif ne devrait jamais être interdit. Le pair à pair est, entre autres, une bonne raison pour cette légalisation.

Et les auteurs, Rick Falkvinge et Christian Engström, insistent sur le caractère globalement opérationnel de la distinction Commercial/Non commercial :

Nous possédons déjà un arsenal juridique qui fait la distinction entre intention commerciale et non commerciale, incluant la législation sur le droit d’auteur telle qu’elle existe aujourd’hui. C’est une bonne chose que les tribunaux aient déjà établi une jurisprudence afin de déterminer ce qui est commercial ou pas [...] de façon générale, la limite entre activité commerciale et non commerciale est grossièrement à l’endroit où vous vous y attendiez.

Même Richard Stallman, libriste parmi les libristes, admet dans son projet global de réforme du système que la notion de non-commercial joue un rôle, pour les oeuvres d’art ou de divertissement !

Pour qu’il connaisse une évolution en profondeur, le système du droit d’auteur a besoin d’une réforme de grande ampleur. Il est clair que les projets politiques les plus élaborés ont besoin de la distinction entre le commercial et le non-commercial. D’une certaine manière, il s’agit même de la nouvelle frontière à atteindre. Dénigrer le non-commercial, en soutenant que la notion est vicieuse, c’est saper les chances qu’une telle réforme advienne. Lourde responsabilité à assumer…

Les lois actuelles, conçues pour l’environnement analogique, fonctionnaient sur la distinction entre l’usage privé (permis) et l’usage public (interdit). Avec le numérique, cette ancienne distinction n’est plus opérationnelle, dans la mesure où tout ou presque s’effectue “en public” sur Internet. C’est pourquoi le droit d’auteur a besoin d’une nouvelle grande distinction pour conditionner son application.

Et jusqu’à preuve du contraire, c’est la distinction commercial/non-commercial qui est la meilleure candidate pour ce rôle, en favorisant une immense libération des usages, tout en maintenant une sphère économique pour la création.

L’enjeu d’une Culture libre “mainstream”

Plaidoyer pour une culture libre

Plaidoyer pour une culture libre

Dans le cadre du Tribunal pour les générations futures organisé mardi par le magazine Usbek et Rica, Lionel Maurel a ...

Au-delà de cet argument essentiel, ce débat rejoint un autre enjeu fondamental, qui est celui de la diffusion des valeurs de la Culture libre. Si l’on reprend l’exemple de Flickr cité ci-dessus, on remarque que la plateforme comporte 240 millions de photographies sous CC… mais sur plus de 6, 5 milliards au total ! Soit un peu plus de 3,6% seulement. C’est certes en soi une masse importante de contenus réutilisables, mais certains y voient néanmoins le signe d’un certain échec des Creative Commons, au moins à devenir “mainstream”.

10 ans après leur création, les CC demeurent cantonnés à une communauté réduite d’utilisateurs. Combien d’entre eux reviendraient en arrière si on leur enlevait la possibilité d’utiliser le NC ? Peut-être pas tous, c’est certain, mais au moins une part importante. Veut-on encore réduire le cercle des utilisateurs, quand celui-ci a déjà du mal à s’étendre ?

Car le point de vue “libriste” pur et dur est encore moins partagé. Il reste nettement ancré autour de la communauté du logiciel libre, avec quelques extensions aux artistes, comme le groupe réunit autour de la licence Art Libre en France, ainsi qu’à la communauté des wikipédiens.  Il a en outre la fâcheuse tendance à fonctionner à coup de stigmatisations et d’exclusions, comme ce fut encore le cas récemment avec les critiques qui ont fusé contre Yann Houry, ce professeur qui a été le premier a créé un manuel libre et gratuit sur iPad, mais en choisissant une licence comportant le NC. Immédiatement,  le premier réflexe libriste a été de le descendre (horreur, l’iPad !). Pourtant, l’usage de cette licence a paru encore trop subversif à Apple, puisque la firme a demandé le retrait de l’ouvrage de l’Appstore. Preuve s’il en est que l’initiative faisait bien bouger les lignes !

A titre personnel, je rejette catégoriquement cette distinction entre des licences qui seraient libres ou non, parce qu’elles contiendraient une clause NC. Il n’y a pas le “libre” d’un côté et le reste, mais un processus graduel de libération des oeuvres, ou mieux, de mise en partage de la création.

Psychologiquement, le stade essentiel à passer pour mettre en partage son oeuvre n’est pas d’autoriser l’usage commercial. Il est en amont, dans le passage d’une logique où l’interdiction est première (copyright/Tous droits réservés), à une logique où la liberté devient la règle et la restriction l’exception (le principe de base des Creative Commons). C’est ce renversement mental qui fait entrer dans la Culture libre et pas en soi l’abandon du droit patrimonial.

Si les “libristes” souhaitent que les auteurs aillent plus loin, à eux de les convaincre. Mais que le choix soit toujours laissé in fine à l’auteur, ce qui passe par l’acceptation du maintien de la clause non-commerciale.

PS : à titre indicatif, l’auteur de ces lignes précise qu’il utilise constamment pour ses propres créations la licence CC-BY et qu’il n’a donc pas d’intérêt direct dans ce débat. La thèse défendue ici l’est au nom de l’intérêt général.


Photo par Mikeblogs [CC-BY]

CETA craindre

lundi 15 octobre 2012 à 16:12

En juillet dernier, lorsque le Canadien Michael Geist, professeur de droit engagé en faveur des libertés numériques, a alerté sur le danger de CETA ce traité commercial Canada-UE potentiellement cheval de Troie d’ACTA, l’accord commercial fraîchement rejeté par le Parlement européen, certains ont tempéré : le texte fuité date de février, il n’est plus d’actualité, les lobbies ont échoué dans leur tentative d’imposer leur vision maximaliste de la propriété intellectuelle et du droit d’auteur.

Trois mois après, alors qu’un treizième round de négociations s’engage ce lundi, le scepticisme a fait place à l’inquiétude. Le Canada-European Union Trade Agreement (le CETA en question, donc), est en phase finale et l’embryon du brouillon laisserait augurer d’une sale bestiole.

Avant de poursuivre, arrêtons-nous un instant sur le terme “cheval de Troie” d’ACTA : on a pu croire que le document avait été mitonné exprès, devant la défaite annoncée du traité anti-contrefaçon. En réalité, la discussion a été entamée en 2009, dans un contexte général de libéralisation des échanges et de crispation des lobbies culturels, incapables de s’adapter aux mutations des usages engendrées par l’Internet.

Si CETA est venu sur le devant de la scène en plein ennui estival, c’est que la partie concernant la propriété intellectuelle et le droit d’auteur a fuité, “de façon opportune”, signale Jérémie Zimmermann, porte-parole de La Quadrature du Net (LQDN) et emblématique figure du combat contre ACTA. Un lobbyiste au taquet qui nous a redit ce que l’association martèle depuis cet été :

CETA, c’est comme ACTA.

Dubitatif naguère, le fondateur du Parti Pirate, le Suédois Rick Falkvinge tient désormais la même ligne :

Il apparait maintenant évident que les maux d’ACTA se retrouvent aussi pour l’essentiel dans CETA.

Il est donc devenu clair que les négociateurs essayent bien de passer outre les parlements en faisant leurs propres règles, un procédé qui est à la fois anti-démocratique et méprisable.

Les “maux” redoutés de nouveau, ce sont entre autres les atteintes aux libertés numériques, avec une plus grande responsabilisation des intermédiaires techniques qui porterait atteinte à la neutralité du Net, et un accès plus difficile et coûteux au médicaments. Avec, là encore, la possibilité de sanctions pénales pour les citoyens qui enfreindraient les dispositions. “Le texte parle ‘d’échelle commerciale’, c’est trop large alors qu’il faut considérer l’intention, si la personne agit avec un but lucratif ou non”, s’énerve Jérémie Zimmermann.

La Commission européenne rassurante

Après avoir refusé de communiquer au sujet de la fuite, la Commission européenne est finalement sortie du bois, pour démentir les accusations, et sans pour autant révéler le contenu entier de l’accord. Pour l’instant, il est entre les mains des négociateurs, de ce côté-ci la Commission européenne et la présidence de l’UE, assurée par Chypre, qui sont libres de le partager. Ou pas.

Sa position ? Les États-membres sont seuls décisionnaires sur le volet pénal, souveraineté oblige, elle ne peut que leur conseiller de ne pas appliquer les sanctions. Ce qui fait hurler la Quadrature, pour qui de toute façon “des sanctions pénales n’ont rien à voir dans un accord commercial.”

L’enjeu dans les jours qui viennent est donc de sensibiliser la tripotée de ministères concernés, Fleur Pellerin (PME, à l’Innovation et à l’Économie numérique), Pierre Moscovici (Économie et des Finances), Aurélie Filippetti (Culture et de la Communication), Bernard Cazeneuve (Affaires européennes), Laurent Fabius (Affaires étrangères) et Nicole Bricq (Commerce extérieur). Ils ont reçu la semaine dernière une lettre ouverte les appelant à “protéger nos libertés”.

Dossier en dessous de la pile ou petit mensonge du lundi matin, le cabinet de Fleur Pellerin nous a répondu :

Nous ne sommes pas au courant. Je pense qu’on ne l’a même pas reçu.

Pour mémoire, les eurodéputés socialistes avaient voté contre ACTA et faute d’être bien informé, le gouvernement actuel pourrait se retrouver en porte-à-faux vis à vis de la position de ses homologues du dessus.

Tabernacle

Outre-Atlantique, les opposants sont mobilisés depuis bien plus longtemps contre CETA et mettent l’accent sur les particularités du Canada. Le gouvernement conservateur est favorable à l’accord, soucieux de la balance commerciale du pays, comme a rappelé Claude Vaillancourt, président d’ATTAC Québec dans une tribune :

Le négociateur a répété une fois de plus l’importance de conclure rapidement l’AÉCG (CETA en français, ndlr) [...]. Puisque nos exportations aux États-Unis diminuent, il faut chercher de nouveaux marchés. Pourtant, nous sommes bel et bien liés par un accord de libre-échange avec ce pays, mais celui-ci ne donne plus les résultats attendus. Pourquoi dans ce cas un accord avec l’Europe serait-il tellement avantageux ? [...]

Les relations commerciales entre le Canada et l’Europe sont déjà excellentes et en progression. Ce qui a d’ailleurs été confirmé dans une étude conjointe, commandée par le Canada et l’Europe avant les négociations.

Ils craignent aussi que des dispositions de l’ALENA, l’accord de libre-échange nord-américain entre le Canada, les États-Unis et le Mexique, ne soient reproduites. Elles permettraient “de poursuivre des gouvernements par l’intermédiaire de tribunaux d’experts au fonctionnement non transparent”, met en garde Claude Vaillancourt. Et la possibilité d’ouvrir des marchés publics aux entreprises européennes fait redouter des services publics de moindre qualité.

Dans la ligne de mire du lobbying anti-CETA, les provinces, comme nous l’a détaillé Stuart Trew de Council of Canadians, une association militante citoyenne née lors des négociations de l’ALENA : “Les provinces ont un rôle important à jouer, similaire à celui des États-membres. Si le gouvernement fédéral a le dernier mot, elles ont toutefois un veto symbolique. Elles peuvent décider de ne pas le mettre en place. Ils font donc leur faire prendre conscience des dangers, car nous ne pensons plus pouvoir changer l’opinion du gouvernement.”

Optimisme #oupas

Le calendrier est serré, avec un vote au Parlement envisageable “dans les trois à six mois”, estime Jérémie Zimmermann. Guérilla de longue haleine, ACTA avait laissé ses adversaires victorieux mais épuisés. Un travail de lobbying qui porte ses fruits sur ce nouveau front : longs à la détente, les médias grand public sont désormais plus prompts à traiter ce sujet peu seyant, jargon numérico-juridico-institutionnel oblige. De même, le précédent dans l’engagement citoyen rassure. OpenMedia, une association canadienne militant pour un Internet ouvert, se montre optimiste,  évoquant l’évolution de la position sur le copyright :

Il y a des signes forts que l’engagement citoyen a un impact. La poussée contre ACTA venue de la communauté de l’Internet libre a mené à son rejet. [...] et Michael Geist a suggéré la semaine dernière qu’une pression continue mène les négociateurs à revoir l’inclusion des clauses d’ACTA sur le copyright dans CETA.

Rick Falvinge estime que la Commission européenne aura à cœur de ne pas commettre la même erreur :

Après la défaite d’ACTA au Parlement européen, la Commission serait sage d’écouter, à moins qu’elle ne souhaite une autre défaite humiliante.

Au final, c’est le Parlement qui la nomme. Un Parlement trop mécontent n’est pas souhaitable pour la Commission.

En dépit du compromis trouvé sur le copyright, Michael Geist nous a, au contraire, fait part de son pessimisme :

Le caractère secret de CETA  est un énorme problème et je crains que le gouvernement canadien cèdera à la pression de l’UE, simplement pour conclure un accord.

Et si les parties restent sur leurs positions, les opposants ont une carte dans leur manche aux relents de camembert bien de chez nous : les appellations géographiques sont en effet un enjeu majeur à régler, source potentiel de conflit avec les agriculteurs. Elles protègent des produits selon des critères plus ou moins stricts. Et l’UE tient à ses Appellations d’origine contrôlée. Sur ce point, il y a a priori désaccord :

L’Europe recherche fréquemment un changement du droit aux frontières et des droits étendus pour les appellations et la plupart des pays y sont opposés.

Des agriculteurs en colère, une perspective plus à même de réveiller les politiques français qu’une lettre ouverte. Mais il va falloir mettre vite les tracteurs dans la rue : les ministres des gouvernements entreront dans la danse en novembre.


Illustrations et couverture par Hiking Artist [CC-by-nc-nd]

Une culture, mais à titre exceptionnel

lundi 15 octobre 2012 à 14:45

Art by Banksy

Il y a des idées, comme ça, qui deviennent des dogmes sans qu’on sache très bien pourquoi. A force de les entendre répéter comme des évidences, plus personne n’a même l’idée de les remettre en question.

Il en va ainsi de notre très chère Exception Culturelle.

Mise en place dès après la seconde guerre mondiale, dans un autre temps – presque un autre monde – pour garantir la survie de la culture nationale face à la menace du méchant impérialisme américain, cette restriction au principe intangible de la concurence-libre-et-non-faussée perdure dans un espace devenu mondialisé, dans un cadre de moins en moins national mais de plus en plus européen, au seul profit d’une industrie qui – elle – a très bien su devenir multinationale.

Notre industrie culturelle y a gagné. Notre culture, quant à elle, a gentiment été glissée sous le tapis. Est-il permis de douter de l’intérêt de déverser des tombereaux d’argent public dans les poches profondes de nos ayants droit expatriés sans passer illico pour un ultra-libéral qui souhaite la mort du pauvre chansonnier bien de chez nous ?

Osons. Ces jours-ci on mange de l’exception culturelle à toutes les sauces.

Open Data

L’ouverture des données publiques culturelles existe à peu près partout. Ma mémoire de vieux con me fait souvenir qu’un des tout premiers sites web fut celui de la bibliothèque du Congrès américain. A l’époque en France c’était un étudiant qui proposait des images de tableaux du Louvre numérisés, mais pour des raisons juridiques il avait dû changer le nom de son site. Déjà aux origines du réseau on pouvait voir à l’oeuvre notre volonté de mieux diffuser notre culture. Et aujourd’hui ?

L’université de Yale a récemment placé 250 000 images issues de sa collection privée dans le domaine public. La vieille bibliothèque du Congrès a mis en ligne un “jukebox” de plus de 10 000 enregistrements audio réalisés entre 1901 et 1925 (avec l’accord de Sony Music). L’Europe a suivi avec Europeana en rendant libres toutes les métadonnées qu’elle publie.

Et en France ?

En France, la ministre de la Culture vient de répondre à la question que les données publiques culturelles sont exclues de la politique de l’Open Data, au nom de leur potentiel économique. Et de l’exception culturelle. Diversité culturelle ? Meilleure diffusion de la culture nationale ? No way les gars: il y a du fric en jeu, contentez-vous de la culture américaine.

Fiscalité

Nos grandes fortunes nationales sont expertes au jeu de la niche fiscale, et quoi de mieux que de placer son argent dans l’art, puisque celui-ci ne semble jamais connaître la crise ? Cherchant à équilibrer ses finances, la nouvelle assemblée a voulu que l’impôt sur la fortune soit élargi au patrimoine artistique. Pas celui dont tu disposes, ami lecteur : il n’était question de ne tenir compte que des oeuvres estimées à plus de 5 000 euros.

Que nenni ! Malgré un amendement portant la limite à 50 000 euros, c’est le gouvernement qui s’y oppose. Et pourquoi ? Et notre ministre de répondre: “au nom de l’exception culturelle”, bien sûr. Imaginez que nos oeuvres nationales fuient à l’étranger pour échapper à l’impôt, ce serait risquer une bien trop large diffusion de notre culture. Oh. Wait.

Cinéma

Le budget du Centre National du Cinéma a été sous les feux de l’actualité : grâce à une taxe sur nos FAI, il est passé d’environ 500 millions par an à près de 800 millions. Ça fait jaser, d’autant que la commission européenne doit toujours rendre son verdict quant à la légalité de cette taxe. Alors faut-il le limiter, ou bien le reverser à l’État qui redistribuera la cagnotte en fonction des besoins réels du cinéma ? “Mais vous êtes fous” nous dit le président du Machin !

Extrait de Playtime de Jacques Tati

Si l’Europe s’oppose à notre taxe à nous qu’on a, c’est qu’elle n’a rien compris à l’exception culturelle. Oh bien sûr on a jamais été autant au cinéma que ces dernières années et le secteur se porte à merveille, mais on ne sait jamais, il vaut mieux conserver la cagnotte. Pas question de se contenter d’être en bonne santé si on peut en plus être riches.

Mais alors que faire si Bruxelles – comme on s’y attend – s’oppose finalement à cette taxe ? Facile ! Si on ne peut plus taxer les FAI sur leur offre triple-play, alors on taxera sans discrimination tous les accès à Internet, mobile comme fixe. Et tant pis si la Cour des Comptes pense que ce financement n’est “pas fondé sur des évaluations convaincantes de la place que les télécoms occupent dans la filière audiovisuelle”.

Ce qui compte, ce n’est pas la justice, c’est l’exception culturelle. Que serait en effet notre culture si on cessait de financer près d’un film par jour et par an ? Euh…

Et bientôt

Bientôt on nous vendra Hadopi comme protecteur de l’exception culturelle, la fusion CSA/Arcep comme seule garante de notre culture exceptionnelle, le DPI nous sera imposé pour garantir un pourcentage minimal de “culture” française par foyer accédant à YouTube et le domaine public sera taxé pour soutenir les artistes français morts. J’en fais ici le pari.

Osons encore.

Ne pourrait-on pas, je ne sais pas, envisager de conserver les mêmes modes de financement (qui ont fait leurs preuves) sans pour autant verser dans l’excès ? Sans pour autant imposer des quotas “exceptionnels” à des télévisions qui font face à la disparition d’une chronologie des médias mise à mal par l’existence même d’Internet et à la future concurrence des géants américains via la fameuse “télé connectée” ?

Je lis que cet ecosystème permet de financer 340 000 emplois. Excellent, mais alors on ne parle plus de défendre la culture, mais simplement les emplois. Si les mêmes étaient payés pour tourner des films en anglais (après tout pourquoi pas), que deviendrait cet argument ? Où serait passée notre si précaire culture ?

La musique alors ? Laissez-moi rire et relisez une des dernières interviews de Jean Ferrat pour rire avec moi. De nos jours je n’arrive que rarement à savoir dans quelle langue chantent nos stars hexagonales, qui comme tout le monde cherchent à exporter pour vendre d’avantage.

Qu’on me comprenne bien : dans un espace sans frontières tel qu’Internet, le principe de la défense de la diversité culturelle est forcément quelque chose d’important, et que je défends. Simplement j’ai du mal à voir en quoi, aujourd’hui, nos lois défendent autre chose que les poches de multinationales “majors” et de quelques rares artistes apatrides.

Dans une autre vie, à la lointaine époque des premiers procès contre les fournisseurs d’accès au nom de la lutte contre le racisme, j’avais défendu – face à la Licra – que la meilleure méthode pour lutter contre les premiers sites négationnistes était de s’impliquer davantage sur le réseau pour diffuser l’histoire et la culture. La volonté de pouvoir censurer me semblait déjà dangereuse pour la liberté d’expression (pas celle des Faurissons et assimilés, mais celle de toute la population).

Jean Ferrat vu par La demeure du chaos (cc)

Aujourd’hui je crois qu’il faut faire la même chose pour la culture. Plutôt que d’essayer à toute force de recréer des frontières disparues, et si l’objectif est réellement de promouvoir la diversité culturelle, alors il me semble que l’urgence n’est pas de persister dans des modèles établis au siècle dernier mais de revoir de fond en comble la façon dont le droit d’auteur est protégé.

Comment mieux favoriser la diffusion d’une culture qu’en garantissant le libre partage des oeuvres du domaine public (et surtout pas d’autoriser M.  Rogard à le soumettre à une redevance), en abaissant la durée de protection des oeuvres après la mort de leur auteur, et en libéralisant le partage non marchand du patrimoine qu’on souhaite promouvoir ? Qui aujourd’hui est coupable de créer des oeuvres orphelines, sinon nos ayants droit qui cherchent quel qu’en soit le prix social à protéger leurs rentes en recréant un droit d’auteur là où il avait disparu – au seul motif de l’application d’un procédé technique ?

La notion d’exception culturelle est née du constat que la culture d’un pays risquait de disparaître au profit de celle des pays plus puissants si aucun frein à l’importation n’était possible. C’est la définition originelle, et qui fut confirmée lors de l’Uruguay Round. Sa version française a imposé, en plus, des quotas de diffusion d’oeuvres françaises et européennes aux radios et télévisions.

Outre qu’avec l’avènement d’Internet il devient plus qu’illusoire de fermer nos frontières à la diffusion des cultures étrangères sur le territoire national, jamais, jamais il n’a été question ni d’empêcher nos oeuvres de sortir du territoire, ni d’en limiter la diffusion à l’extérieur pour protéger des intérêts privés. Or c’est semble-t-il ces aspects là qui ressortent des discours actuels que je pointe plus haut. La cause première est caduque, la dérive est patente, une fois encore on invente des principes sortis du néant pour protéger des lobbies du passé.

Si notre culture mérite une exception, alors que celle-ci soit appliquée au régime – devenu démentiel – du droit d’auteur plutôt qu’en en faisant une arme limitant au maximum sa diffusion au public. Ce ne serait que du bon sens et un juste retour à sa justification première.

Osons.


Laurent Chemla est le co-fondateur de Gandi et auteur des Confessions d’un voleur. Il publie une chronique régulière sur Owni.
Photos sous licences Creative Commons ; tableau de Banksy au Musée de Bristol par Jordi Martorell ; Extrait de Playtime de Jacques Tati par Stewf ; Jean Ferrat vu par la demeure du chaos (Abode of Chaos)

Livraison de trouille chez les éditeurs numériques

lundi 15 octobre 2012 à 12:33

Les éditeurs français commencent à s’immiscer sur le marché du livre numérique. Petit pas après petit pas, les tentatives de mises à niveaux des uns et des autres sont fortement médiatisés. Et dans la réalité ? Owni a rencontré deux de ces acteurs, vers lesquels les projecteurs se tournent. Entretiens croisés.

”Des choix stratégiques à faire”

Du côté des éditeurs, coincés entre le désir de contenter le plus de lecteurs, de rentrer dans les cases des géants du Net et de subvenir à leurs besoins, l’édition numérique reste complexe.

C’est à eux de dessiner les contours d’une stratégie qui fonctionne, maison par maison. Pour Héloïse d’Ormesson, éditrice de la maison éponyme, le choix n’est pas tant cornélien : ”La maison est une petite maison indépendante et nos choix doivent être stratégiques. Laisser les grosses structures se placer, avancer et se positionner pour voir peut être aussi une manière d’y entrer.”

Se placer ensuite sur le marché tout en suivant de près ce que font les autres en somme. Malgré tout, l’intention est là et la numérisation chez EHO est en marche. Depuis un an et demi, la fille de Jean D’Ormesson – qui publie régulièrement des titres – planche sur leur façon d’appréhender un marché fait pour les grandes maisons, tout en précisant ”qu’avoir de l’ampleur n’est pour le moment pas nécessaire.”. Avec les moyens dont il faudrait disposer pour numériser un catalogue, on comprend qu’il faille suivre ce qui se passe tout en restant à l’écart.

Pourtant, le livre numérique – qui représente entre 1 et 2% des ventes dans le chiffre d’affaires des éditeurs ne fait peur à personne. Encore moins chez EHO pour qui :

Le numérique en soi, qu’on puisse lire sur des tablettes, c’est formidable. Plus on multiplie les modes de lecture et plus il y aura de gens qui liront. C’est souhaitable et c’est une merveilleuse découverte.

Enthousiasme donc chez Héloïse d’Ormesson qui fonctionne avec quelques auteurs phares : Jean D’Ormesson, Tatiana de Rosnay, Harold Cobert, Lucia Extebarria et Isabelle Alonso pour ne citer qu’eux. Pourtant, lorsqu’on prend connaissance des ventes en numérique du dernier best-seller de Tatiana de Rosnay – paru en 2011 -, on comprend que les éditeurs s’étranglent un peu. Rose c’est 70 000 versions papier vendues. 300 en numérique”, confie l’éditrice. Frappant.

Néanmoins le marché des livres étant en régression, autant essayer de suivre le numérique dont la progression n’est pas contestée, même si elle reste timide. Avec une projection à 6 ou 7% du chiffre d’affaires pour le numérique en 2015, autant effectivement essayer de miser sur le marché potentiellement explosif. Mais les prix, la pauvreté – relative – du catalogue et les DRM ne sont pas des arguments vendeurs. Une histoire de poule et d’oeufs. Si les éditeurs enrichissent le catalogue, il pourrait y avoir plus de lecteurs séduits par l’outil. Mais les éditeurs n’ont pas toujours envie de développer un catalogue avec ce risque que leur investissement ne rencontre jamais l’amortissement.

Héloïse d’Ormesson le confesse :

Ici le prix du livre numérique ne vaut pas qu’on l’achète comparé à l’objet livre papier. Le marché commence à devenir important mais balbutie, on ne se comporte pas comme les Anglais et les Américains. La vente de livre papier en ligne est minoritaire. La maison pourrait survivre si on ne faisait pas de vente papier sur le Net.

Petit-à-petit l’oiseau fera-t-il son nid ? À en croire les chiffres aux États-Unis et les 20% de part de marché pour le livre numérique, les éditeurs auraient tout à gagner à s’y insérer tôt ou tard. Mais le prix à payer est pour le moment trop lourd pour que les tarifs des livres numériques soient inférieurs aux prix actuels :

Le coût assez haut est un investissement et un surcroît de travail pour les équipes. En un an et demi, on a numérisé 4 livres. On perd du temps pour des ventes pas extraordinaires.

Le bouquin livré à son destin

Le bouquin livré à son destin

Le marché de l'édition numérique balbutie en France mais certains semblent se placer petit à petit sur l'échiquier. ...

Comprendre qu’il faut en interne à la fois former les services, trouver des prestataires en mesure de produire un livre numérique de qualité pour un marché qui n’est à l’heure actuelle rentable pour aucun des éditeurs. Trop frileux pour le risque ou simplement attachés à un objet papier avec la peur en filigrane de le voir disparaître ?

Responsable du développement chez Albin Michel, Alexis Esménard confiait au Labo de l’édition lors de la rencontre entre éditeurs et Google Play qu’il serait toujours éditeur papier.

Mais à ceux qui expliquent que le numérique n’est autre que celui qui tue les librairies, Héloïse d’Ormesson est catégorique :

Pour l’instant, la librairie en France est en crise, mais ce n’est pas à cause du numérique. Le numérique n’a pas tué l’édition. Par exemple aux États-Unis, ça ne fait qu’accélérer la polarisation sur un certain nombre de titres. 10% de titres pour 95% de chiffre d’affaires. Ça marginalise de plus en plus la littérature de diversification. C’est la diversité de l’édition qui est en jeu.

La diminution de la diversité des titres est un phénomène exacerbé par la présence de trois acteurs majeurs dans le paysage des librairies numérique. Apple, Google et Amazon se posent en prédateurs et distribuent leurs conditions et ils sont le talon d’Achille qui enserre parfois les éditeurs dans des clauses que ces derniers prétendent ne pas pouvoir négocier.

Ce n’est pas le livre numérique qui m’inquiète mais les revendeurs tels qu’Amazon [ainsi que l'Apple Store et le dernier né Google Play, ndlr]. Le numérique va renforcer la position de Google et Amazon sur le marché français. s’inquiète Héloïse d’Ormesson.

Ce n’est donc pas qu’une histoire de taille

Avec un chiffre d’affaires supérieur et un catalogue plus grand que les éditions Héloïse d’Ormesson, Albin Michel n’est pas moins embourbé dans les mêmes problématiques. Peu importe la maison à laquelle il appartient : le travail de l’éditeur reste celui de l’accompagnement du livre de la production à la diffusion. Ce qu’Amazon, Apple et Google provoquent dans le discours des éditeurs ressemble à une peur panique de perdre le contrôle de leurs titres – à tort ou à raison.

Alexis Esménard montre le rapport de force existant entre les éditeurs, qu’ils soient grands ou pas, et les trois multinationales :

Dans le monde des revendeurs, ce sont des acteurs qui ont des moyens sans commune mesure avec ceux des éditeurs. Quand on parle de la capitalisation de Google on parle de 350 milliards. Le marché du livre tourne autour des 3-4 milliards. C’est encore plus vrai quand les éditeurs sont petits. On [Albin Michel, ndlr] est une grosse maison mais on ne fait que 180 millions d’euros de chiffre d’affaires.

De ce point de vue-là, les éditeurs sont pris dans des filets économiques qu’ils ne maîtrisent pas. Et plus l’éditeur est petit, plus sa difficulté à s’insérer dans un marché en cours de mutation est grande. Alexis Esménard précise qu’”avant, quelque soit l’éditeur, il avait la chance d’arriver à faire un succès – quelle que soit sa taille. “ La nouveauté résiderait donc dans les entrées sur le marché de l’édition numérique.

Et une fois entré sur ce marché, l’éditeur n’aurait plus le pouvoir de décider de la diffusion de ses titres :

Aujourd’hui, on a 10 000 points de vente physique – à peu près – qui ont la possibilité de vendre du Albin Michel. Si je me retrouvais demain avec seulement trois acteurs ça changerait beaucoup de choses. Demain si Apple décide de ne pas vendre un de nos titres, il disparaît d’un point de vente mais d’un point de vente à forte force de frappe. Ça me choque et me gêne réellement en tant qu’éditeur.

La Justice met Apple à la page

La Justice met Apple à la page

Un accord qui vient d'être signé aux États-Unis sur le marché du livre numérique confirme les soupçons d'entente qui ...

Le risque de l’étau

Même si les cartes du jeu sont distribuées à priori équitablement entre les éditeurs et les distributeurs, les premiers ne sont pas de taille pour éviter la négociation de petites clauses de contrats avec les seconds. Par exemple, qu’un distributeur (Apple, Google ou Amazon, donc) propose une grosse subvention à un éditeur pour s’assurer de l’exclusivité du catalogue en échange d’avoir la liberté de fixer lui-même le prix de chaque livre. Ce qui est aujourd’hui impossible lorsque l’éditeur fait le choix de distribuer son livre sur les trois plateformes, qui sont obligées de pratiquer une vente à “prix unique“.

Et là, le distributeur ”pourrait décider de vendre les livres gratuitement ou à un euro et de subventionner l’éditeur pour l’ensemble de ses ventes.”, explique le chargé du développement numérique chez Albin Michel. Une fois le marché conquit avec ces livres bradés, le revendeur pourrait alors aussi retirer ses subventions. Et laisser les éditeurs à sec.

Et question négociations, Albin Michel (contrairement aux Éditions Héloïse d’Ormesson qui sont distribuées par Editis) étant à la fois injecté sur Apple, Amazon et Google, peut comparer la façon dont les avocats discutent et la longueur des discussions, option marchands de tapis :

Avec Apple, 2 semaines. Avec Amazon, 2 ans. Et avec Google 9 mois. Après il faut savoir que si la négociation avec Apple a été rapide c’est que dans leur business model, le livre n’a pas une grand part et c’est de vendre leur tablette qui les intéresse, en prenant une commission dessus. La finalité pour Amazon est différente : leur produit principal reste le livre, la culture. Google est un peu entre les deux et ce qui les intéresse c’est d’amener le plus de monde possible sur les moteurs de recherche, pour qu’ils vendent leur publicité.

Malgré cette peur de la mainmise des trois grandes plateformes, ça n’empêche en rien Alexis Esménard d’être “séduit” par le livre numérique et d’y voir tout un tas de possibilités. Tant en epub de littérature générale – même si le texte suffit au livre lui-même – qu’en “beaux livres”. L’une des craintes de l’éditeur, déjà formulée lors du débat au Labo de l’édition : le piratage des fichiers. Et ce, même si aucune étude sur le sujet ne démontre que le piratage sera pour le livre une conséquence désastreuse en terme de volume :

Ne pas mettre de DRM augmente le piratage. Mettre des DRM, n’est pas une bonne solution non plus mais c’est par défaut “la” solution. On peut évoluer : les titres qui peuvent devenir obsolètes avec le temps pourraient être sans DRM. Les livres scolaires par exemple. Les programmes changent donc il est pas impossible qu’on ne fasse plus de DRM sur ces livres-là. Mais nous n’avons pas encore fait cette démarche de voir titre à titre quels sont ceux qui pourraient se priver de DRM et les autres. Quant au piratage, nous avons des études sur la musique qui montrent bien l’évolution des chiffres d’affaire ! Même si la consommation est à la fois proche et différente.

Proche parce que le bien matériel laisse place dans le cas du livre à un bien immatériel, immatriculé “bien de création”. Différente parce que le temps de lecture d’un livre dépasse largement le temps d’écoute d’un album de musique dans la majorité des cas. Éloigné aussi par son public cible et l’attachement d’un lecteur à un livre. Pourtant Alexis Esménard n’en démord pas :

On donnera plus facilement un fichier numérique qu’un objet. Un fichier ça n’a pas d’âme. Un livre vous avez peur qu’on ne vous le rende pas en cas de prêt. Un CD c’est la même chose. Mais un fichier numérique ? “Tu ne me le rends jamais, j’ai ma propre copie”. Vous avez un epub, vous l’ouvrez, vous l’envoyez à un ami qui va l’ouvrir aussi, l’expérience sera la même.

Pour d’autres, la mayonnaise ne prend pas. En complément de la vision de deux éditeurs français, nous avons recueilli le point de vue de Jean-Louis Missika sur le marché de l’édition numérique en France. Le virage pris par l’édition hexagonale ne semble pas être aussi rapide que le montrent les enthousiasmes des éditeurs. Dans la pratique, pour l’adjoint au Maire de Paris chargé de l’innovation, ”les éditeurs tardent à faire de la numérisation homothétique et donc à offrir leur publication dans les deux formats papier et numérique” :

Les gens achèteront une liseuse quand le catalogue sera plus consistant et plus profond. Quand vous avez des outils de consommation culturelle qui réclament un nouveau format et qu’il faut adapter le contenu à ces formats, ça coûte de l’argent. Pour pouvoir rentabiliser cet investissement, il faut que les possesseurs de liseuses soient en nombre significatif. Il y a un moment de bascule où si vous avez 10 à 20% de gros consommateurs équipés de liseuses, les éditeurs seront obligés de faire une offre numérique.

Revoilà la poule et l’oeuf. Les consommateurs peuvent acheter plus de liseuses pour permettre aux éditeurs de rentabiliser leurs investissements ou les éditeurs peuvent étoffer leur catalogue de titres qui ne coûteraient “presque rien” pour séduire plus d’acheteurs de liseuses. Malgré tout, Jean-Louis Missika est confiant : “la cohabitation papier/numérique peut durer très longtemps, le maillon faible de ce dispositif étant les libraires.”

Le chemin est encore long mais le temps ne presse pas.


Illustration par Arnaud Kath [CC-by-nc-sa]

Ce samedi, les enfants ont cours de hacking

vendredi 12 octobre 2012 à 15:24

Après une première édition à Paris en juin, HacKIDemia a bougé à Bucarest en Roumanie en septembre.

À l’HacKIDemia, on n’apprend pas aux enfants à cracker le code de l’ordinateur de leurs géniteurs, non, on leur enseigne les sciences et la technologie par la pratique, en vertu du learning by doing cher aux hackers, ces bidouilleurs créatifs. Ce samedi, dans le cadre de l’Open World Forum (OWF), la deuxième édition française, co-organisée avec La Cantine/Silicon Sentier, proposera plusieurs ateliers pour mettre les menottes dans le cambouis, et aussi les grandes mimines des parents : conception de jeux vidéo, introduction à l’électronique avec le processeur Arduino et de la soudure, robot, graffiti, etc.

Ne vous fiez pas au côté fric de l’OWF, vitrine annuelle de l’Open Source en France qui se tient du côté des Champs-Élysées. Comme se réjouit Clément, membre du hackerspace francilien l’Electrolab qui prête son concours, le but n’est pas de rester entre-soi :

Dès le départ, Stefania vise une diffusion très large, pas uniquement pour nos petites têtes bobo, elle s’organise avec des contributeurs d’un peu partout. À force de passer sa vie dans des avions, elle a des contacts très variés.

La Stefania-voyageuse en question, c’est une jeune pile (open source) déroulant dans un français impeccable son parcours qui l’a menée de sa Roumanie natale à voyager sur tout le globe pour son projet HacKIDemia, après un passage par la Singularity University de Google aux États-Unis.

Le premier HacKIDemia à Paris en juin dernier, avec des élèves de l'internat d'excellence à Marly-le-Roy (78).

Hacker la pédagogie

Hacker la pédagogie

Les médias sociaux font l'objet de fréquents blocages dans les établissements scolaires. Pourtant, en eux-mêmes, ils ne ...

Maman professeur, père ingénieur en électronique, cette mince petite brune prolixe a synthétisé dans son projet les ADN parentaux. Après un master en ingénierie pédagogique et un passage par Erasmus qui l’a rendu polyglotte — 7 langues en tout ! —, elle a atterri chez Google à Dublin pour plancher sur les algorithmes.

Plus que les opérations, elle se passionne pour l’éducation et initie des projets au sein de l’entreprise en Irlande, pour les adultes. Pas vraiment sur la même longueur d’onde que le géant de Moutain View, elle démissionne et, avec ses économies, part faire du volontariat au Cambodge, initier ce qui deviendra HacKIDemia. Avec une ligne claire :

Tu n’aides pas forcément les gens en leur donnant de l’argent. Le Cambodge est le pays avec le plus grand nombre d’ONG, ça handicape ce peuple  à un point pas possible. Je leur ai dit “je ne vais pas vous donner de l’argent, mais vous apprendre pour vous aider à vous en sortir par vous-même”.

Et un modèle, les hackerspaces, ces espaces physiques où les hackers se rencontrent, échangent, mutualisent :

Je veux faire des hackerspaces pour les enfants ! Il y a une innovation qui passe, invisible, mais qui a beaucoup d’impact, alors s’ils échangent avec les enfants…

Une bêta “magique”

Le numéro zéro d’Hackidemia est allumé en juin dernier, avec l’aide François Taddéi, du Centre de Recherche Interdisciplinaire, figure incontournable en France sur la réflexion pédagogique. Dans un lieu emblématique : l’internat d’excellence de Marly-le-Roy, une de ces structures destinées aux élèves défavorisées à fort potentiel. Une bêta qui tient toutes ses promesses. Stefania se souvient :

Les jeunes ne savaient pas trop à quoi s’attendre, ce sont des ados, l’âge où on les perd, ils sont venus en se demandant ce qu’ils allaient faire. À la fin c’était assez magique, on ne pouvait plus les faire partir : “j’ai fait un robot, j’ai fait un robot, il y avait une sorte de lumière dans leurs yeux.”

Benoit Parsy, qui fait des ateliers LEGO Mindstorm (des robots LEGO pour apprendre à coder, ndlr), est venu avec sa fille, elle a 6-7 ans et elle est très forte en programmation, ils ont accepté qu’elle leur apprenne et ils ont fait à leur tour.

Cela été très important pour nous : l’événement a été monté sans budget, nous avons juste contacté les gens qui travaillent avec des jeunes sur Paris, on a pu mesurer la motivation.

"J'ai fait un robot, j'ai fait un robot !"

La jeune femme enchaine avec un saut décisif par Google, non pas l’entreprise mais sa controversée Singularity University, en tant que education teaching fellow. L’institution vouée aux technologies, et non au transhumanisme comme on le croit à tort, se révèle surtout être une belle opportunité pour développer son projet, entre conférences et discussions interminables le soir.

De ce séjour, HacKIDemia en est ressorti avec un staff de trois personnes en plus pour faire des petits partout dans le monde, sur le mode du lab mobile.

Brésil, Niger, Mexique, Australie, Malaisie

Et depuis, ça n’arrête pas. Après Paris, les allumages s’enchaînent : installation d’un fab lab permanent à Sao Paulo au Brésil, à Lagos au Nigeria dans le cadre de Maker Faire Africa, une grande foire au DIY, puis Mexique, Australie et Malaisie en début d’année prochaine. Ils sont souvent sollicités par des structures publiques qui payent le voyage, par exemple au Brésil une école. La communauté visée, enfants mais aussi parents et professeurs, ne payent pas. Des entreprises de l’écosystème croissant du DIY apportent aussi des fonds, conscient de l’intérêt et de l’enjeu.

L’écosystème de demain

Aux côtés de fablab@school, fab lab truck, School Factory ou encore Maker Camp, Hackidemia fait en effet partie de ces projets qui entendent réinventer l’école pour mieux l’adapter au contexte actuel, marqués par de multiples crises : économique et écologique bien sûr mais aussi perte de sens, sentiment de dépossession lié à la disparition des savoir-faire. Ces structures sont aussi autant de terreaux pour que la bidouille d’un week-end deviennent le projet d’une vie et contribuent ainsi à régénérer le système en perdition. Stefania s’emballe :

Le retour à la production locale est un moyen de sortir de la crise, de rendre aux gens la liberté de s’entraider, il faut des hubs d’innovation qui vont s’agrandir et former un écosystème. Il faudrait revenir au système des guildes d’artisans.

Dès le plus jeune âge, il faut donc penser en mode “projet”, comme le souligne Jérôme Saint-Clair, du Graffiti Research Lab, un groupe consacré au renouveau de l’art urbain présent ce samedi :

Il est essentiel d’associer, non pas plus de pratique “téléguidée”, mais davantage de découverte et d’expérimentation afin de permettre aux enfants de chercher des solutions à des problématiques qui leur sont propres (par eux-mêmes ou à l’aide d’un prof ou mentor), de collaborer en partageant leurs connaissances et de développer des projets pensés par eux et pour eux, mariant plusieurs disciplines.

Dans cette nécessité de renouveler l’école, les acteurs extérieurs, agiles, du type HacKIDemia, sont peut-être les mieux à même de faire bouger les choses, comme l’analyse Clément :

Bien, sûr, on n’est pas près de poser un hackerspace/makerspace/fab lab dans chaque établissement scolaire, et il est à peu près aussi vital de proposer ce genre d’activités dans un cadre totalement hors du scolaire aussi pour une autre raison un peu dingue : pour plein de monde, l’école est une corvée… à laquelle tu n’as pas forcément envie d’associer ton action, pour ne pas te griller auprès du public visé.

Reste un enjeu de taille : éviter de finir comme Montessori, douillet nid à progéniture élitiste, mais envahir l’école en douceur.


HacKIDemia, dans le cadre de KIDEXPERIMENT à l’Open World Forum ce samedi, de 11 h 30 à 17 heures, gratuit, inscription recommandée.
Photos CC Flickr [by-nc-nd] PhOtOnQuAnTiQuE