PROJET AUTOBLOG


S.I.Lex

Site original : S.I.Lex

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

De la loi sur les indisponibles au registre ReLIRE : la blessure, l’insulte et la réaction en marche

dimanche 24 mars 2013 à 19:39

Tous les acteurs impliqués dans le dossier de la numérisation des livres indisponibles voulaient que l’ouverture du registre ReLIRE au moment du Salon du Livre constitue une célébration, mais cette petite fête risque bien d’être gâchée, tant les réactions d’indignation se multiplient à l’encontre du dispositif mis en place.

Au vu des dispositions fixées par la loi et précisées dans le décret d’application, on savait déjà qu’un déséquilibre patent avait été instauré dans ce système au bénéfice des éditeurs et au détriment des auteurs. Mais on aurait tout de même pu penser que la base ReLIRE serait conçue de manière suffisamment rigoureuse pour faciliter la possibilité de retrait volontaire que la loi a prévu dans les six mois après l’inscription d’un livre au registre (opt-out).

Une affiche de mai 68 conservée à la BnF, qui prend une saveur particulière depuis la mise en ligne de la base ReLIRE...

Une affiche de mai 68 conservée à la BnF, qui prend une saveur particulière depuis la mise en ligne de la base ReLIRE…

Non seulement il n’en est rien, mais le registre ReLIRE contient des erreurs lourdes, épaisses et manifestes, dont on se demande comment elles ont pu seulement être commises.

Violations frontales de la loi

Comme l’a signalé @BlankTextField ici, ReLIRE comporte visiblement d’étranges erreurs. On y trouve par exemple 538 titres publiés postérieurement au 1er janvier 2001, qui ne sont donc pas couverts par la loi du 1er mars 2012. Plus surprenant encore, ReLIRE contiendrait quelques rééditions de livres publiés au 18ème et 19ème siècle,  ainsi que de simples reprints, qui n’ont absolument rien à y faire… La BnF était censée jouer le rôle de « tiers de confiance » dans le dispositif, mais de telles erreurs risquent bien de la transformer aux yeux de beaucoup en un véritable « tiers de défiance »…

Mais le pire, comme François Bon l’a signalé dans ce billet poignant, c’est qu’un certain nombre de titres ont été inclus dans le registre, alors même qu’ils sont encore disponibles en papier ou en numérique. Que l’on soumette les auteurs d’ouvrages indisponibles à un opt-out est déjà une chose très contestable en soi (comme il est expliqué ici), mais que des auteurs de livres encore disponibles soient soumis à cette procédure, sous peine de voir leurs droits aspirés en gestion collective, c’est tout simplement une violation frontale de la loi.

ReLIRE pousse l’ironie jusqu’à avoir mis en place un formulaire pour signaler qu’un titre figurant dans la base est en réalité disponible, comme s’il s’agissait d’une simple erreur à rectifier, alors qu’il s’agit de violations de la loi ! Je dirai ça à la police, la prochaine fois que je suis pris en excès de vitesse : merci de me le signaler ! Combien d’auteurs sont dans ce cas (peut-être des milliers de titres au vu des signalements…) ? Et comment feront-ils s’ils laissent passer le délai de 6 mois, au-delà duquel il deviendra beaucoup plus difficile pour les auteurs de faire valoir leurs droits ?

Nous violons frontalement la loi. Merci de nous le signaler.

Nous violons frontalement la loi. Merci de nous le signaler.

Opt-in pour les éditeurs ?

Il est difficile de comprendre comment de telles bévues ont pu être commises. Comment un simple tri par dates n’a pas été effectué avant la publication et comment, sur une liste de 60 000 titres, il n’a pas été possible d’éviter de tels dommages collatéraux ? 60 000 références, on n’est quand même pas dans le Big Data ! En réalité, si l’on observe froidement les choses, il est assez facile de comprendre ce qui s’est passé : l’objectif a manifestement été de publier cette première liste en avançant à marche forcée avant le Salon du Livre, à des fins d’affichage politique et tant pis si au passage, on écrasait quelques auteurs !

Les Indisponibles ? Ho, c’est très simple. Reportez-vous à ce schéma (fourni sans tube d’aspirine !).

Le ridicule a été poussé jusqu’à nommer par arrêté un « conseil scientifique » le 20 mars, dont la mission consiste justement à définir les critères et la méthode d’établissement de la liste des ouvrages inclus dans la base. Or cette fameuse liste a été publiée dès le lendemain, en même temps que le Registre ReLIRE. On en déduit soit que les membres de ce conseil sont des surhommes qui ont abattu le travail  de sélection de 60 000 livres en une nuit, soit que la besogne a été accomplie ailleurs – on ne sait où, par qui et comment – avec à la clé, les ratages qui éclatent au grand jour à présent.

Parlons donc plutôt de caution que de conseil scientifique et un document interne de la BnF, publié sur Actualitté, a montré qu’il faut lire autre chose que l’arrêté pour comprendre comment les choses fonctionnent en réalité… Une partie de ces titres a été sélectionnée dans le cadre d’un marché passé avec Electre, mais le document indique aussi que 10 000 ouvrages auraient été « fournis par les éditeurs ». Qu’est-ce que cela peut signifier ? Mystère, sinon que l’on voit que les éditeurs bénéficient en réalité sans doute d’une forme d’opt-in, puisqu’ils ont la main sur la liste, alors que les auteurs de leur côté restent individuellement soumis à l’opt-out. Cette « cuisine interne » aboutit à quelque chose de vraiment pire que tout ce que l’on pouvait imaginer !

Les chiens ne font pas des chats…

Il est vrai que d’un bout à l’autre, cette affaire des livres indisponibles aura été marquée par l’opacité et le manque de transparence. Bouclé très en amont du vote de la loi, dans un accord-cadre conclu en secret entre le Ministère de la Culture, le SNE, la SGDL et la BnF, le dispositif général des Indisponibles est le résultat de tractations qui n’ont rien à voir avec le débat démocratique que l’on aurait été en droit d’attendre sur un sujet aussi important.

Le gouvernement a ensuite demandé, sans aucune justification réelle, à ce que la loi soit votée en urgence, ce qui présentait l’avantage de rendre le débat plus difficile devant les assemblées. Et à présent, aux commandes de cette base, nous retrouvons les mêmes acteurs qu’au départ, le nouveau gouvernement socialiste ayant choisi d’ignorer les critiques, émanant notamment du collectif d’auteurs Le Droit du Serf, qui proteste depuis des mois contre la spoliation en cours de leurs droits.

01/02/2011 : un an avant le vote de la loi, tout était déjà prévu à l’avance, dans un accord secret, qui n’a été révélé que sur l’insistance de certains députés, à la toute fin des débats parlementaires…

Les chiens ne font pas des chats, dit-on, et il était logique qu’une loi accouchée dans ces conditions débouche sur une telle mise en oeuvre.

Beaucoup de choses ont déjà été écrites à propos de cette loi sur les indisponibles, mais je voudrais rappeler rapidement les principaux points qui font que, vis-à-vis des auteurs, des bibliothèques et du public, ce dispositif est inacceptable.

Malheur à Petit Auteur !

Cette loi entérine en premier lieu le lent processus de déchéance du droit d’auteur en un droit d’éditeur, avec la bienveillance de l’Etat. Normalement, un éditeur qui laisse un ouvrage devenir indisponible commercialement commet un manquement vis-à-vis de ses obligations vis-à-vis de l’auteur, susceptible de faire tomber le contrat d’édition et d’entraîner un retour complet des droits à l’auteur. On appelle cela le « défaut d’exploitation permanente et suivie », mais pour le constater, le Code de Propriété Intellectuelle a prévu une procédure compliquée, attestant que le livre est bien « épuisé », qui fait que peu d’auteurs n’obtiennent en réalité le retour effectif de leurs droits.

L’artifice majeur de la loi du 1er mars 2012 consiste à avoir déclaré qu’un livre signalé indisponible dans le registre ReLIRE ne devait pas être considéré comme épuisé au sens de la loi. Matériellement pourtant, c’est exactement la même chose, mais juridiquement cela permet à l’éditeur de conserver le bénéfice du contrat d’édition, quand bien même il s’est mis en faute vis-à-vis de l’auteur. Et cet auteur, qui devrait bénéficier de l’intégralité des droits, va être obligé une fois son livre entré en gestion collective de partager les revenus de l’exploitation de l’ouvrage à 50/50 avec son éditeur. Les éditeurs empochent donc une masse de droits sur l’exploitation numérique du patrimoine écrit du XXème siècle, sans avoir à bouger le petit doigt. Passé six mois, la société de gestion viendra même lui apporter sur un plateau la possibilité de récupérer ces droits, avec un beau courrier recommandé ! Si l’on met de côté la morale et le respect de l’esprit du Code, il faut bien reconnaître que cette manoeuvre constitue un véritable coup de maître !

La base ReLIRE relookée de manière intéressante par la Team ALexandriZ

Évidemment me direz-vous, les auteurs peuvent s’opposer à l’entrée de leurs ouvrages en gestion collective en faisant jouer l’opt-out qui leur est ouvert pendant 6 mois. Mais outre le fait que cela ne règle en rien la question du retour des droits dans leur giron, nous avons maintenant la preuve éclatante que cette procédure est tout sauf simple à exercer, surtout au vu de la manière dont la base ReLIRE a été conçue. J’avais écrit l’an dernier un billet pour montrer que les auteurs risquaient d’être soumis à un véritable parcours du combattant, mais je pensais quand même qu’il leur serait relativement facile de sortir du dispositif dans les premiers six mois. Le billet écrit par François Bon, qui s’est frotté à la procédure, est là pour nous montrer qu’il n’en est rien… Voilà ce qui fait dire à Yal Ayerdhal, l’un des principaux opposants à ce système, que nous sommes confrontés à un véritable piratage d’Etat ! Loin d’avoir fait mieux que Google, la France a employé exactement les mêmes procédés douteux que le moteur de recherche, avec les mêmes conséquences à la clé.

Désastre pour les bibliothèques et l’intérêt du public

Pour prendre la mesure du désastre, il faut également prendre en compte la situation des bibliothèques, et pour cela, se rappeler qu’il existe en France d’autres bibliothèques que la BnF (ce que beaucoup d’acteurs ont dramatiquement tendance à oublier…).

Les bibliothèques sont également de grandes perdantes dans cette affaire, car si cette loi a été votée en urgence, c’est en grande partie pour prendre de vitesse et contrer une directive sur les œuvres orphelines votée en octobre 2012, qui leur aurait été plus favorable. Car dans le corpus des ouvrages indisponibles, une part significative doit être constitué d’oeuvres orphelines, pour lesquelles les auteurs par définition ne réagiront pas. C’est ce que j’avais appelé « la grande manoeuvre des indisporphelines » : englober les orphelines mécaniquement dans les indisponibles grâce à l’opt-out, ce que Google avait lui aussi essayé de faire dans son règlement et que la Justice américaine lui a refusé.

Or la directive européenne prévoyait un système différent par lequel les bibliothèques françaises, après avoir établi par des recherches diligentes que les ouvrages étaient bien orphelins, auraient pu numériser et mettre en ligne gratuitement les ouvrages à la disposition du public. Il y a fort lieu de penser que cette possibilité de diffusion gratuite a complètement affolé les titulaires de droits en France, qui ont utilisé l’artillerie lourde de leur lobbying pour neutraliser la directive au profit du système des Indisponibles. L’idée d’un accès privilégié en bibliothèque est quand même revenue par le biais du Sénat, mais elle a été à nouveau consciencieusement démantelée dans le texte final de la loi…

Vue par les acteurs à l’origine de la loi sur les indisponibles, voilà à quoi ressemble une bibliothèque (par GreenViking. CC-BY-NC-SA)

Alors que restera-t-il au final aux bibliothèques ? Comme d’habitude, elles seront considérées comme de simples vaches à lait, à qui l’on proposera des abonnements payants pour l’accès à des produits conçus à partir des indisponibles. Et c’est d’autant plus choquant que la numérisation des ouvrages sera financée en partie avec l’argent public du Grand Emprunt, sans aucune contrepartie en matière d’accès public. On retrouve les mêmes dérives que dans l’affaire Proquest de numérisation du domaine public à la BnF. Et que la première des bibliothèques de France puisse à nouveau jouer un rôle central dans cette affaire n’en est que plus choquant. Silvère Mercier écrivait ceci sur son blog il y a quelques mois, qui reste cruellement d’actualité :

Ils ne voient pas l’erreur historique qu’aura été l’absence de mobilisation générale de notre Bibliothèque Nationale pour un accès public et libre aux œuvres orphelines. A un moment donné, la stratégie d’un établissement s’oppose aux intérêts de l’ensemble des politiques publiques dont il est censé être le navire amiral…  Quelle occasion manquée de devoir se soumettre au diktat des éditeurs et de sécuriser les accès ! Quelle soumission aveugle au sacro-saint secteur privé ! Rappelons que l’argument massue, l’argument économique, ne tient pas une seconde puisque les éditeurs eux-mêmes via le SNE nous avaient fait part d’une étude démontrant la très faible rentabilité du marché des indisponibles… Ce sont bien les bibliothèques comme bras (dés)armé de l’accès pour tous à l’information qui sont entravées par les chaînes économiques du livre !

Et le public dans cette histoire ? Il sera lui aussi perdant, car comme nous l’avons dit plus haut, bien que de l’argent public soit mobilisé pour la numérisation des indisponibles, aucune contrepartie en terme d’accès public n’est prévue, même pas pour les usages pédagogiques et de recherche par exemple. Le public perd aussi le bénéfice qu’il aurait pu retirer de la mise à disposition gratuites des oeuvres orphelines, si la directive européenne avait pu s’appliquer en France. Et last but not least, comme la BnF a décidé de sacrifier la numérisation d’une partie des oeuvres du domaine public pour affecter l’argent à la numérisation des 10 000 premières oeuvres indisponibles, le public perdra aussi l’accès gratuit dans Gallica à ces ouvrages anciens…

Destruction des autres possibles

Certaines voix ne sont pas d’accord avec ces critiques. Emmanuelle Bermès par exemple a écrit sur son blog un billet dans lequel elle s’étonne de l’opposition qui s’exprime contre la base ReLIRE :

On ne peut pas à la fois critiquer la loi sur le droit d’auteur dans le fait qu’elle est inadaptée au monde numérique, et en même temps tirer à boulets rouges sur la première initiative visant à essayer de trouver des solutions intermédiaires.

Se ranger du côté du « pragmatisme » est bien commode (et très à la mode…), mais à titre personnel, c’est bien parce que je critique l’inadaptation du droit d’auteur au numérique que je juge complètement inacceptable la loi sur les Indisponibles et le dispositif ReLIRE. Philippe Aigrain sur son blog a très bien expliqué que la loi sur les Indisponibles avait eu pour objectif principal de fermer la porte à d’autres solutions plus équilibrées :

[...] la loi sur les œuvres indisponibles est un plan concerté pour la destruction d’un possible et son remplacement par une trajectoire indésirable pour l’immense majorité d’entre nous.

Des alternatives existaient, qui auraient permis de mettre en place des solutions bien plus équilibrées, sans tordre le cou aux principes les plus essentiels du droit d’auteur. Concernant les oeuvres indisponibles, la seule solution équitable était celle du retour automatique des droits à l’auteur et l’inclusion des oeuvres dans le registre sur la base d’un opt-in strict. Aux Etats-Unis, la justice américaine en est arrivé à la conclusion dans le procès Google que l’opt-out est trop dangereux, parce qu’il peut engendrer trop de dérives, mais en France au Pays de Beaumarchais, nous l’avons maintenu. C’est complètement incompréhensible !

Par ailleurs, pour la partie des oeuvres orphelines au sein des indisponibles, le mécanisme prévu par la directive européenne garantissait une solution plus équilibrée, même si elle n’était pas parfaite. Le cas des oeuvres orphelines est très délicat et il faut en la matière éviter au maximum les risques de réappropriation. Dès lors, seule la diffusion non-marchande d’une oeuvre orpheline est acceptable, dans un but d’intérêt général, et c’est exactement ce que prévoit la directive. Les bibliothèques auraient pu assurer cette diffusion et la BnF se serait honorée dans une telle entreprise, alors qu’à la place la loi française organise un transfert des droits sur les orphelines vers une société de gestion collective, qui les exploitera commercialement sans retour financier possible vers les auteurs. C’est profondément injuste et socialement néfaste, même si certains y trouvent leur compte…

Pathétique château de cartes…

Philippe Aigrain estime dans son billet que les dysfonctionnements repérés dans cette affaire des Indisponibles sont si lourds qu’il faut commencer à parler de « corruption des institutions » :

J’utilise pour décrire ce processus d’ensemble une expression qui a été mise en avant par l’Edmund J. Safra Center for Ethics de Harvard à partir d’une initiative de Lawrence Lessig : la corruption des institutions. Elle résulte d’une collusion entre des intérêts privés établis (ici les grands éditeurs) et institutionnels (certaines formes de gestion collective), un ensemble limité de personnes priviligiées (les gros percepteurs des revenus de droits ou de la gestion collective) et des visions de l’action publique dont le but est de servir ces intérêts (la DGMIC) ou d’en capturer des bénéfices dérivés (la direction de la BnF). Cette collusion produit ses effets à travers les réseaux que tissent ces acteurs pour influencer la production de la loi et les nominations des responsables de l’action publique (y compris les élus) et pour organiser les marchés à leur profit.

Par Micheal of Scott. CC-BY-NC-ND

Je parlerai volontiers pour ma part de décomposition de l’action publique, qui commence à devenir singulièrement inquiétante en matière de politique du livre, depuis maintenant des années. Les lois se succèdent, issues de petits cercles qui se côtoient et se connaissent, loin de la lumière du débat public. L’alternance politique n’a rien changé au problème, en grande partie parce que les équipes ministérielles n’ont pas bougé. J’avais été glacé par exemple de constater que deux instigateurs importants de cette loi sur les indisponibles, votée sous l’ancien gouvernement, ont été élevés à la dignité de Chevaliers des Arts et des Lettres par Aurélie Filippetti (je vous laisse chercher...). Et tout porte à croire que le pouvoir en place, au plus haut niveau, soutiendra jusqu’au bout cette loi sur les indisponibles et le dispositif ReLIRE.

Pour beaucoup, l’ouverture de la base ReLIRE a ajouté l’insulte à la blessure qu’avait constituée le vote de la loi du 1er mars 2012. Mais la réaction est déjà en marche et elle sera à la mesure du mépris dont les instigateurs de ce texte ont fait preuve !

Comme le rappelle souvent le site Actualitté, il existe une faille béante dans toute cette machinerie des Indisponibles, qui ne peut plus être refermée à ce stade. De très lourds soupçons d’inconstitutionnalité pèsent en effet sur le texte, et sa conformité avec la Convention de Berne fait question. Pour mettre en oeuvre la base ReLIRE, le gouvernement devait nécessairement prendre un décret, mais publier cet acte, c’était exposer le flanc à un recours au Conseil d’Etat et plus loin ensuite, devant le Conseil constitutionnel qui a le pouvoir d’annuler la loi.

Tout le dispositif des Indisponibles peut donc s’effondrer brutalement comme un château de cartes, sanctionné par les plus hautes juridictions de ce pays. Il sera alors temps de démêler l’écheveau des responsabilités qui ont pu conduire à ce véritable fiasco pour l’intérêt public…


Classé dans:Bibliothèques, musées et autres établissemerents culturels, Edition numérique, aspects juridiques Tagged: auteurs, éditeurs, BnF, contrat d'édition, directive, indisponibles, loi, Numérisation, oeuvres orphelines, ReLIRE

Accords auteurs/éditeurs sur le contrat d’édition : un meilleur équilibre, vraiment ?

vendredi 22 mars 2013 à 08:59

Hier, un accord important a été signé entre auteurs et éditeurs, sous l’égide du Ministère de la Culture, à propos de l’adaptation du contrat d’édition à l’heure du numérique. Ces accords font suite aux travaux de la Mission Sirinelli, qui ont permis de dégager un consensus alors que les précédentes négociations avaient jusqu’à présent échoué.

Par Thomas Hawks. CC-BY-NC. Source Flickr.

Par Thomas Hawks. CC-BY-NC. Source Flickr.

Cette signature ouvre la voie à une réforme du Code de Propriété Intellectuelle, ainsi qu’à la mise en place d’un Code des Usages, appelé à jouer un rôle important. Mais cette adaptation du régime du contrat d’édition permettra-t-elle vraiment d’aboutir à des relations plus équilibrées entre auteurs et éditeurs ? C’est loin d’être certain, lorsque l’on regarde dans le détail.

Guénolé Boillot de la librairie en ligne Sans papiers m’a posé une série de questions à ce sujet et les réponses ont été publiées sur leur blog, dans la rubrique « Les interviews du numérique ». Je les publie également ici, en appelant tous ceux qui le souhaiteraient à réagir en commentaires.

Q/Guénolé Boillot : Dans le nouveau contrat d’édition numérique négocié entre le Syndicat National de l’Édition et le Conseil permanent des écrivains, des délais de publication d’une œuvre sous forme numérique ont été instaurés ainsi que les critères permettant d’en apprécier l’obligation d’exploitation permanente et suivie par l’éditeur. Ces critères sont :

Ces clauses paraissent être des exigences qui laissent la part belle aux éditeurs. Concrètement, de quelles manières les auteurs vont pouvoir défendre leurs droits (cf. mettre à disposition un fichier sur une plateforme, c’est quelque chose qui représente très peu de travail pour un éditeur) ?

Le non-respect de ces obligations permettra à l’auteur de récupérer ses droits sur le numérique. Mais ne pensez-vous pas, par exemple, que si l’auteur reprend ses droits sur le numérique, il ira auto-publier son ouvrage sur des services tels qu’Amazon, qui eux font la promotion de leur format propriétaire (le mobi). En d’autres termes, les créateurs de format propriétaire ne feront-ils pas leur beurre de tout ceux qui récupéreront leurs droits sur le numérique, faute de respect de l’obligation d’exploitation permanente ?

R/Calimaq : Il est vrai que dans ces accords, l’obligation d’exploitation permanente et suivie de l’œuvre sous forme numérique est définie de manière assez peu contraignante pour l’éditeur, qui pourra la satisfaire sans trop de difficultés une fois que les fichiers numériques auront été produits. Le mécanisme de retour des droits à l’auteur ne devrait jouer qu’à la marge, dans des situations de disparition d’un éditeur par exemple ou de manquement grave à ses obligations.

Néanmoins, le fait d’avoir inclus au titre de l’exploitation permanente et suivie l’obligation d’une diffusion dans un format non-propriétaire me paraît une chose intéressante. C’est une garantie forte pour l’interopérabilité et pour l’ouverture de l’écosystème général du livre numérique. Cela peut contribuer à limiter le développement des stratégies d’intégration verticale qui pourraient tenter certains acteurs.

Maintenant effectivement, rien n’empêche un auteur qui aurait récupéré ses droits d’aller publier son ouvrage par le biais d’un opérateur comme Amazon, utilisant un format non-propriétaire. Mais comme je l’ai dit plus haut, les hypothèses dans lesquels les auteurs vont être en mesure de récupérer leurs droits au titre d’un défaut d’exploitation permanente et suivie de leur éditeur devraient rester relativement rares.

A mon sens, la question se pose d’une manière plus générale, et elle tiendra au point de savoir si les éditeurs proposeront des contrats d’édition équitables aux auteurs, qui dans la négative, pourront être tentés d’utiliser les outils d’auto-édition mis à leur disposition par de gros acteurs comme Amazon ou Apple. Or de ce point de vue, les recommandations de la mission Sirinelli n’offrent qu’assez peu de garanties aux auteurs.

Plusieurs des revendications fortes des représentants des auteurs n’ont pas été retenues (voir site de la SGDL). L’idée d’un contrat d’édition séparé pour l’exploitation numérique (comme cela existe déjà pour l’adaptation audiovisuelle) a été écartée. Elle a cédé le pas face au principe d’un contrat d’édition unique avec deux parties distinctes, l’une pour l’exploitation sous forme imprimée et l’autre pour le numérique, relativement indépendantes l’une de l’autre. Concernant la question cruciale de la rémunération, le taux accordé à l’auteur reste entièrement à la négociation des parties, l’accord prévoyant seulement que la rémunération doit porter sur l’ensemble des recettes provenant de la commercialisation et de la diffusion numériques de l’œuvre. Enfin, les accords ne prévoient pas de mettre en place dans les contrats des cessions des droits limitées dans le temps pour le numérique, mais une simple clause de réexamen.

Tout ceci signifie que sur tous ces aspects, qui sont pourtant les plus sensibles entre auteurs et éditeurs, c’est la simple négociation qui va continuer à jouer, avec un rapport de force nécessairement en faveur des éditeurs. Du coup, j’ai envie de dire que si les éditeurs souhaitent éviter que les auteurs passent par les circuits d’auto-édition pour publier leurs œuvres, il leur appartient de proposer des contrats qui iront plus loin que ce que prévoient ces accords.

Le problème, c’est que ces dispositions, surtout si elles sont inscrites dans un Code des usages, risquent bien de devenir une sorte de « standard » auquel les éditeurs se réfèreront pour proposer leurs contrats aux auteurs.

A mon sens, il ne suffira pas de s’en tenir à ces mesures pour éviter une hémorragie d’auteurs vers l’auto-édition. Sans compter, qu’il existe d’ores et déjà des éditeurs qui ont des pratiques contractuelles beaucoup plus avancées en terme d’équilibre des droits, comme Publie.net par exemple (partage de rémunération 50/50 entre l’auteur et l’éditeur, limitation réelle de la durée de la cession des droits, etc). J’ai envie de dire que ces accords n’ont pas abordé de front les questions qui posaient le plus de problèmes dans les relations  entre auteurs et éditeurs, comme le montre une nouvelle fois le baromètre qui vient d’être publié par la SCAM et la SGDL.

A whole stack of books. Par windsordi. CC-BY-NC. Source : Flickr.

Q/Guénolé Boillot : Le contrat d’édition doit comporter une clause de réexamen de plein droit des conditions économiques de la cession des droits d’exploitation numérique. Le réexamen des conditions économiques du contrat doit porter notamment sur l’adéquation de la rémunération de l’auteur, qu’elle soit proportionnelle ou forfaitaire, à l’évolution des modèles économiques de diffusion numérique de l’éditeur ou du secteur. Pensez-vous que d’or et déjà un examen soit nécessaire ? A l’aune du partage de fichiers (légal ou illégal), des licences Creative Commons qu’induit l’écosystème du numérique dès maintenant, pensez-vous qu’un réexamen des conditions économiques de la cession des droits d’exploitation numérique soit nécessaire ?

R/Calimaq : A lire les propositions de la mission Sirinelli, on a quand même la sensation très désagréable que cette clause de réexamen constitue en réalité un trompe-l’œil, qui va permettre de perpétuer les pratiques françaises ayant cours pour le papier, à savoir des durée de cession des droits couvrant toute la durée de la propriété intellectuelle (vie de l’auteur plus 70 ans). C’est à mon sens la plus grande concession qui a été faite par les auteurs dans ce débat et on est frappé du contraste qui va continuer à exister en France par rapport aux pratiques dans les pays étrangers, où même pour l’exploitation sous forme imprimée, les droits sont quasiment toujours cédés pour une durée bien déterminée.

La procédure prévue par les accords est très complexe, puisqu’en cas de désaccord, l’auteur et l’éditeur doivent saisir une commission de conciliation, composée à parité d’auteurs et d’éditeur. Mais l’avis rendu ne lie pas les parties et face au refus de l’éditeur d’accepter une modification du contrat, il faudrait que l’auteur saisisse un juge, ce qui restera sans doute très marginal. Encore une fois, on a que les éditeurs vont pouvoir continuer à bénéficier pleinement du rapport de force en leur faveur…

Pour répondre plus directement à votre question, il faut bien prendre en compte le fait que ce mécanisme ne s’appliquera qu’aux contrats futurs qui comporteront une telle clause de réexamen. Mais des contrats d’édition numérique se signent depuis plusieurs années à présent, avec des durées de cession très longues et même si le Code de Propriété Intellectuelle est modifié, cela n’aura pas d’effet sur les contrats déjà signés. Les auteurs qui ont accepté des avenants présentés par leurs éditeurs, reconduisant à l’identique les conditions du papier pour l’exploitation numérique (avenant type SNE), auront sans doute bien du mal à faire modifier leurs contrats à présent…

Maintenant, il est clair que la rapidité avec laquelle évolue l’environnement numérique fait que les conditions économiques de la cession des droits devront nécessairement être réexaminés régulièrement. Vous évoquez les licences Creative Commons et à mon sens, les auteurs devraient davantage se pencher sur ces instruments, qui permettent d’envisager une circulation des œuvres en ligne, tout en maintenant un certain nombre d’exigences (respect de la paternité, absence de modifications, pas d’usage commercial, etc). Il existe des modèles économiques intéressants, y compris dans le domaine de l’édition numérique, qui peuvent être construits sur ces modes de diffusion maîtrisée, en utilisant les forces du partage plutôt qu’en essayant de lutter contre elles.

Si l’éditeur ne l’envisage pas, c’est à l’auteur de faire accepter le principe du passage de son œuvre sous licence Creative Commons et de l’inscrire dans le contrat d’édition. Cela peut d’ailleurs constituer un excellent moyen pour l’auteur de se réserver certains types de diffusion.

Pour en revenir à cette clause de réexamen, je pense en réalité que dans ces accords auteurs/éditeurs, l’élément le plus intéressant pour les auteurs est ailleurs. La mission Sirinelli a proposé la mise en place d’une clause de fin d’exploitation qui permettra aux auteurs de récupérer leurs droits lorsque, durant deux années consécutives, la reddition des comptes fera apparaître qu’il n’y a pas eu de droits versés. Cela me paraît un moyen plus simple et plus efficace pour que l’auteur récupère vraiment ses droits, sans doute davantage que le défaut d’exploitation permanente et suivie.

Ce mécanisme nouveau vaut aussi bien pour l’exploitation sous forme imprimée que numérique et il peut contribuer à contrebalancer les cessions des droits de trop longue durée. Mais il n’est tout de même pas aussi efficace et protecteur pour l’auteur qu’une cession vraiment limitée dans le temps. La manière dont les accords précisent les obligations incombant à l’éditeur en matière de reddition des comptes peut cependant s’avérer un autre élément important, car le fait de ne pas les respecter entraîne une résiliation de plein droit du contrat.

PAr filmdave. CC-BY-NC-ND. Source Flickr.

Q/Guénolé Boillot : « le bon à tirer des épreuves papier vaut bon à diffuser du livre numérique homothétique, sauf pour les livres imprimés contenant des illustrations, pour lesquels un bon à diffuser numérique est nécessaire. Un bon à diffuser numérique est en tout état de cause nécessaire dès lors que l’éditeur apporte aux épreuves papier des modifications ou des enrichissements autres que ceux nécessaires à l’exploitation numérique ». Cela traduit-il une inquiétude par rapport à l’hégémonie du livre-application ? Cette méfiance de l’enrichissement numérique ne vient-elle pas, à revers, dévaluer le travail de l’auteur de cet enrichissement ? Est-ce que le bon à tirer numérique ne risque-t-il pas d’entraver une certaine forme de créativité sur l’enrichissement qu’apporte le numérique ?

R/Calimaq Je n’ai pas tellement ce sentiment et il me semble que ce principe d’un bon à diffuser numérique était important pour que l’auteur puisse faire valoir son droit moral en matière d’édition numérique.

Le numérique permet des apports qui sont sans commune mesure avec l’édition sous forme imprimée et dans la tradition française, il est important que l’auteur ait son mot à dire sur la forme sous laquelle son œuvre sera diffusée. Le bon à diffuser numérique garantit que l’auteur sera toujours associé au travail d’enrichissement numérique de son œuvre et cela me semble plutôt une bonne chose. Le contrat d’édition n’est pas un blanc-seing accordé à l’éditeur pour disposer de la matière première fournie par l’auteur. Dans le cas des livres-applications que vous citez, le résultat final peut se rapprocher davantage d’un jeu-vidéo que d’un livre et on est presque alors dans une forme d’adaptation de l’œuvre. Cela me semble normal que l’auteur puisse avoir son mot à dire en la matière et même qu’on lui réserve une sorte de « final cut » sur ce genre de modifications.

Est-ce que cela dévalorise pour autant les auteurs des enrichissements numériques ? Si le projet d’édition numérique consiste à produire des apports vraiment substantiels par rapport au simple texte, alors ces auteurs devraient être considérés comme des co-auteurs à part entière du livre numérique final. Mais cela devrait même être pris en compte dès l’origine du projet dans le contrat d’édition. Quelque part là encore, on va se retrouver avec des situations proches de celles que l’on rencontre dans le cadre du jeu vidéo (dont le régime juridique est d’ailleurs encore assez flottant, notamment quant à la reconnaissance des apports des différents intervenants).

Maintenant pour en revenir aux propositions de la mission Sirinelli,je trouve par contre très surprenant que l’on puisse envisager que le bon à tirer pour l’imprimé puisse valoir bon à diffuser du livre numérique « homothétique ». La numérisation constitue une modification décisive du mode de diffusion des oeuvres et elle met en cause selon moi le droit moral de l’auteur, même en cas de réalisation d’un livre homothétique.

Par ailleurs, je trouve qu’il y a quelque chose de paradoxal à avoir donné un pouvoir fort à l’auteur avec le bon à diffuser numérique, tout en maintenant le principe d’un contrat unique pour l’imprimé et le numérique. Si l’édition numérique est susceptible d’apporter des modifications substantielles à l’œuvre (ce que reconnaît le bon à diffuser numérique), alors il aurait été plus logique de la considérer comme une forme d’adaptation des œuvres et, comme en matière d’adaptation audiovisuelle, de prévoir un contrat obligatoirement séparé.

Cela aurait été à mon sens bien plus protecteur pour l’auteur et plus conforme à la nature de l’édition numérique, qui va sans doute produire de plus en plus des objets très éloignés des simples livres « homothétiques ».

Mise à jour du 25/03/2013 : je recommande vivement d’aller lire l’analyse faite par le SNAC/BD de ces accords, qui est très éclairante.


Classé dans:Edition numérique, aspects juridiques Tagged: auteurs, éditeurs, édition, édition numérique, cession des droits, clause, contrat, contrat d'édition, Sirinelli

D’une société ouvrière à une société « oeuvrière » : profusion des auteurs et économie de l’abondance

jeudi 21 mars 2013 à 13:25

En novembre dernier, avait lieu à la BnF et au CNAM un événement sur trois jours intitulé « PNF Lettres 2012 / Les métamorphoses de l’œuvre et de l’écriture à l’heure du numérique : vers un renouveau des humanités ?« , co-organisé avec le Ministère de l’Education nationale.

Par Alexness. CC-BY-NC-ND. Source Flickr.

Qu’arrive-t-il à une société quand les auteurs prolifèrent en son sein ? (Par Alexness. CC-BY-NC-ND. Source Flickr)

Les actes vidéo de ce colloque sont disponibles en ligne et j’avais été invité à cette occasion à intervenir lors de l’après-midi de la seconde journée, au cours d’une session « Ecrire web : ou comment s’invente la littérature aujourd’hui« , animée par Xavier de La Porte.

Cette séquence mettait à l’honneur un certain nombre d’auteurs contribuant à la plateforme Publie.net de François Bon, qui ont pu présenter leur démarche créative de manière originale, lors d’un Pecha Kucha vraiment mémorable (et c’est un plaisir de pouvoir retrouver ce moment en vidéo).

On m’avait demandé, au cours d’une table-ronde avec Gilles Bonnet et Olivier Ertzscheid,  d’évoquer sous l’angle juridique les questions que le numérique pose au statut de l’auteur et de l’oeuvre (intervention en vidéo ici).

pnf

Cliquer sur l’image pour voir la vidéo

J’avais essayé de montrer que l’économie de l’abondance dans laquelle le numérique nous a plongé n’est pas seulement un état d’abondance des contenus, mais aussi une situation inédite d’abondance des auteurs, avec de profondes conséquences sur le plan social et politique.

Tout autant que la technique, qui a mis un grand nombre d’individus en mesure d’accéder à des outils de publication en ligne, le droit est en grande partie responsable de cette prolifération des auteurs. Car le droit d’auteur s’intéresse étrangement peu à la littérature. Il nous accorde très facilement la qualité d’auteur, chaque fois que nous publions des contenus en ligne, dès lors que nous les mettons en forme en procédant à des choix. Ce statut d’auteur s’attache à nous automatiquement et souvent même, sans que nous en ayons pleinement conscience.

Loin d’être réservée aux « écrivains », la qualité d’auteur s’est donc incroyablement diffusée dans la population et c’est cette diffraction sociale du statut d’auteur qui constitue sans doute l’une des caractéristiques les plus frappantes de notre époque. S’y ajoute la puissance de dissémination propre au numérique et l’effet qu’elle produit sur les oeuvres, qui perdent leur finitude pour circuler en ligne entre les différentes plateformes, au point que la notion même d’une topologie de la publication tend à s’effacer.

Dans une telle société marquée par l’abondance des auteurs et l’interconnexion des oeuvres, comment faire en sorte de mettre en capacité les individus de devenir véritablement créatifs, en leur donnant l’indépendance intellectuelle et financière nécessaire pour y parvenir ? Avec ce tournant majeur que doivent affronter nos sociétés post-industrielles, comment passe-t-on, selon une belle expression que j’emprunte à Jérémie Nestel, d’une société ouvrière à une société « oeuvrière », qui doit se donner les moyens de faire une place à ces myriades d’auteurs.

« Nous sommes légion », le slogan des Anonymous. Mais ces légions en question sont avant tout des foules d’auteurs…

Dans un article publié sur OWNI qui préfigurait ce concept de société oeuvrière, Jérémie Nestel disait ceci :

La numérisation des écrits, des photographies,  des films,  permet à  tout un chacun d’éditer son travail artistique sur Internet. Il n’y  a pas de limite à l’auto-édition, pas de filtres, pas d’éditeurs,  pas de programmateurs, pas de commissaires d’exposition.  Des œuvres  d’art peuvent êtres diffusées, copiées, transformées, vues par des  millions de personnes. Sur Internet le public est libre de faire ses  propres choix esthétiques, les interactions, la médiation, entre une œuvre et son public, n’est pas prise en charge par des institutions publiques ou privées.

Il se trouve que le même jour où je publie ce billet, Silvère Mercier a écrit sur son blog un article fondamental, qui montre que la légalisation du partage non-marchand et la mise en place d’une contribution créative ont justement pour but de relever le défi de cette adaptation sociale à l’explosion des auteurs dans l’économie de l’abondance.

Il cite Philippe Aigrain qui quantifie plus précisément ce phénomène de prolifération des auteurs :

En raison de la capacitation culturelle permise par le numérique, ce n’est pas seulement à une prolifération quantitative que nous assistons, même si celle-ci est impressionnante. Près de 25% des européens adultes (EU-27) produisent des contenus rendus accessibles universellement sur internet et il est aisé de mesurer l’immense progression du nombre de productions accessibles théoriquement à tous. Mais il existe également de nombreuses indications que cette prolifération s’observe à chacun des niveaux de compétence et de pertinence ou qualité, malgré toutes les difficultés de définition de ces concepts.

Cela représente 125 millions d’individus en Europe engagés dans un processus de création, que Silvère relie au concept « d’Artification » proposée par Nathalie Heinich et Roberta Shapiro pour penser la diffusion des pratiques amateurs et le « passage à l’art ».

Le sens de l’histoire et ce que le droit d’auteur contribue à masquer profondément… (Par Karlpro.)

Et Silvère de conclure :

[...] la guerre au partage se fait contre les amateurs-auteurs (petit a et avec un s) au profit des Intermédiaires et de quelques Auteurs. On comprend le soin apporté par les industriels dans les discussions européennes à soigneusement distinguer les « contenus générés par les utilisateurs » des « Auteurs » le grand A signifiant en réalité l’affiliation à des sociétés de gestion des droits.

La mutation du statut de l’auteur et de l’oeuvre provoquée par le numérique dessine donc les contours d’un programme politique, qui est appelé à aller bien plus loin qu’une simple réforme du droit d’auteur, si l’on veut faire advenir une véritable société « oeuvrière ». A terme, c’est aussi la question fondamentale du revenu de base qu’il faudra aborder de front pour aller au bout de cette transformation.

***

PS : Merci à Cécile Portier (alias @PetiteRacine), qui a été l’un des chevilles ouvrières de cette session. Merci également à François Bon, à qui je dois sans doute cette invitation.


Classé dans:Penser le droit d'auteur autrement ... Tagged: auteurs, économie de l'abondance, contribution créative, création, droit d'auteur, littérature, partage, pecha kucha

Le monde dystopique d’Oz, ou les avanies du domaine public sans copyleft

dimanche 17 mars 2013 à 08:23

La semaine dernière est sorti sur les écrans le film Le Monde Fantastique d’Oz (Oz, The Great and Powerful en anglais), réalisé par Sam Raimi et produit par les studios Disney. L’arrière-plan juridique dans lequel la création de ce film s’est déroulé mérite que l’on s’y attarde, car Disney a dû traverser un véritable parcours du combattant pour parvenir à faire sortir ce film en évitant les poursuites en justice.

Le roman original de L. Franck Baum, paru pour la première fois en 1899, est pourtant dans le domaine public, mais le célèbre film de 1939 avec Judy Garland reste quant à lui protégé. Les droits appartiennent à la Warner Bros. qui défend encore férocement ses titres de propriété sur la véritable poule aux oeufs d’or que constitue l’univers du Magicien d’Oz (le film le plus regardé de toute l’histoire du cinéma d’après la Bibliothèque du Congrès).

La superbe mention de copyright de la première édition du Magicien d'Oz de 1899. On remarque que L. Franck Baum a partagé son copyright avec l'illustrateur W. W. Denslow. Domaine public. Source : Internet Archive

La superbe mention de copyright de la première édition du Magicien d’Oz de 1899. On remarque que L. Franck Baum a partagé son copyright avec l’illustrateur W. W. Denslow. Domaine public. Source : Internet Archive

Le domaine public garantit normalement la possibilité de réutiliser et d’adapter une oeuvre sans entrave, y compris en vue d’une exploitation commerciale. Mais l’exemple du magicien d’Oz montre que la réalité est bien plus complexe, dans la mesure où des droits peuvent facilement renaître sur le domaine public, assurant à des tiers de nouveaux titres de propriété exclusive. On en vient même à se dire que le domaine public serait mieux protégé si un mécanisme proche de celui du copyleft lui était appliqué, afin d’empêcher que les oeuvres ne soient saisies par de nouvelles enclosures.

L’enveloppe utilisée par L. Franck Baum pour enregistrer le copyright sur une comédie musicale tirée de son roman Le magicien d’Oz (Bibliothèque du Congrès)

Oz et la magie noire du Copyright

Le problème avec le magicien d’Oz provient en réalité d’une affaire antérieure, qui avait opposé la Warner, titulaire des droits sur le film de 1939, à une entreprise ayant réalisé des T-shirts à l’effigie des personnages de l’univers d’Oz. Les juges ont alors rendu une décision complexe qui a admis que les droits de la Warner avaient été violés, sur la base d’une « protection des personnages » (character protection), quand bien même le roman original était dans le domaine public.

La justice américaine a en effet estimé que les personnages dans le film possédaient des « caractères spécifiques et largement identifiables« , détachables des figures présentées dans le livre. Leur raisonnement consistait à dire qu’il était désormais impossible de se représenter un personnage comme Dorothy sans penser à l’interprétation de Judy Garland, comme si une « couche mémorielle » s’était ajoutée en surimpression sur l’oeuvre originelle.

Les Tshirts de la discorde, proches en effet des personnages du film de 1939.

Réagissant à cette décision, le site Techdirt avait immédiatement compris qu’elle comportait quelque chose de redoutable pour le domaine public. Car une telle conception signifiait d’une certaine façon que les réutilisations d’une oeuvre du domaine public étaient désormais susceptibles de « rétroagir » sur l’oeuvre original et d’en limiter la disponibilité. Cette crainte était confirmée par un juriste américain commentant la décision :

Tous les réalisateurs qui voudront créer une nouvelle adaptation d’une oeuvre littéraire – même si elle appartient au domaine public – devront prendre garde à ne pas utiliser des éléments copyrightés attachés à des personnages apparus dans des adaptations filmographiques antérieures à la leur. Bien entendu, quand il s’agira d’une interprétation par des acteurs de personnages fictifs, ce sera plus facile à dire qu’à faire…

S’agissant du magicien d’Oz, outre l’interprétation des acteurs, il existe des différences importantes introduites dans le film de 1939 par rapport au roman de L. Franck Baum. Dorothy par exemple porte des chaussures de rubis, alors que le roman parle de chaussures d’argent. Cette modification avait été apportée afin de tirer le meilleur parti du procédé Technicolor utilisé pour le film. De la même façon, la Sorcière de l’Ouest interprétée par Margaret Hamilton dans le film avait la peau verte pour ressortir à l’écran, alors que ce détail n’est pas mentionné dans le livre. Une route de briques rouges a également été ajoutée dans le film, alors que dans le roman, il n’existe qu’une route de briques jaunes (Yellow Brick Road) que Dorothy et ses amis suivent au cours de leur voyage. Toutes ces différences propres au film de 1939, ainsi bien entendu que les chansons comme Over The Rainbow, restent encore pleinement protégées par le droit d’auteur et il n’était pas possible pour Disney de les réemployer pour son propre film.

Les fameux souliers de rubis de Dorothy dans le film de 1939 (Par Dbking. CC-BY. Source : Wikimedia Commons).

Ces multiples difficultés créaient un véritable casse-tête légal qui ont conduit Disney à faire des choix artistiques radicaux pour éviter les foudres judiciaires de la Warner.

Comment les juristes ont écrit le scénario du Monde fantastique d’Oz…

Quand on parcourt certains articles écrits à propos des déboires rencontrés par Disney, on est frappé de voir à quel point les contraintes légales ont pesé sur les choix artistiques pour ce film. En 2011, on pouvait lire que le design du smartphone Samsung Galaxy SIII avait été entièrement conçu par des juristes pour éviter les poursuites d’Apple. Le Monde Magnifique d’Oz est sans doute un film qui a été autant élaboré par des avocats que par des scénaristes, et il y a quelque chose d’assez dérangeant à se dire que nous vivons dans un monde où une telle aberration est possible…

Page manuscrite du script d’une comédie musicale tirée par L. Franck Baum de son roman en 1903 (Bibliothèque du Congrès).

Il est clair que Disney aurait préféré proposer sa propre adaptation du roman de Baum (Disney s’est en même fait souffler les droits en 1937 par la Metro-Goldwin-Meyer, qui a pu réaliser le film de 1939, pour les revendre ensuite à la Warner). Mais devant les difficultés légales, Disney a préféré jouer la carte de la sécurité en réalisant une prequel de l’histoire décrite dans le Magicien d’Oz. Un tel choix lui évitait notamment de reprendre des personnages à hauts risques, comme Dorothy. L’histoire est ainsi centrée sur le personnage même du magicien d’Oz, qui apparaît très peu dans le roman et par conséquence, dans la comédie musicale. Bien entendu, il fallait néanmoins que les équipes de Disney se raccrochent à l’univers du monde d’Oz, mais en introduisant des différences sensibles par rapport à la vision donnée par le film de 1939.

Illustration de l’édition du Magicien d’Oz de 1900. Domaine public. Source : Wikimedia Commons.

Les avocats de Disney sont lourdement intervenus durant la production et ils ont par exemple insisté pour que les fameux singes ailés soient modifiés afin de ressembler davantage à des babouins aux dents acérées. Une attention particulière a été portée  à l’apparence des Munchkins, des nains décrits dans le roman comme arborant d’étranges coiffures bouclées. Les avocats de Disney ont estimé après le tournage que la coupe qu’ont leur avait donné était trop proche de celle du film de 1939 et il a fallu que les équipes de Sam Raimi les modifie image par image en retouche numérique lors de la post-production.

Mais le summum du délire a été atteint à propos de la couleur de peau de la Sorcière de l’Ouest.  Howard Berger, le maquilleur attaché au film a dû déployer des trésors d’ingéniosité pour arriver à une teinte validée par les avocats de Disney. Le résultat s’appelle paraît-il le « Théostein », en référence au nom de la sorcière et à… Frankenstein ! D’autres éléments du costume de ce personnage interprété par Mila Kunis ont visiblement fait l’objet de longues discussions légales, comme la forme de son chapeau ou son bustier…

La nouvelle sorcière de l’Ouest et l’ancienne : fifty shades… of green !

Malédiction du droit des marques

Le droit d’auteur n’est pas le seul problème auquel Disney a dû faire face pour ce film. La Warner défend avec beaucoup d’agressivité les nombreuses marques qu’elle a déposées au fil du temps sur l’univers d’Oz. La firme est déjà intervenue par le passé pour interdire l’usage de désignations comme « Wizard of Azz », « Wicked of Oz », ou « Flying Monkeys Vine », susceptibles de lui faire de l’ombre.

En octobre dernier, Warner a tenté un coup de poker tordu envers Disney en essayant de déposer comme marque les termes « The Great and Powerful Oz« . Elle espérait parvenir à le faire avant que Disney n’ait réussi à protéger le titre de son film, pour pouvoir vendre à sa guise des produits dérivés en empêchant son concurrent de le faire… Mais c’était déjà une semaine trop tard, car Disney avait déjà pris ses précautions en déposant une demande auprès de l’office des marques des Etats-Unis.

Pour Disney, voilà la vraie poule aux oeufs d’or, et vraisemblablement ce qui a poussé la firme à produire ce film, malgré les difficultés.

Ce n’est pas la première fois que l’on constate que le droit des marques peut sérieusement interférer avec le domaine public, en étant détourné de son but à des fins de copyfraud. Les personnages de Tarzan, de Sherlock Holmes ou encore récemment de Zorro ont ainsi fait l’objet de revendications de la part d’ayants droits sur la base du droit des marques pour tenter de récupérer un contrôle sur des oeuvres, une fois celles-ci entrées dans le domaine public.

Faire évoluer le domaine public en un domaine commun ?

Au vu de cet exemple du Magicien d’Oz, le site Techdirt estime que le domaine public s’est transformé en un véritable champ de mines, tant les obstacles sont nombreux pour ceux qui veulent y puiser pour créer à leur tour. Quelque part, il est ironique que ce soit une firme comme Disney qui soit « victime » de ces entraves, vu qu’il s’agit certainement d’un des plus grands voleurs de propriété intellectuelle au monde, qui a bâti son empire sur le domaine public, en puisant dans le fonds commun des contes et légendes, tout en le démolissant par ailleurs par son lobbying en faveur de l’allongement de la durée des droits (le funeste Mickey Mouse Act).

Mais cette affaire soulève des questions troublantes sur le statut juridique du domaine public lui-même. Le domaine public doit normalement servir à constituer la culture en un Bien Commun de l’Humanité, mais comment serait-ce possible s’il devient si simple de reposer des enclosures sur ce qui devrait rester disponible pour tous ? Dans l’ouvrage « Libres Savoirs : les biens communs de la connaissance« , il y a un article écrit par Madhavi Sunder et Anupam Chander, nous mettant en garde contre une conception « romantique » du domaine public, que son ouverture même laisse à la merci de toutes les formes de réappropriation. Les auteurs le déplorent à propos des savoir traditionnels des pays du Sud, qui se sont fait piller sans vergogne par les nations industrialisées, à défaut d’être correctement protégés. Mais la même question se pose pour le patrimoine culturel, lorsque l’on voit les comportements de prédateurs de firmes comme Warner ou Disney.

Imaginons un instant que l’oeuvre de L. Frank Baum soit placée sous un régime juridique de copyleft, avec une condition de partage à l’identique (Share Alike). Cette lutte délétère entre Warner et Disney deviendrait sans objet et même les chaussures de rubis de Dorothy ou la peau verte de la Sorcière de l’Ouest seraient alors librement réutilisables, à condition de ne pas chercher à supprimer cette liberté offerte à tous.

Dans le projet de loi pour le domaine public que j’ai proposé, j’ai déjà commencé à m’attaquer au problème des enclosures, en essayant d’introduire des mécanismes visant à neutraliser la possibilité de faire renaître des droits sur le domaine public. Peut-être faut-il aller plus loin et proposer un dispositif de protection plus puissant inspiré du copyleft ? Dans le même ordre d’idée, un penseur important des biens communs, David Bollier, pense de son côté que l’on devrait appliquer un copyleft pour protéger les semences et les gènes, qui font eux-aussi l’objet de tentatives gravissimes d’appropriation.

Ce serait alors faire évoluer le domaine public vers un domaine commun.

PS : sur Internet Archive, on trouve la première édition du Magicien d’Oz, superbement illustrée et diffusée dans le respect son appartenance au domaine public. Merci @PoivertGBF pour me l’avoir signalée !


Classé dans:CopyrightMadness : les délires du copyright, Domaine public, patrimoine commun Tagged: adaptation, cinéma, copyfraud, copyleft, Disney, Domaine public, droit d'auteur, droit des marques, film, le Monde fantastique d'Oz, licences libres, Magicien d'Oz, Oz The great and powerful, procès, share alike, Warner

Le P2P, la Culture libre et le mouvement des Communs

samedi 16 mars 2013 à 17:34

En novembre dernier, j’ai eu l’occasion d’être invité à Montréal dans le cadre d’un événement intitulé « A l’école des Communs », organisé par l’association Communautique et Remix Biens Communs.

Le premier temps de cette initiative consistait en une conférence portant sur le thème « Le P2P, la culture libre et le mouvement des Communs ». J’ai eu le grand privilège dans ce cadre de pouvoir intervenir aux côtés de Michel Bauwens, l’un des plus importants théoriciens actuels des biens communs et le fondateur de la P2P Foundation.

Ci-dessous, je poste la présentation qui m’avait servi de support.

L’association Communautique a enregistré le lendemain une interview dans laquelle je détaille les points abordés lors de la conférence. J’ai notamment essayé de montrer en quoi à mon sens, la théorie des biens communs s’avère un outil plus puissant que la seule approche par la Culture libre pour répondre aux défis posés par la montée de la répression du partage et l’adaptation de la propriété intellectuelle.

Communautique ayant fait un remarquable travail de montage de la vidéo, vous pouvez naviguer entre les différentes parties grâce à ce plan interactif. Je vous recommande en particulier le point 6, dans lequel je détaille les différences d’approche entre plusieurs solutions de financements alternatifs de la création : licence globale, mécénat global et contribution créative.

TABLE DES MATIÈRES DE L’ENTRETIEN

1. (00:33 secondes) Point de vue d’un juriste sur le P2P et le bien commun

2. (01:44 minutes) Le P2P et ses effets sur les industries culturelles

3. (02:42) Réponse des tribunaux aux pratiques P2P

- Les verrous numériques (DRM) et les lois afférentes (03:27)
- Escalade dans la violence légale (04:33)
- Une atteinte à l’internet comme bien commun (05:12)
- Les différentes lois et traités internationaux (06:47)

4. (07:34) Les stratégies d’acteurs privés

5. (08:16) Face à cette escalade, comment agir?

- La culture libre et ses effets (08:35)
- Les capacités limitées de la culture libre d’aboutir à une réforme globale (09:56)
- La solution par l’approche des biens communs (12:21)
- Phase juridique: légaliser le partage à des fins non marchandes (14:13)
- Phase économique: Économie du partage, financement de la création (15:36)

6. (16:38) Les 3 approches possibles

- Approche 1: Licence globale (16:53)
* Voir: http://www.laquadrature.net/fr/elemen…
- Approche 2: L’approche pirate (18:28)
- Approche 3: La contribution créative (19:32)

7. (22:46) Conclusion
Seule l’approche par les biens communs permet de penser une réforme globale.

Michel Bauwens a lui aussi enregistré une vidéo : « Vue d’ensemble de l’économie collaborative« , qui rend compte des résultats de recherche dégagé dans le cadre de la réalisation de l’ouvrage Synthetic Overview of the Collaborative Economy. Il y fait le lien entre le mouvement des Biens Communs et des phénomènes comme le crowdfunding, le crowdsourcing, la consommation collaborative, le co-design, les monnaies libres, ainsi qu’avec l’émergence d’une Peer-to-Peer Economy, s’appuyant sur des modèles de propriété partagée. Il explique aussi les liens complexes qui existent entre cette nouvelle économie collaborative et l’économie capitaliste, et défend la mise en place d’une Peer Production Licence dont j’ai déjà eu l’occasion de parler dans S.I.Lex.

L’événement « A l’école des Communs » s’est prolongé par une discussion sur l’éCo-nomie des Communs, ayant eu lieu dans le superbe cadre de l’Eglise Saint-Marc de Montréal, qui doit être transformée en un laboratoire citoyen ouvert (le Mandalab). Communautique a enregistré à cette occasion les deux vidéos suivantes :

Merci à Communautique et à Remix Biens Communs pour l’organisation de cet événement et la réalisation de ces vidéos qui permet d’en garder la trace !


Classé dans:Alternatives : Copyleft et Culture Libre, Modèles économiques/Modèles juridiques Tagged: Biens Communs, culture libre, licences libres, michel bauwens, Montréal, P2P, partage