PROJET AUTOBLOG


S.I.Lex

source: S.I.Lex

⇐ retour index

Quel modèle économique pour une numérisation patrimoniale respectueuse du domaine public ?

mardi 6 juin 2017 à 18:07

Le mois dernier est paru au Cercle de la Librairie le livre « Communs du savoir et bibliothèques« , pour lequel Lionel Dujol, qui coordonnait l’ouvrage, m’a demandé d’écrire une contribution. La publication de ce livre est un signe de plus de l’importance croissante de la thématique des Communs dans la sphère professionnelle des bibliothèques. On peut également noter que l’éditeur a accepté que les auteurs puissent publier sans délai leurs contributions en Libre Accès, ce qui me permet de poster le chapitre dont j’avais la charge sur ce blog. C’était important pour beaucoup des contributeurs à ce livre, afin qu’il n’y ait pas de contradiction entre le fond et la forme. Et cela montre par ailleurs qu’il y a toujours intérêt à négocier avec un éditeur pour obtenir des conditions de diffusion compatibles avec les principes de l’Open Access, même dans le cas de monographies.

Lionel Dujol m’a demandé de traiter la question (épineuse) de la numérisation du domaine public en bibliothèque, et plus précisément des modèles économiques qui peuvent sous-tendre ce type d’activités. J’examine quatre types de modèles (la numérisation à la demande, le financement participatif, les partenariats public-privé de numérisation et le Freemium) en essayant de voir lesquels sont les mieux à même de garantir la soutenabilité de la numérisation patrimoniale, sans générer de nouvelles enclosures sur la diffusion de la Connaissance.

Retrouvez ci-dessous l’introduction de cet article (et la version intégrale sur la plateforme HAL).

***

Les institutions culturelles (bibliothèques, archives, musées) sont placées dans une position délicate par rapport à la question de la réutilisation des produits de la numérisation patrimoniale. Les crédits publics alloués à la numérisation sont – comme les autres – en baisse et le volume des collections restant à convertir en format numérique est immense. Confrontées de la part de leurs tutelles à l’injonction de trouver des pistes d’autofinancement, les services culturels sont incités à dégager des ressources propres en levant des redevances sur la réutilisation des œuvres du domaine public numérisées. Mais d’un côté, il leur est aussi fait reproche de poser de nouvelles enclosures sur les biens communs de la Connaissance que devraient constituer les collections numérisées. La numérisation constitue en effet le moyen de réaliser la promesse du domaine public, en permettant la reproduction et la diffusion à grande échelle des œuvres, libérées des contraintes matérielles liées à leurs supports physiques. Mais encore faut-il que ces activités de numérisation conduites par les acteurs publics soient soutenables financièrement à long terme, ce qui pose un problème de modèle économique devant être regardé en face.

Cette question existe depuis les débuts de la numérisation, mais elle risque de se poser avec une acuité nouvelle à l’avenir. En effet jusqu’à une date récente, la création de nouvelles couches de droits par les institutions culturelles sur les œuvres numérisées soulevaient de nombreuses questions juridiques et cette pratique était même parfois dénoncée comme relevant du Copyfraud (fraude de droit d’auteur) . Mais avec la loi du 28 décembre 2015 « relative à la gratuité et aux modalités de la réutilisation des informations du secteur public » (dite aussi Loi Valter), la France a choisi de lever l’ambiguïté juridique d’une manière qui ne pourra désormais plus être contestée. Le texte grave dans le marbre la possibilité pour les institutions culturelles de lever des redevances sur la réutilisation des « informations issues des opérations de numérisation des fonds et des collections des bibliothèques, y compris des bibliothèques universitaires, des musées et des archives ». Il les autorise également à conclure des partenariats public-privé « pour les besoins de la numérisation de ressources culturelles » avec l’octroi d’exclusivités d’une durée pouvant aller jusqu’à 15 ans, susceptibles elles aussi de limiter la réutilisation des œuvres.

Que cette possibilité d’établir des redevances de réutilisation soit désormais consacrée ne signifie pas cependant que les institutions culturelles soient obligées d’y recourir. Plusieurs services d’archives, de bibliothèques ou de musées ont choisi d’autoriser la libre diffusion des œuvres qu’elles numérisent en respectant leur appartenance au domaine public. Certains établissements ont fait ce choix au terme d’un calcul économique plus global, en ne se limitant pas à une approche purement comptable. C’est ce qu’exprime par exemple un responsable de la Bibliothèque Nationale et Universitaire de Strasbourg pour justifier le choix en 2012 d’abandonner les redevances et d’opter pour la libre réutilisation
:

Avant notre décision, nous appliquions une redevance d’usage, de l’ordre de 35€ par image. Ce règlement était basique, nous aurions pu l’affiner. Cependant, les sommes récoltées par la BNU chaque année au titre de la redevance d’usage étaient minimes, de l’ordre de 3000€. Elles ne couvraient naturellement pas le temps de travail de la secrétaire chargée de gérer les factures et la correspondance avec les lecteurs, ni le temps des autres personnes – y compris de l’Administrateur – impliquées en cas de demande d’exonération ponctuelle ou systématique. En outre, nous espérons que l’abandon de la redevance d’usage entraînera une augmentation des demandes de numérisation de documents, service qui lui restera payant […]
D’autre part, nous estimons que la libération des données favorise la créativité artistique et intellectuelle, de même que commerciale : établissement public, il est dans l’intérêt de la BNU de favoriser le dynamisme économique et commercial du pays, créateur d’emplois et générateur de rentrées fiscales. La BNU devient ainsi indirectement une source d’activité économique : le retour sur l’investissement consenti par la Nation pour le financement de la BNU trouve ici une concrétisation potentiellement mesurable.

C’est ce type de raisonnement qui a justifié à partir de 2011 le déploiement progressif d’une politique d’Open Data en France étendue généralisée en septembre 2016 avec la loi République Numérique par l’imposition aux administrations d’un principe d’Open Data « par défaut ». Ce changement de politique a été préparé par un rapport remis en 2014 par la Cour des Comptes (dit rapport Trojette), qui s’est livré à une évaluation globale du modèle économique des redevances mises en place par les administrations pour la réutilisation des informations publiques. Hormis quelques rares hypothèses où les redevances se justifient encore (temporairement), ce rapport préconise de placer les données publiques en Open Data pour maximiser leur utilité sociale, en abandonnant les tarifs de réutilisation. Le secteur culturel sera donc désormais le seul qui bénéficiera d’une forme de « privilège » lui permettant de lever des redevances sans avoir à en démontrer l’efficacité économique.

Pour autant, si on admet que pour soutenir dans le temps leurs activités de numérisation les institutions culturelles doivent chercher des sources de financement autres que les subventions publiques, existent-ils des modèles économiques qui permettraient de concilier à la fois une forme efficace de retour sur investissement et la libre réutilisation des œuvres du domaine public numérisé ? Pour tenter de répondre à cette question, on examinera successivement quatre solutions expérimentées par des institutions culturelles : la numérisation à la demande, le financement participatif, les partenariats public-privé de numérisation et le modèle du Freemium.

Au terme de ce tour d’horizon, on sera en mesure de reprendre cette question du modèle économique de la numérisation, en essayant de montrer comment les institutions culturelles peuvent contribuer aux Communs de la connaissance davantage qu’elles n’établissent de nouvelles enclosures.

Pour lire la suite de l’article, rendez-vous sur l’archive ouverte HAL.


Classé dans:A propos des biens communs Tagged: Bibliothèques numériques, communs, Domaine public, enclosures, modèles économiques, Numérisation, partenariats public-privé

L’exclusion forcée du marché comme enclosure des biens communs

lundi 29 mai 2017 à 17:20

La semaine dernière est paru sur le site Reporterre un intéressant article consacré à Jean-Luc Danneyrolles, le fondateur du « Potager d’un curieux » : un lieu situé dans le Vaucluse dédié à la préservation et à la promotion des semences libres . Le papier explique notamment le parcours du combattant que ce paysan a dû traverser pour faire accepter son activité par les autorités administratives. Il a heureusement pu régulariser pour l’essentiel de sa situation, mais un point continue à générer des frictions, celui de la commercialisation des semences qu’il produit :

Quand on pose à Jean-Luc la question simple du droit à vendre toutes ses graines, il renverse l’interrogation. « De quel droit n’aurait-on pas le droit de produire de bonnes graines et de les commercialiser ? C’est la réappropriation de ce patrimoine que je défends. On n’a pas le droit, on prend le droit. Prendre un droit, ce n’est pas voler quelque chose, explique t-il. Je ne m’imagine jamais que la police viendra m’arrêter parce que je vends mes graines. On est soutenu par la société civile, c’est-à-dire qu’il y a plein de gens qui m’encouragent à continuer et ça me suffit. »

Image par Petr Kratochvil. CC0 – Domaine public.

Interdiction de commercialiser les semences libres ?

Comme j’ai déjà eu l’occasion d’en parler sur S.I.Lex, les semences peuvent faire l’objet en Europe d’un droit de propriété intellectuelle par l’intermédiaire des Certificats d’Obtention Végétale (C.O.V.) qui protègent des variétés obtenues par les semenciers. Par ailleurs, pour pouvoir légalement commercialiser des semences, il faut que celles-ci soient enregistrées dans un catalogue reposant sur des critères excluant par définition les variétés anciennes, comme l’explique l’article de Reporterre :

Pour la commercialisation de graines ou de plants, le décret n° 81-605 du 18 mai 1981 impose l’inscription des variétés au catalogue officiel des espèces et variétés végétales. Et pour être inscrites, les variétés doivent subir deux tests : DHS (pour « distinction, homogénéité, stabilité ») et VAT (pour « valeur agronomique et technologique »). Premier accroc, les variétés anciennes, paysannes, de terroir, appelez-les comme vous le voulez, sont par essence instables. Elles s’expriment différemment selon les biotopes et les conditions climatiques. Donc retoquées par les tests d’entrée au catalogue.

Les variétés qui respectent les critères DHS constituent en général des « hybrides F1 » produits par les grandes sociétés semencières, qui donnent des plantes aux caractéristiques identiques, quel que soit leur environnement. Elles dégénèrent aussi dès la première reproduction, ce qui empêche les agriculteurs et les jardiniers de réutiliser les semences et les oblige à racheter chaque année des graines aux mêmes industriels. On voit donc que le système a été conçu pour privilégier mécaniquement les variétés protégées par des droits de propriété intellectuelle, tandis que les semences dites « libres » (celles appartenant au domaine public) sont désavantagées, notamment parce qu’elles ne peuvent être commercialisées.

La réglementation s’est néanmoins quelque peu assouplie au niveau européen depuis 2011, avec la mise en place d’une liste complémentaire au catalogue officiel reposant sur des critères d’homogénéité moins drastiques, qui permet d’y faire entrer des variétés anciennes. Mais cette marge de manoeuvre demeure insuffisante pour couvrir l’ensemble des semences du domaine public, ce qui fait que des paysans militants comme Jean-Luc Danneyroles restent pour une large part dans l’illégalité lorsqu’ils veulent commercialiser les semences qu’ils produisent. Ils risquent notamment des amendes infligées par la répression des Fraudes, qui peuvent être élevées, même si elles sont rarement appliquées en pratique. Une association comme Kokopelli a décidé de braver ouvertement ces interdictions ubuesques, en revendiquant comme un droit la possibilité de commercialiser les semences libres, jusqu’à le défendre devant la justice. On a cru l’an dernier que la situation allait changer avec la loi Biodiversité dont un article autorisait explicitement les associations à but non lucratif à commercialiser des semences appartenant au domaine public. Mais le Conseil constitutionnel a hélas prononcé l’annulation de cette partie du texte, au motif (très contestable) qu’elle entraînait une rupture d’égalité vis-à-vis des sociétés commerciales.

Sur toutes ces questions complexes liées à la législation sur les semences, je vous recommande fortement l’ouvrage suivant, récemment paru, qui permet d’en comprendre l’essentiel rapidement :

Des liens complexes entre enclosures et marchandisation

Ce que je trouve intéressant avec cette histoire racontée dans Reporterre, mais plus largement avec la problématique des semences libres, c’est qu’elles illustrent bien les rapports complexes qu’entretiennent les biens communs et le marché. On considère en effet que les semences libres constituent un exemple-type de ressources assimilables à des « Communs ». Elles sont en effet parvenues jusqu’à nous par le biais d’un processus de transmission de génération en génération d’agriculteurs, qui ont conduit le processus de sélection et de croisement nécessaires pour développer les variétés et les adapter à leur milieu. Les variétés dites « anciennes », « paysannes » ou « traditionnelles » ne sont pas protégées par des droits de propriété intellectuelle : elles appartiennent au domaine public et sont donc à ce titre, librement reproductibles, ce qui en fait tout l’intérêt pour les agriculteurs, notamment pour se défaire de leur dépendance vis-à-vis des industries semencières.

Pancarte dans une manif, où les semences sont assimilées à un bien commun.

Comme ces semences appartiennent au domaine public, elles devraient aussi pouvoir faire l’objet, en tant qu’objets physiques, d’une libre commercialisation sur le marché. On voit bien que c’est une condition pour que des activités comme celles du « Potager d’un curieux » ou de Kokopelli puissent être durables et se développer. Même si ces structures adoptent généralement des formes associatives tournées vers la non-lucrativité ou la lucrativité limitée, elles ont besoin d’une connexion avec le marché, ne serait-ce que pour couvrir les coûts induits par la production et la distribution des semences. Or c’est précisément ce qui leur est aujourd’hui interdit théoriquement par la réglementation, qui s’est organisée pour exclure du marché les semences traditionnelles, via notamment les obligations d’enregistrement au catalogue officiel.

On voit donc qu’ici, l’enclosure spécifique qui pèse sur les semences consiste en une exclusion forcée du marché, et c’est quelque part contre-intuitif, par rapport à l’idée générale que l’on peut se faire du phénomène d’enclosure des biens communs. Historiquement, les enclosures ont frappé d’abord certaines terres qui faisaient l’objet d’un usage collectif par la distribution de droits de propriété privée pour les transformer en marchandises. Des propriétaires fonciers se sont vus reconnaître en plusieurs vagues le droit d’enclore des terres faisant auparavant l’objet de droits d’usage collectifs coutumiers. C’est notamment ce qui s’est produit en Angleterre au cours du 18ème et du 19ème siècle. En France, le démantèlement des Communs a plutôt pris la forme à partir de la Révolution française d’un processus de « partage des Communaux« , qui a consisté en la mise en vente dans certaines régions de ces terres pour qu’elles deviennent des propriétés privées. Dans ces deux cas, l’enclosure prend la forme d’une inclusion forcée dans le marché de biens qui, auparavant, en étaient « protégés » et l’on peut même dire que l’enclosure vise alors explicitement à la marchandisation du bien.

Il faut relire à cet égard les analyses de l’historien Karl Paulanyi dans son livre « La Grande Transformation » dans lequel il explique comment la « société de marché » s’est constituée et généralisée en produisant trois sortes de « marchandises fictives » : la terre (et plus largement la nature), le travail (l’activité humaine) et la monnaie. Dans sa vision, c’est l’inclusion forcée de ces trois biens essentiels dans les mécanismes du marché qui a permis à celui-ci de se « désencastrer » du reste de la société et de devenir ce système auto-régulé qui a permis l’essor du capitalisme.

L’exclusion du marché comme enclosure

De ce qui précède, on peut avoir l’impression que l’enclosure est donc intimement liée à la « marchandisation ». On constate d’ailleurs que beaucoup des luttes sociales menées au nom des Communs réclament que certains biens soient exclus du marché,  ou soumis à une régulation spécifique, qui les protègent de ses excès les plus destructeurs. C’est le cas par exemple pour les combats menés autour de l’eau, en Italie notamment, qui sont passés par l’opposition à la privatisation de la gestion de l’eau par de grandes sociétés.

Une affiche sur le droit à l’eau qui insiste sur le fait qu’elle ne doit pas être considérée comme une ‘ »simple marchandise ».

Néanmoins, le cas des semences nous montre que la question des enclosures est beaucoup plus complexe. Pour bien saisir ce qui arrive aux semences, il faut en effet les appréhender de deux manières différentes : dans leur dimension immatérielle, à travers les variétés végétales que les semences expriment et dans leur dimension matérielle, à travers les objets physiques que sont les graines produites par les paysans. Les variétés végétales anciennes ne font pas (et n’ont jamais fait) l’objet de droits de propriété intellectuelle, à la différence des hybrides F1 produits par l’industrie semencière. A ce titre, ces variétés sont effectivement « dé-marchandisées », au sens où elles ne peuvent faire l’objet, en tant que telles, d’exclusivités soumises à autorisation et transaction. Mais les graines produites par les paysans constituent des objets physiques rivaux, qui font l’objet de droits de propriété et peuvent être legitimement vendus sur le marché. Sauf que la législation sur les semences a été organisée pour empêcher justement à ces semences d’accéder au marché et pouvoir faire l’objet d’une commercialisation, contrairement aux variétés propriétaires. L’enclosure du bien commun que constituent les semences traditionnelles n’a donc pas ici la même nature que celle qui a frappé les terres ou l’eau : elle consiste en une exclusion forcée du marché.

A vrai dire, on pourrait dire que les semences libres sont soumises à un double processus d’enclosure, les deux travaillant en sens inverses. On sait en effet que certaines grandes firmes comme Bayer ou Monsanto travaillent à déposer des brevets abusifs sur certaines des caractéristiques de plantes anciennes, comme des résistances naturelles à des maladies. Elles font cela pour se réserver des droits sur la « dimension immatérielle » des végétaux, en créant de nouvelles variétés OGM dans lesquelles elles vont injecter les gènes porteurs de ces traits particuliers. Dans cas, elles utilisent un droit de propriété intellectuelle pour provoquer une inclusion forcée dans le marché sur un élément qui, auparavant, appartenait au domaine public et était librement utilisable. Un des exemples les plus connus de ce phénomène qu’on appelle « biopiraterie » a par exemple concerné un brevet déposé par une société hollandaise sur un caractère de résistance aux pucerons d’une laitue, lui permettant ensuite de lever une redevance sur tous les producteurs de semences de ces salades.

L’enclosure peut donc consister en une inclusion forcée dans le marché et c’est souvent l’effet de l’application de droits de propriété intellectuelle. Un autre exemple que l’on pourrait citer en ce sens est celui des articles scientifiques. Produits dans leur grande majorité par des chercheurs employés par les universités publiques, ils sont captés par des éditeurs privés par le biais des cessions de droits d’auteur consentis par ces mêmes chercheurs au moment de la publication, et revendus ensuite à des prix très élevés aux universités. Celles-ci sont alors obligées de racheter avec de l’argent public ce qui avait pourtant à l’origine été financé par des fonds public (le salaire des chercheurs). On est là dans un cas caricatural de « marchandises fictives », créées par l’application artificielle de droits de propriété intellectuelle sur des biens afin de les inclure de force dans un marché.

Mais inversement, on trouve aussi des biens immatériels libres qui subissent,  comme les semences, des phénomènes d’enclosure par exclusion forcée du marché. Si l’on prend par exemple le cas des logiciels libres, on connaît par exemple le problème de la vente liée (dite aussi parfois justement « vente forcée ») qui fait que l’on ne peut en général acheter des ordinateurs sans logiciels propriétaires préinstallés, ce qui conditionne les utilisateurs à l’usage des logiciels protégés au détriment des logiciels libres. L’an dernier, la Cour de Justice de l’Union Européenne a d’ailleurs refusé de considérer que la vente liée de PC et de systèmes d’exploitation propriétaires constituait une pratique commerciale déloyale. L’analogie avec les semences n’est pas parfaite, mais il existe un lien avec les logiciels libres, dans la mesure où le problème de la vente liée les empêchent d’accéder au marché dans les mêmes conditions que les logiciels propriétaires, alors que celui-ci serait important pour leur distribution et leur adoption par le plus grand nombre. Au final, le consommateur est privé du choix de pouvoir opter pour une solution libre, radicalement pour les semences et relativement pour les logiciels.

Pour une approche complexe des liens entre Communs et marché

Arriver à appréhender le phénomène des enclosures dans toute complexité est à mon sens important, notamment pour éviter des contresens sur la question des Communs. On dit parfois que les Communs constituent une troisième voie entre le Marché et l’Etat, mais cette manière de présenter les choses est trompeuse. Il vaudrait mieux dire que les Communs, avec l’Etat et le marché, constituent une manière pour les humains de prendre en charge des ressources. Ces trois pôles peuvent selon les moments de l’histoire avoir plus ou moins d’importance (aujourd’hui, nous traversons une période de domination écrasante des mécanismes du marché auto-régulé, se traduisant par une marginalisation des Communs et un affaiblissement de l’Etat). Mais les Communs sont toujours articulés à l’Etat et au marché : ils ne constituent jamais une sphère complètement autonome. Ils peuvent notamment avoir besoin de débouchés sur le marché pour exister et peser significativement dans les relations sociales. C’est ce que montre parfaitement l’exemple des semences libres.

Un schéma produit par Unisson sur les liens entre les Communs, le marché et les acteurs publics.

Certes, il existe aussi des cas où il faut se battre pour une « dé-marchandisation » de certains biens et beaucoup des luttes pour la récupération des Communs passent par cette confrontation avec le marché pour lui « arracher » des ressources essentielles. Mais il existe aussi des cas où il faudra au contraire se battre pour le droit à ce que des ressources rejoignent le marché pour faire l’objet d’échanges. Cela peut paraître à première vue déroutant, mais il me semble crucial de garder ceci en tête pour ne pas sombrer dans un romantisme qui nous ferait croire que l’objectif est de « sortir de l’économie », comme on peut le lire parfois… Il y a un combat aussi à mener « dans l’économie », comme le disait justement Karl Paulanyi, pour « réencastrer » cette sphère au sein des processus de régulation sociale et notamment dans des logiques de réciprocité.

C’est ce qu’exprime d’ailleurs à sa manière Jean-Luc Danneyroles à la fin de l’article de Reporterre, en faisant référence à la question du troc et des communs :

Au calme, dans sa cuisine en plein air, au moment du café, comme quasiment tous les jours, Jean-Luc reçoit de la visite. Une curieuse cherche de la camomille romaine pour des soins de peau. Jean-Luc lui prodigue conseils, noms de plantes et méthodes de culture. Elle repartira avec ses sachets de graines, en échange de savon et de dentifrice qu’elle a confectionnés. Jean-Luc a toujours un peu de mal avec le fait de se faire payer. « L’idéal, c’est le troc, j’aime l’idée des biens communs, qu’on ne paye pas pour ce qui appartient à la nature. » Utopiste oui, mais les pieds sur terre. « Tout travail mérite salaire », sait-il, et ses graines sont son moyen de vivre.

 

 

 


Classé dans:A propos des biens communs Tagged: certificat d'obtention végétale, Domaine public, enclosures, karl paulanyi, marché, semences, usage commercial

La cuisine va-t-elle cesser d’être Open Source ?

jeudi 25 mai 2017 à 18:17
Par MorningBirdPhoto. Domaine public.

Du point de vue du droit d’auteur, et de la propriété intellectuelle en général, la cuisine possédait jusqu’à présent un statut très particulier.

Alors qu’il s’agit incontestablement d’un des champs de la création, les juges tendent à considérer que les recettes de cuisine ne sont pas protégeables par le droit d’auteur. Il en résulte que les cuisiniers sont libres de se copier les uns les autres, sans pouvoir être accusés de contrefaçon. C’est ce qui fait que la cuisine peut être dite « Open Source« , au même titre que les logiciels. Tels des programmes informatiques, les recettes constituent en effet des instructions à suivre pour produire un résultat donné. Un cuisinier qui publie sa recette est dans une situation similaire à un informaticien qui donne accès au code source de son programme afin que d’autres puissent le reproduire et l’améliorer.

La grande différence, c’est que les logiciels naissent automatiquement protégés par le droit d’auteur et les développeurs doivent opter explicitement pour des licences libres afin de rendre leurs logiciels réutilisables. De leur côté, les cuisiniers n’avaient jusqu’à présent pas le choix : les recettes n’étant en tant que telles pas protégeables, la cuisine était Open Source « par défaut ». Or les choses risquent peut-être de changer à l’avenir, en raison d‘une affaire survenue en Hollande à propos d’un fromage (le Heks’nkass – un fromage blanc aux herbes, qui a l’air de ressembler à une sorte de Boursin).

Une question de goût

Se plaignant que son produit ait été « copié » par un concurrent, l’entreprise qui commercialise ce fromage a saisi les tribunaux, mais en soulevant un argument assez original. Elle ne revendiquait en effet pas de droits sur la recette (ce qui aurait été voué à l’échec), mais plutôt directement sur le goût du Heks’nkass, en considérant que celui-ci pouvait constituer en tant que tel une oeuvre protégée par le droit d’auteur. En 2015, un premier tribunal a rejeté cette prétention, estimant que les saveurs ne pouvaient pas rentrer dans le champ des « oeuvres de l’esprit ». Mais l’affaire rebondit à présent, car la Cour de Justice de l’Union Européenne va être saisie de ce cas, pour trancher deux questions :

Or cet angle d’attaque est assez redoutable, car il existe déjà une jurisprudence de la CJUE sur la notion d’oeuvre protégeable, dont elle a une conception relativement extensive. Si la Cour a déjà été amené à considérer par exemple que les matchs de football ne sont pas des oeuvres, elle considère qu’une catégorie de créations n’a pas à être exclue en tant que telle du bénéfice de la protection du droit d’auteur, du moment que l’on est en présence d’une forme d’originalité, au sens de « création intellectuelle de l’auteur ».

Une création culinaire peut-elle être considérée comme une oeuvre ? Vaste question… (Image par Tkw3. Domaine public).

Pour les rencontres sportives, la qualification d’oeuvre a été écartée, car un match est la résultante des interactions entre les différents joueurs et non la création délibérée d’un esprit manifestant sa personnalité. Mais pour une création culinaire, les juges de la Cour risquent d’être confrontés à un problème beaucoup plus épineux, car il est indéniable que la cuisine est un champ où l’expressivité a son mot à dire. Les grands chefs étoilés le prouvent, mais même quand je mange la blanquette de ma mère, j’y trouve un goût à nul autre pareil et je peux avoir l’impression de percevoir l’empreinte de sa personnalité à travers ce plat !

La cuisine saisie par la propriété intellectuelle ? 

Concrètement, beaucoup de choses changeraient pour la cuisine si la Cour de Justice de l’Union Européenne admettait que les goûts peuvent être copyrightés. Cela fait longtemps que la cuisine et la propriété intellectuelle jouent au chat et à la souris, mais jusqu’à présent seuls des modes indirects de protection étaient admis. Par exemple, si une recette en elle-même ne peut pas être protégée par le droit d’auteur, les juges reconnaissaient que la manière dont une recette est écrite sur le plan littéraire peut mériter protection, au cas où elle manifeste une originalité. Cela permet par exemple de protéger un livre de cuisine, dans la mesure où il a fait l’objet d’un travail d’écriture élaboré, mais cela n’empêchait pas quiconque de refaire, et même de vendre, les plats décrits dans le livre.

Certains chefs ont aussi pu chercher à protéger l’apparence ou la forme de leurs plats, soit par le droit d’auteur, soit  par le biais des dessins et modèles (mais avec beaucoup d’aléas, comme le montrent par exemple les déconvenues subies par le cuisinier Yves Thuriès dans la protection du « chocolat macaron ») . On a pu également voir des dépôts de brevets, souvent assez contestables, portant par exemple sur des méthodes de découpe de viandes employées pour réaliser certains plats. Le droit des marques peut également être mobilisé pour se protéger dans une certaine mesure de la concurrence. Ainsi par exemple, le pâtissier français Dominique Ansel a connu un énorme succès en 2013 à New York en inventant le « cronut » (un croisement entre un croissant et un donut). Il s’est empressé alors de déposer une marque sur ce nom, ce qui lui a permis d’être le seul à pouvoir désigner de la sorte ce produit. Mais il n’a pas pu empêcher les autres pâtisseries de la ville de proposer des gâteaux similaires, du moment qu’elles n’employaient pas son nom…

Malgré cette difficulté pour la propriété intellectuelle à se saisir de la création culinaire, on observe néanmoins une certaine forme de susceptibilité chez les cuisiniers, et pas uniquement pour les professionnels. La question du « plagiat culinaire » est en effet assez vive chez les blogueurs spécialisés dans la cuisine. Ils s’accusent souvent de se « voler » de recettes, sans percevoir que cette affirmation n’a en réalité pas de sens puisqu’on ne peut par définition voler ce qui ne peut être approprié. Néanmoins ce que critiquent ces blogueurs, ce n’est pas tellement que l’on reprenne une de leurs recettes, mais plutôt de ne pas être crédité ou qu’on ne fasse pas de lien en retour vers leur site. Cela nous renvoie dès lors davantage du côté de l’éthique ou des bonnes pratiques que du droit pur et dur.

La question du plagiat culinaire fait l’objet d’une Charte à laquelle ont adhéré plusieurs dizaines de blogs cuisine. Cliquez sur l’image pour la consulter.

Code d’honneur des cuisiniers et esprit du Remix

Or ce lien à l’éthique est intéressant à observer. En effet, c’est aussi une sorte de « code d’honneur » que suivent les grands chefs. Il est en effet admis parmi les cuisiniers étoilés que l’on puisse s’inspirer des créations d’un confrère, mais uniquement pour essayer de les améliorer et pas pour reproduire à l’identique. C’est ce qui ressortait d’un article passionnant (On The Legal Consequences of Sauce) publié en 2006 par le juriste américain Christopher Buccafusco, dont je vous recommande vivement la lecture. Comme la cuisine est « Open Source », les chefs ne peuvent de toutes façons empêcher d’autres cuisiniers de reprendre leurs créations. Mais afin de réguler les pratiques, la corporation a développé ses propres règles, qui n’ont pas de valeur juridique à proprement parler, mais déterminent tout de même ce qu’il est acceptable de faire ou non dans le champ de la grande cuisine. Et ce que je trouve remarquable, c’est que ces normes privilégient l’innovation au détriment du monopole et de la rente de situation. Se sachant toujours susceptible d’être repris et copiés, les grands chefs sont toujours incités à innover. Mais pour que la copie ne soit pas stérile et « déloyale », ils mettent un point d’honneur à ne pas reproduire à l’identique, mais à toujours chercher à améliorer les créations précédentes.

C’est ni plus, ni moins l’esprit de ce que l’on appelle le Remix dans la création numérique, à la différence que les pratiques transformatives sont en grande majorité illégales quand elles s’exercent à partir d’oeuvres littéraires (fanfictions), musicales ou audiovisuelles (mashup, détournements) en raison des rigidités du droit d’auteur. Or c’est cet équilibre subtil que la décision de la CJUE pourrait remettre en cause, si elle admettait que les goûts eux-mêmes deviennent éligibles à la protection du droit d’auteur. Certes, les recettes pourraient toujours servir de source pour reproduire un plat, mais les cuisiniers seraient en mesure de s’accuser les uns les autres de violation de leur droit d’auteur. On verra donc sans doute reculer les formes d’innovation incrémentale qui constituent le propre de la manière dont la cuisine avance et évolue. Les plats ne naissent en général pas de nulle part : ils s’inscrivent dans des traditions, qu’elles soient familiales, régionales ou nationales. C’est en copiant des « classiques » de la cuisine que l’on devient soit même cuisinier et les grands chefs trouvent leur propre style en croisant de multiples influences.

***

Il faudra donc garder un oeil attentif sur cette décision à venir de la Cour de Justice de l’Union Européenne, car elle pourrait remettre en question la dynamique propre au secteur de la cuisine, qui avait fait la preuve que l’on peut être innovant sans avoir besoin d’une protection au titre de la propriété intellectuelle. On image à quel point il pourrait devenir dangereux de produire de nouvelles créations culinaires si l’on risque constamment un procès pour plagiat pour s’être trop rapproché du goût d’un autre plat ! Le critère de l’originalité est déjà parfois extrêmement aléatoire dans ses effets pour certains types de créations, comme les photographies par exemple. Mais il le serait sans doute encore davantage en ce qui concerne le goût, domaine où la subjectivité est encore plus forte. Par ricochet, le secteur du parfum pourrait aussi être atteint, car les mêmes principes de non-protection par le droit d’auteur s’appliquent aussi aujourd’hui à ce domaine. Les parfums se protègent en gardant secrètes leurs formules et en déposant une marque sur leur nom, mais on ne peut empêcher un concurrent de produire et de vendre une imitation s’il est capable de la réaliser.

Il y a une ironie dans cette histoire. L’auteur grec Athénée de Naucratis, qui a vécu au troisième siècle après Jésus Christ, rapporte dans son ouvrage « Le banquet des hommes sages » que les cuisiniers de l’île de Sybaris pouvaient revendiquer pendant un an une exclusivité sur les recettes de cuisines qu’ils créaient. L’île était réputée pour l’excellence de sa gastronomie (au point que son nom nous a donné l’adjectif « sybarite »). Certains voient dans cette « loi de Sybaris » la plus ancienne manifestation de propriété intellectuelle de l’histoire et il est assez étrange qu’elle ait porté sur un secteur qui échappe justement aujourd’hui à l’emprise du droit d’auteur et n’a en réalité jamais été soumis à ses principes. C’est en restant « Open Source » et en se développant nativement dans le domaine public que la cuisine a pu se développer et constituer une forme de créativité si particulière.

Espérons que la Cour de Justice de l’Union Européenne aura le bon goût de s’en souvenir avant de rendre sa décision !

 


Classé dans:Penser le droit d'auteur autrement ... Tagged: CJUE, cuisine, droit d'auteur, Open Source, remix

Ridley Scott et la saga Alien : quand l’auteur devient son propre monstre…

dimanche 14 mai 2017 à 09:42

Cette semaine est sorti sur les écrans le film Alien : Covenant qui ajoute un nouvel épisode de la saga initiée par Ridley Scott en 1979. Après le déjà très controversé Prometheus en 2012, Ridley Scott revient aux commandes d’un film qui est en train de déclencher parmi les fans un véritable torrent de critiques négatives, accusant le réalisateur d’avoir trahi les fondements de sa propre mythologie. On assiste à un phénomène intéressant d’inversion, à propos duquel j’ai déjà eu l’occasion d’écrire, qui se répète régulièrement et paraît même s’intensifier ces dernières années : c’est le public qui se fait le gardien de l’esprit d’une oeuvre, contre les industries culturelles lorsqu’elles abusent d’une licence, et parfois même contre son propre créateur comme c’est le cas ici avec Scott.

Le créateur et la créature. Une des nouvelles thématiques introduites dans Alien : Covenant par Ridley Scott, mais à quel prix ?

Seul maître à bord…

Or ce n’est pas ainsi que le droit appréhende normalement les choses. Les auteurs se voient en effet reconnaître un droit moral qui leur permet de s’opposer aux altérations qui viendraient dénaturer l’esprit de leur oeuvre. C’est du moins l’approche traditionnelle du droit français, qui protège la personne de l’auteur dans sa création. Ce droit moral n’existe cependant pas en tant que tel aux Etats-Unis (ou seulement sous une forme atténuée). C’est ce qui permet notamment aux producteurs de cinéma de bénéficier du final cut privilege, le pouvoir d’arrêter le montage définitif du film, là où en France c’est le réalisateur qui en dispose.

Dans sa carrière, Ridley Scott a souvent dû se battre pour récupérer les droits sur ses propres films de manière à pouvoir exprimer pleinement la vision qui était la sienne (ce fut notamment le cas pour Blade Runner, pour lequel il dût attendre 10 ans avant de sortir une version director’s cut sensiblement différente de l’original). Mais pour ce qui est de la saga Alien, Ridley Scott n’est plus dans une situation où il doit se plier aux volontés des studios d’Hollywood. Si les épisodes 2, 3 et 4 furent confiés à des réalisateurs différents (avec plus ou moins de bonheur…), c’est terminé depuis Prometheus en 2012. Scott a récupéré ses droits et il bénéficie à présent d’une marge de manoeuvre complète, étant donné qu’il est devenu son propre producteur. Mieux encore, il est parvenu à faire abandonner le projet d’un Alien 5, qui devait être confié au réalisateur sud-africain Neill Blomkamp. Il règne à présent en maître incontesté sur les destinées de cette licence.

Il est libre, Scott. Grâce à sa société de production Scott Free, dont le nom et le logo sont significatifs…

Dans les faits, Ridley Scott se trouve donc dans une position aussi puissante que s’il était en possession du droit moral sur son oeuvre, à l’image d’un réalisateur français (et même sans doute dans une position plus forte encore, vu qu’il maîtrise le financement de ses projets). Or il semblerait qu’il ait décidé d’utiliser cette liberté pour littéralement saccager sa propre création, en lui faisant prendre des directions incohérentes par rapport à l’univers de départ, ce qui révulse une grande partie du public. Je vous recommande pour prendre la mesure de l’indignation de visionner ci-dessous la critique réalisée par le vidéaste Durendal (ou encore celle publiée cette semaine par le Joueur du Grenier).

Viol de l’oeuvre par son propre auteur ?

Ce qui était déjà en germe dans Prometheus devient cette fois encore plus problématique avec Alien : Covenant. Ridley Scott – peut-être comme le dit Durendal parce qu’il atteint l’âge canonique de 80 ans – paraît s’enfoncer dans un délire mystique à tendance créationniste et il plaque artificiellement ces nouvelles thématiques sur l’univers d’Alien. Ce qui était à la base avant tout un film d’horreur, caractérisé par la figure iconique du xénomorphe, devient à présent une sorte de réflexion pseudo-philosophique ampoulée sur les origines de la vie et de l’être humain. Dans Covenant, Ridley Scott s’attache à faire des révélations sur la création jusqu’alors inexpliquée de l’Alien, à laquelle il apporte une réponse… plus que surprenante (je vous épargne les spoils). Le problème, c’est que ce faisant, il introduit un nombre invraisemblable d’incohérences qui rejaillissent sur les films suivants (l’action de Covenant se déroulant avant le premier épisode de la saga).

J’ai eu l’occasion de voir le film cette semaine et j’avoue que je suis encore sous le choc. On peut dire à ce stade que Ridley Scott a littéralement choisi de violer sa propre oeuvre pour produire ce film, tant le résultat tranche par rapport aux opus précédents. Or cette sensation de « viol créatif » que l’on ressent au visionnage est en elle-même assez intéressante, car on a souvent fait remarquer que le xénomorphe, en tant que monstre, constitue une métaphore du viol, ce qui explique en partie l’horreur viscérale qu’il suscite. Cette créature bio-mécanique, imaginée à la base par l’artiste H. R. Giger, présente clairement des formes phalliques et son mode de reproduction consiste à introduire de force des oeufs dans le corps de ses victimes pour les faire exploser de l’intérieur en donnant naissance à ses larves.

Un des dessins originaux de H. R. Giger qui ont servi d’inspiration pour la création de l’Alien de 1979.

Or ici, on peut dire d’une certaine manière que Ridley Scott se comporte comme le xénomorphe avec sa propre création : avec ces nouvelles thématiques religieuses, il insémine l’histoire avec des corps étrangers qui la font muter et la boursouflent jusqu’à la faire littéralement exploser. Et du coup, j’ai rarement vu quelque chose qui mérite autant le qualificatif de « dénaturation de l’oeuvre », au sens d’une violation du droit moral, alors qu’elle est commise par l’auteur lui-même.

L’auteur est littéralement devenu son propre monstre et c’est l’univers d’Alien qui en est la première victime !

Remix stérile et auto-plagiat

Paradoxalement, les critiques reprochent à la fois à Ridley Scott d’avoir introduit artificiellement de nouvelles thématiques dans l’histoire, mais aussi d’avoir produit un film beaucoup trop proche du premier épisode de 1979. Il est vrai que la première partie du film, ainsi que la fin, présentent des similitudes très fortes avec Alien : le 8ème passager, au point parfois que des plans ou des scènes entières semblent avoir été reconstitués. Le summun étant atteint avec le personnage de Daniels interprété par Khaterine Waterson, qui ressemble à un clone d’Ellen Ripley. On dépasse très largement à ce stade le « clin d’oeil » ou le « fan service », qui est devenu un passage presque obligé de ces films à licence, pour ressentir une désagréable sensation de déjà-vu tout au long des deux heures que Covenant.

Le spectre de Ripley hante beaucoup trop le personnage de Daniels dans Covenant…

Dans sa critique, le Joueur du Grenier dit qu’il a l’impression qu’Alien : Covenant constitue un « remake déguisé » et on ne peut que lui donner raison. C’était pourtant un écueil qu’avaient justement réussi à éviter les épisodes 2, 3 et 4 par rapport au premier, chacun apportant des éléments nouveaux tout en s’inscrivant dans l’univers de base. Mais on a le sentiment que les industries culturelles ont perdu cette capacité à se renouveler et c’est un phénomène de « stérilité » allant bien au-delà de la saga Alien. C’est par exemple déjà ce que l’on avait dit à propos de Star Wars VII, suite de la trilogie originale réalisée par J.J. Abrams en 2015 après le rachat de la franchise par Disney. Le film est extrêmement proche dans sa structure, dans sa narration, dans ses personnages de l’épisode IV (Star Wars : A New Hope), au point que de nombreux fans s’en moquent ouvertement (voir ci-dessous).

Kirby Ferguson , l’auteur de la série de documentaires Everything Is A Remix, a finement analysé cette sorte de dégénérescence créative dans le quatrième volet de sa série consacré à Star Wars VII. Alors qu’il avait montré précédemment comment George Lucas s’était inspiré de nombreuses oeuvres préexistantes pour réaliser la trilogie originale Star Wars, on a l’impression que Disney « cannibalise » à présent le matériau de base pour le régurgiter presque à l’identique, sans valeur ajoutée suffisante. Alors que le remix est un moteur fondamental pour la création, il paraît se transformer aujourd’hui en « auto-plagiat » lorsqu’il est mis en oeuvre par les titulaires de droits sur les oeuvres. Et c’est encore plus grave pour un film comme Alien : Convenant, vu que c’est Ridley Scott en personne qui a réalisé le film et pas un autre cinéaste.

A qui appartiennent les « oeuvres-univers » ?

Ridley Scott a donc réalisé le tour de force avec Covenant d’être à la fois trop proche de l’Alien original pour justifier un nouveau film et trop éloigné de son esprit pour garder sa cohérence à l’univers global. Lorsque le générique a commencé à défiler, je me suis fait la réflexion que le film ressemblait en fait étrangement à une fanfiction et quelque part, il aurait mieux valu que ce soit le cas !

En effet, si cette histoire avait été une fanfiction, on aurait sans doute pu la trouver audacieuse, car elle aurait ouvert de nouvelles directions dans le matériau de base, permettant de réinterpréter l’ensemble de l’univers d’Alien sous un autre jour. Les fans adorent d’ailleurs produire ce genre de détournements qui renversent l’appréhension que l’on peut avoir de toute une saga (voir par exemple la théorie ci-dessous selon laquelle l’insupportable Jar Jar Binxs dans Star Wars serait en réalité un seigneur Sith et le plus grand méchant de l’histoire…).

Or avec une fanfiction (contrairement à ce que dit le droit aujourd’hui), il n’y a pas de dénaturation de l’oeuvre originale, car les ajouts et bifurcations réalisés par les fans ne modifient pas ce que l’on appelle le « canon » de l’oeuvre, qui reste l’apanage de l’auteur ou des studios détenant les droits. Ici avec Alien : Covenant, ce qui pose le plus de problème, c’est que les choix de Ridley Scott vont à présent mécaniquement être intégrés au canon de l’univers d’Alien, dont la cohérence va être gravement affectée. Et c’est à ce genre de paradoxes que l’on mesure à quel point le droit appréhende mal ce qu’est « l’intégrité d’une oeuvre » et la façon de la protéger.

Certes, il ne s’agit pas de dire que Ridley Scott devrait être traîné en justice par son public pour avoir commis quelque chose d’aussi mauvais qu’Alien : Covenant (bien que l’idée ait quand même pu me traverser l’esprit en sortant de la salle de cinéma…). Mais on doit reconnaître que l’auteur n’est pas toujours le mieux placé pour défendre l’intégrité de sa création et c’est parfois le public qui joue ce rôle de gardien de la cohérence des oeuvres. C’est particulièrement vrai à propos de certains types particuliers de productions, qui tendent à acquérir le statut de mythologies modernes au yeux du public (la saga Alien, mais aussi Star Wars, Star Trek, Le Seigneur des Anneaux ou encore Harry Potter). On est en présence « d’oeuvres-univers », constituant non seulement des récits, mais aussi des matrices à histoires et qui, de ce fait, finissent par se détacher de la personne de leur créateur pour prendre une existence autonome. Paradoxalement, ce sont souvent ces « oeuvres-univers » qui font le plus l’objet de créations transformatives (fanart, fanfictions, fanfilms), mais dont l’esprit est aussi le plus farouchement défendu par la communauté des fans.

***

Est-ce qu’un monopole s’étendant sur plus d’un siècle, comme celui que le droit d’auteur organise aujourd’hui, constitue le moyen le plus sûr de préserver l’intégrité des oeuvres, tout en favorisant la dynamique de la création ? Au vu du résultat catastrophique d’Alien : Covenant, rien n’est moins sûr. On en vient presque à se dire qu’il vaudrait mieux que Ridley Scott ne vive pas assez longtemps pour poursuivre ce massacre méticuleux de sa propre création, alors qu’il doit y avoir parmi les myriades de fanfictions écrites dans l’univers d’Alien des alternatives bien plus respectueuses de l’esprit de la saga qui auraient pu servir de scénario à ce film…

 

 

 


Classé dans:Penser le droit d'auteur autrement ... Tagged: Alien, droit d'auteur, droit moral, fanfiction, remix, Ridley Scott

Lawrence Lessig, les dérives du web et la « mort des éditeurs »

vendredi 5 mai 2017 à 08:06

S’il y a une personne qui a compté dans mon cheminement intellectuel, c’est bien le juriste américain Lawrence Lessig. Je me souviens encore de l’avoir découvert à travers ses incroyables conférences TED, puis la lecture d’ouvrages marquants comme L’Avenir des Idées, Remix ou Code Is Law. Initiateur du projet Creative Commons, défenseur infatigable du domaine public et de la Culture libre, plus récemment engagé dans la réforme du système politique aux Etats-Unis et même candidat malheureux à l’investiture démocrate pour l’élection présidentielle, Lessig figure incontestablement parmi les grands penseurs de notre temps. Du coup, je ne croyais pas un jour me retrouver en opposition radicale avec lui, mais c’est pourtant ce qui m’arrive, après avoir lu cette interview donnée, il y a quelques jours, au magazine Télérama.

Image par Innotech Summit. CC-BY. Source : Flickr.

Il faut savoir que Lawrence Lessig est récemment passé par Paris, à l’occasion de la sortie du livre « Celui qui pourrait changer le monde« , traduction en français publiée par les éditions B42 d’une compilation de textes écrits par l’activiste Aaron Swartz, tirés notamment de son blog.

Ils étaient tous les deux très proches et il y a quelque chose qui a irrémédiablement changé chez Lessig depuis le suicide d’Aaron, survenu il y a quatre ans. On sent chez lui une inquiétude croissante à propos du sort de la démocratie, renforcée encore depuis que Donald Trump a été élu aux Etats-Unis. Dans l’interview donnée à Télérama, il se montre notamment soucieux de l’impact des fake news sur le débat public, ce qui l’amène à faire la déclaration suivante :

Je pense que notre communauté dans son ensemble a fait l’erreur de considérer comme acquises des approches qui ont pourtant été brutalement remises en cause. Un exemple majeur : nous pensions tous que le rôle d’éditeur de contenus était un acquis ; derrière chaque publication, il y avait un éditeur, un titre de presse, une institution reconnue se portant caution. Je ne parle pas là de « censeur », mais bien d’éditeur : quelqu’un qui amène de la vérification, de la véracité. Eh bien nous nous sommes trompés ! Le monde entier peut publier sans éditeur. Donald Trump publie en direct, en permanence. Alors que, dans ce monde avec éditeurs qui nous semblait une évidence et un acquis, cela n’aurait pas été possible : Trump n’aurait pas été possible ! D’une certaine façon, Internet – l’outil en lui-même – a tué les éditeurs. Et nous allons tous devoir résoudre cet immense problème qui a un impact très lourd sur la démocratie.

J’avoue avoir bondi en lisant ces lignes : Lawrence Lessig accusant Internet d’avoir « tué les éditeurs », regrettant qu’il donne à tout un chacun la possibilité de publier directement en ligne et présentant cette faculté comme un problème pour la démocratie ? Ce sont des propos qui détonnent fortement par rapport au message que Lessig délivrait jusqu’à présent, lui qui fut au contraire un des premiers à décrire et à théoriser la révolution culturelle que représente la mise en réseau des individus. Et plus triste encore, il me semble que ce qu’il exprime ici contredit tout le parcours d’Aaron Swartz – l’enfant d’internet (Internet Own’s Boy) – qui s’est précisément construit en tant que personne grâce à cette faculté de publication directe offerte par Internet.

Je voudrais dans la suite de ce billet essayer de démêler le malaise que je ressens à voir quelqu’un comme Lessig tenir ce genre de propos et critiquer cet appel à un « retour des éditeurs » comme moyen de conjurer les dérives qui frappent Internet aujourd’hui.

Read / Write  Culture versus Fake News

Dans une de ses conférences les plus célèbres donnée en 2007 (Laws That Choke Creativity), Lessig introduit le concept de Read/Write Culture, qu’il développera plus  tard dans son ouvrage Remix et qu’il oppose à la Read Only Culture (voir l’article Wikipedia consacré à Remix – je traduis en français) :

Lessig décrit deux cultures: la culture en lecture seule (Read Only – RO) et la culture en lecture / écriture (Read Write – RW). La culture RO est la culture que nous consommons plus ou moins passivement. L’information ou le produit nous est fourni par une source «professionnelle», l’industrie du contenu, qui exerce une forme d’autorité. Le modèle de production et de distribution de la culture RO était intrinsèquement lié aux technologies analogiques, qui ont cantonné les individus récepteurs de cette culture à un rôle de consommateurs passifs.

[…]

Par opposition à la culture RO, la culture en lecture / écriture se caractérise par une relation réciproque entre le producteur et le consommateur. Prendre des œuvres, telles que des chansons, et se les approprier est une manifestation de cette culture RW, qui a longtemps été assimilée à la culture «populaire» avant l’avènement des technologies de reproduction. […]

Lessig explique que les technologies numériques fournissent de nouveaux outils pour relancer la culture RW et la démocratisation de la production. Il prend l’exemple des blogs pour expliquer les trois « couches » de cette démocratisation culturelle. Les blogs ont redéfini notre relation avec l’industrie du contenu, car ils ont permis l’accès à des contenus non professionnels. La fonctionnalité « commentaires » qui est rapidement apparue sur les blogs a fourni un espace où les lecteurs pouvaient dialoguer avec les contributeurs amateurs. Le «taggage» des blogs par les utilisateurs a produit une seconde couche, nécessaire pour que les utilisateurs puissent filtrer les masses de contenus en fonction de leurs centres d’intérêts. Une troisième couche s’est formée avec les bots qui analysent les liens entre les différents sites et, par conséquent, organisent une base de données de préférences. Ces trois couches travaillant de concert ont établi un «écosystème de réputation» qui a servi à guider les utilisateurs à travers la blogosphère. Lessig utilise ce modèle des blogs pour aboutir à une conclusion plus générale – bien qu’il n’y ait aucun doute que la masse des publications en ligne opérées par des amateurs ne peut pas concurrencer la validité des sources professionnelles, la démocratisation de la culture RW numérique et l’écosystème de la réputation ont fourni un espace où de nombreuses voix talentueuses ont pu se faire entendre, ce qui n’était pas possible dans le modèle Read Only pré-numérique.

On le voit, Lawrence Lessig célébrait en 2007 la capacité offerte par Internet aux individus de s’arracher à leur condition de consommateurs passifs pour devenir des créateurs de contenus. A l’inverse, la Read Only Culture est typiquement une « culture éditée » qui fait intervenir des intermédiaires jouant un rôle de tri préalable. Au-delà de l’exemple des blogs, Wikipedia constitue par exemple un exemple éclatant de ce passage à une culture en lecture/écriture, où chacun peut intervenir sur les pages d’une encyclopédie globale qui se développe sur un mode communautaire, sans filtre a priori et sans intervention d’une autorité centralisatrice.

Or pour reprendre la question des fake news, on a pu constater au moment de l’élection américaine qu’un espace de publication comme Wikipédia résistait globalement mieux à la propagation des fausses informations que les réseaux sociaux (Facebook, Twitter) ou les plateformes comme YouTube. C’est que depuis 15 ans, la communauté des Wikipédiens s’est dotée de règles, concernant notamment la fiabilité de l’information et le renseignement des sources, qui protègent l’encyclopédie comme un Commun informationnel. Au contraire comme l’explique très bien par exemple Evgeny Morozov, c’est la manière dont des acteurs comme Google ou Facebook instrumentalisent les mécanismes de l’économie de l’attention pour faire tourner leurs modèles économiques basés sur la publicité qui démultiplie l’effet néfaste des fake news (« L’économie gouvernée par la publicité en ligne a produit sa propre théorie de la vérité : la vérité, c’est ce qui attire le plus de paires d’yeux »). 

Du coup, on peut dire que Lessig se trompe lourdement dans son analyse de la situation : ce n’est pas parce que des sites comme des blogs ou Wikipédia permettent aux individus de publier des contenus sans filtre éditorial que le phénomène des fake news est devenu si problématique. C’est au contraire parce que l’on s’est éloigné du modèle de la blogosphère (des sites individuels liés entre eux) pour aller vers celui des grandes plateformes centralisées. L’effet des algorithmes de recommandation qui enferment les individus dans une « bulle de filtre » les renvoyant sans cesse à des opinions semblables démultiplie la sclérose informationnelle et donne un impact sans précédent aux fausses nouvelles. Ce n’est donc pas par la réinstallation d’éditeurs comme gate keepers du système que l’on parviendra à trouver une solution, mais au contraire par un retour à des formes décentralisées de publication. D’ailleurs, les rumeurs ou fausses nouvelles peuvent être délibérément produites ou alimentées par des acteurs qui sont des éditeurs au sens classique du terme, comme on l’a vu avec le rôle trouble joué par le site Breibart pendant la campagne américaine.

Aaron Swartz et les martyrs du filtre éditorial

Je ne partage donc ni le diagnostic de Lawrence Lessig, ni le remède qu’il propose. Mais ce qui m’a le plus choqué, c’est qu’il puisse tenir de tels propos sur la « mort des éditeurs », alors qu’il venait en France à l’occasion de la publication de ce livre d’écrits d’Aaron Swartz tirés principalement de son blog, c’est-à-dire nés à l’origine sans passer par l’intermédiation de l’édition !

Certes Aaron Swartz n’a pas écrit au cours de sa vie seulement sur son blog (intitulé significativement Raw Though – « Pensées Brutes ») . Il a collaboré à des ouvrages collectifs et publié de nombreux articles dans des revues, ainsi que des tribunes dans la presse. Mais l’essentiel de sa pensée, il l’a forgée et exprimée directement en ligne sur son site personnel, dans des centaines de billets publiés au fil des années. Disons-le même clairement : étant donné qu’Aaron Swartz était très précoce et anti-conformiste, il n’aurait sans doute jamais pu devenir une telle figure et avoir l’influence qu’il a eue s’il avait dû passer par le filtre de l’édition classique pour se faire connaître. Aaron Swartz est un pur produit de la Read / Write Culture, une de ces « voix talentueuses » dont parlait Lessig en 2007 qui a pu se faire entendre grâce au web, et l’exact l’opposé de ce qu’engendre une culture « autorisée » en Read Only.

Or il faut bien comprendre que la validation de la qualité n’est pas la fonction première du système éditorial, loin de là. La véritable « fonction sociale » de l’édition est d’organiser et de maintenir artificiellement une rareté d’auteurs au sein de la société. Pendant longtemps historiquement, le nombre de personnes pouvant prétendre à devenir auteurs est resté relativement limité, ce qui fait que le rôle de filtre joué par l’édition pouvait apparaître légitime. C’était d’autant plus vrai dans un environnement analogique où les coûts liés à la diffusion des idées sur des supports physiques imposaient une sélection drastique en amont. Mais avec l’avènement d’internet et la démocratisation des moyens de publication, les choses ont radicalement changé : comme j’ai déjà eu l’occasion de l’écrire, nous sommes passés d’une société ouvrière à une « société oeuvrière« , qui se caractérise par une abondance d’auteurs en son sein. Dès lors, le maintien du filtre éditorial non seulement ne se justifie plus, étant donné la baisse des coûts liés à la dématérialisation, mais devient même violemment illégitime, car contrairement à ce que dit Lessig, il constitue nécessairement une forme de censure et un système de contrôle social.

Aaron Swartz est l’exemple même de la figure d’un auteur qui a pu se construire par lui-même et arriver à toucher un public indépendamment du filtre éditorial. Il me semble que l’on peut utilement rapprocher son histoire de celle d’un autre auteur ayant connu un destin tragique : John Kennedy Toole, l’auteur du roman  La Conjuration des Imbéciles.  Comme Aaron Swartz, Toole s’est suicidé très jeune, (à l’âge de 31 ans en 1961). Il a accompli ce geste par dépit parce que son roman, qu’il considérait comme un chef d’oeuvre, avait été systématiquement refusé par tous les éditeurs à qui il l’avait proposé. C’est sa mère qui, pour venger la mort de son fils, a démarché à nouveau des éditeurs après son suicide et, après avoir essuyé sept refus supplémentaires, a réussi enfin à le faire accepter. On connait la suite : La Conjuration des Imbéciles a connu un succès énorme auprès du public, avec plus de 1,5 millions d’exemplaires vendus ; le livre a reçu en 1981 le prestigieux prix Pullitzer et il est considéré aujourd’hui comme un classique de la littérature américaine.

John Kennedy Toole est quelque part la figure inversée d’Aaron Swartz : un auteur talentueux éliminé – moralement, socialement et physiquement – par le système éditorial qui l’a sacrifié sur l’autel du maintien de la rareté des auteurs. Aaron Swartz a eu la chance de ne pas connaître ce couperet a priori et de pouvoir exister comme auteur à travers son blog indépendamment des circuits éditoriaux. Mais quelque part, Aaron a été lui aussi victime de l’édition, car rappelons que c’est pour avoir téléchargé des masses d’articles scientifiques à partir d’un accès à la base JSTOR du MIT qu’il a été férocement poursuivi par la justice américaine. Ce qu’il combattait, c’est une autre forme de rareté artificielle et illégitime : celle entretenue sur l’accès aux articles scientifiques par de grands groupes d’édition, alors que la diffusion de la science pourrait parfaitement se faire en Libre Accès sur Internet. C’est précisément ce qu’il dénonçait dans son Open Access Guerilla Manifesto publié en 2008, qui constitue peut-être son texte le plus célèbre :

L’information, c’est le pouvoir. Mais comme pour tout pouvoir, il y a ceux qui veulent le garder pour eux. Le patrimoine culturel et scientifique mondial, publié depuis plusieurs siècles dans les livres et les revues, est de plus en plus souvent numérisé puis verrouillé par une poignée d’entreprises privées. Vous voulez lire les articles présentant les plus célèbres résultats scientifiques  ? Il vous faudra payer de grosses sommes à des éditeurs comme Reed Elsevier.

[…]

Nous avons besoin de récolter l’information où qu’elle soit stockée, d’en faire des copies et de la partager avec le monde. Nous devons nous emparer du domaine public et l’ajouter aux archives. Nous devons acheter des bases de données secrètes et les mettre sur le Web. Nous devons télécharger des revues scientifiques et les poster sur des réseaux de partage de fichiers. Nous devons mener le combat de la guérilla pour le libre accès.

Voilà pourquoi je trouve extrêmement difficile d’entendre Lawrence Lessig déplorer la « mort des éditeurs », alors que d’une certaine manière, c’est indirectement le système éditorial qui a causé la perte d’Aaron Swartz, tout comme il a auparavant précipité John Kennedy Toole vers la mort.

Editer les écrits d’Aaron Swartz : un bien ou un mal ?

Comme je l’ai dit au début de ce billet, Lawrence Lessig était à Paris pour la parution de l’ouvrage « Celui qui pourrait sauver le monde », une compilation d’écrits d’Aaron Swartz, tirés notamment de son blog, augmenté par des témoignages et des présentations signées par plusieurs personnes l’ayant côtoyé (parmi lesquelles figure Lessig lui-même qui signe l’introduction).

Le livre en français, réalisé par les éditions B42, est la traduction de l’ouvrage The Boy Who Could Change The World : The Writings of Aaron Swartz, publié chez l’éditeur américain Verso Books. Or la sortie de ce livre s’est accompagnée aux Etats-Unis d’une polémique sur laquelle il est intéressant de revenir. En effet, alors qu’Aaron avait choisi de placer les écrits diffusés sur son blog sous licence Creative Commons, le livre de Verso Book est paru sous copyright classique. Pire encore, les versions numériques ont été diffusées avec des DRM (verrous numériques empêchant la copie), ce qui n’a pas manqué de faire grincer des dents. Car comment concevoir que les écrits de l’auteur de l’Open Access Guerilla Manifesto soient cadenassés par des DRM, ce qui oblige ceux qui veulent les partager à enfreindre la loi ? Par ailleurs, Verso Books a commis la maladresse de faire une opération promotionnelle en mars 2016, au moment de l’anniversaire de la mort d’Aaron, en permettant le libre téléchargement du fichier, mais un jour seulement et en l’annonçant avec un billet intitulé « Psst! Downloading Isn’t Stealing [for today]« . Sachant que la procureure qui s’est acharnée sur Aaron Swartz lui reprochait justement d’avoir commis un « vol » des articles de la base JSTOR, on mesure l’épouvantable cynisme dont a fait preuve Verso Books…

Mais comment a-t-on pu en arriver là, alors que les billets d’Aaron étaient à l’origine sous Creative Commons ? Cela tient au fait qu’il avait choisi de placer son site sous Creative Commons CC-BY-NC-SA (Paternité – Pas d’usage commercial – Partage à l’identique). Cela signifie que Verso Books ne pouvait pas librement reprendre les billets sur le site pour faire son livre. L’éditeur a dû se rapprocher de la famille d’Aaron – titulaire des droits d’auteur sur ses écrits après son décès – pour leur demander de lever la clause Non-Commercial. Or à l’occasion de cette négociation, on peut penser que la famille a accordé à l’éditeur une cession exclusive des droits pour l’usage commercial. C’est ce qui a permis à Verso Books de rebasculer les écrits sous copyright et même de les diffuser avec des DRM. Pour le coup, une licence CC-BY-SA aurait sans doute été bien plus protectrice de l’intention initiale d’Aaron Swartz, car elle aurait obligé l’éditeur à placer le livre sous la même licence et lui aurait interdit de surcroît d’utiliser des DRM.

Tout ceci a fait que j’ai vu arriver le projet de traduction du livre en français avec une certaine méfiance, redoutant que les mêmes dérives de reproduisent… Néanmoins, il semblerait que les éditions B42 aient décidé de se montrer plus consciencieuses que Verso Books. Lors de la soirée de lancement de l’ouvrage à Paris, la question a été posée par la salle de savoir comment seraient diffusées les traductions. Or B42 a répondu qu’ils avaient négocié les droits, avec l’éditeur américain et les traducteurs, de manière à être en mesure de diffuser les traductions en accès libre en ligne et sous Creative Commons, au moins pour les textes correspondants à des billets du blog d’Aaron Swartz . Seuls les textes supplémentaires, commandés à d’autres auteurs par Verso Books ne pourront pas être mis en ligne, car l’éditeur américain peut faire valoir dessus son droit exclusif. Il faut vraiment saluer cette démarche de B42, car rien juridiquement ne leur imposait de publier les traductions sous Creative Commons, dans la mesure où elles constituent de nouvelles oeuvres à part entière et la clause de Partage à l’identique (SA) ne se déclenche ici pas, puisque c’est le livre américain sous copyright que B42 a traduit.

<script async src="//platform.twitter.com/widgets.js" charset="utf-8">

L’édition des écrits d’Aaron Swartz constitue donc une entreprise ambiguë. Certes en soi, il est bon que ses billets de blog fassent l’objet d’une publication sous forme de livre, car cela permettra à beaucoup de monde de connaître son histoire et de découvrir sa pensée. Mais d’un autre côté, les conditions de diffusion du livre de Verso Books trahissent profondément les idées d’Aaron Swartz et l’édition me paraît constituer alors davantage une profanation qu’autre chose. Heureusement que B42 « rachète » la démarche par son geste de publication en ligne des traductions en français, mais je trouve cette histoire symptomatique des problèmes que tout acte d’édition porte fondamentalement en lui.

Une certaine édition doit mourir

Contrairement à ce qu’avance Lawrence Lessig, je ne pense pas que nous avons besoin d’un « retour des éditeurs » pour sauver Internet des périls qui le menacent. Je ne pense pas par exemple que l’on doive pleurer la mort de certains éditeurs d’encyclopédies comme Britannica, provoquée par le succès de Wikipédia, car nous avons infiniment gagné au change. Et je ne pleurerai pas non plus si les formes les plus prédatrices de l’édition scientifique finissent par disparaître du fait des progrès de l’Open Access, comme le souhaitait Aaron Swartz.

Ce qu’Internet nous a apporté de plus précieux, c’est sans doute la capacité offerte à des individus de se construire par eux-mêmes un statut d’auteurs, sans avoir à rechercher l’adoubement des éditeurs. Aaron Swartz a été dans cette situation, mais on peut aussi citer quelqu’un comme Cory Doctorow par exemple, qui a suivi une trajectoire assez semblable. C’est son blog BoingBoing qui lui a ouvert les portes de la reconnaissance, et il a pu sur cette base publier ensuite des romans chez des éditeurs, tout en veillant à ce que ceux-ci restent librement accessibles en ligne et sous Creative Commons, parallèlement à la diffusion imprimée.

Chez nous aussi, on commence à voir de tels processus se mettre en place. C’est par exemple ce qui arrive en ce moment à l’auteur de BD David Revoy, créateur de la série Pepper and Carrot, née d’abord sous la forme d’un webcomic sous licence libre. Le projet a su trouver son public en ligne et aujourd’hui, il est publié chez Glénat en version imprimée. Dans mon entourage, Olivier Ertzscheid, chercheur en sciences de l’information et auteur depuis des années du blog Affordance, publie de son côté en ce moment « L’appétit des géants », une compilation de ses billets de blog chez C&F Editions. Mais il a explicitement annoncé qu’il ne publierait plus d’articles dans des revues scientifiques, car il considère comme profondément illégitime ce système de filtrage éditorial, y compris pour l’activité scientifique :

La vraie raison c’est que notre putain de métier n’est pas d’écrire des articles scientifiques et de remplir des dossiers de demande de subvention qui nous seront refusés plus de 3 fois sur 4 (chiffres officiels de l’AERES). Notre putain de métier c’est d’enseigner, de produire des connaissances scientifiques permettant de mieux comprendre le monde dans lequel nous vivons ET DE PARTAGER CES PUTAINS DE CONNAISSANCES AVEC LES GENS. Pas JUSTE avec nos gentils étudiants ou JUSTE avec nos charmants collègues, AVEC LES GENS. Notre putain de métier ce n’est pas d’attendre deux putains d’années que d’improbables pairs qui auraient par ailleurs bien mieux à faire – de la recherche ou des cours – aient bien constaté que nous n’écrivions pas n’importe quoi pour nous donner, au bout de deux ans, la permission de voir nos écrits diffusés avec un niveau de confidentialité qui rendrait jaloux les banques suisses et avec un coût d’accès qui … rendrait aussi jaloux les banques suisses.

Des synergies peuvent néanmoins se nouer entre une Read/Write Culture et le monde éditorial : lorsque des auteurs et des oeuvres naissent d’abord libres sur Internet pour ensuite être publiés afin d’en élargir le public. Voilà comment socialement, on peut concilier une abondance d’auteurs, qu’il faut appeler de nos voeux comme un bienfait, avec une diffusion par les circuits éditoriaux qui restera toujours marquée par le sceau de la rareté.

Pour le reste, contrairement à ce que dit Lawrence Lessig, l’édition peut bien aller mourir. Ce n’est pas elle qui arrêtera les fake news et la culture ne s’en portera que mieux…


Classé dans:Penser le droit d'auteur autrement ... Tagged: Aaron Swartz, éditeurs, édition, Creative Commons, fake news, Lawrence Lessig, livres