PROJET AUTOBLOG


S.I.Lex

source: S.I.Lex

⇐ retour index

Des partenariats Public-Privé aux partenariats Public-Communs (A propos du Google Cultural Institute)

vendredi 13 décembre 2013 à 08:58

L’ouverture du Google Cultural Institute aura marqué les esprits cette semaine, notamment à cause de la décision de la Ministre de la Culture, Aurélie Filippetti, de boycotter la cérémonie et de la réaction du gouvernement qui a envoyé Fleur Pellerin à la place dans une certaine confusion.

Mais ces péripéties gouvernementales ont fait oublier ce qui était sans doute le plus important : à savoir que Google a mis en place avec le Google Cultural Institute un site appelé à jouer un rôle non négligeable dans l’environnement numérique, rassemblant plus de 6 millions d’oeuvres en provenance de plus de 400 établissements culturels dans le monde. Voilà ce qu’en dit Le Mouv’ :

L’Institut culturel consiste donc en une plate-forme, sorte de gallerie des oeuvres et créations du monde, qui permet d’accéder à tout un tas d’oeuvres d’arts, mais aussi de monuments ou de merveilles naturelles. Telle une Google Map customisée, cette plate-forme permet aussi bien de voir les Alpes, d’admirer un Van Gogh ou de se balader à l’intérieur du musée d’Orsay. Pour un résultat, il faut le reconnaître, assez bluffant: 40 000 images d’oeuvres sont disponibles, certaines d’entre elles peuvent être étudier à un niveau de détail inégalé et la recherche par date, médium, artiste… est très pratique. Le rêve pour tout étudiant en Histoire de l’art ou Arts Plastiques.

Le site du Google Cultural Institute

Le site du Google Cultural Institute

Faisant suite au Google Art Project lancé en 2011, cette nouvelle plateforme offre aux institutions la possibilité de présenter leurs collections sous la forme d’expositions virtuelles. L’outil est de grande qualité et il restait pour l’instant ouvert uniquement à des institutions partenaires de Google. Mais à l’occasion de cette inauguration du Google Cultural Institute à Paris, la firme de Moutain View a annoncé le lancement d’un autre site, Google Open Gallery, qui permettra à n’importe quel musée, archives, bibliothèque, mais aussi artiste individuel, de charger ses propres images et de les éditorialiser avec des outils gratuits. D’une certaine manière, Google s’oriente vers une forme assez révolutionnaire de "YouTube de l’art et de la culture", avec la force de frappe qu’on lui connaît.

Une "cage de verre" pour le domaine public numérisé

Tout ceci pourrait paraître comme un mouvement positif, offrant à des institutions culturelles le moyen de gagner en visibilité, mais les choses sont plus complexes que cela lorsque l’on regarde dans le détail. Creative Commons France a publié un billet, intitulé "Institut Culturel Google et les oeuvres du domaine public" qui pointe un problème majeur déjà évoqué par Adrienne Alix notamment, il y a deux ans, à propos du Google Art Project. Parmi les oeuvres numérisées figurant sur la plateforme, une très large proportion appartiennent au domaine public, mais pourtant ses conditions d’utilisation placent les contenus sous "copyright : tous droits réservés". Pire encore, Google Open Gallery n’a rien de spécialement "Open", puisque les conditions générales des services Google s’y appliquent, ce qui signifie que la firme se voit accorder une licence d’utilisation très large sur les contenus postés par les utilisateurs.

google

Google Open Gallery.

Malgré la qualité des outils de visualisation et d’éditorialisation fournis par Google aux institutions culturelles, le Google Cultural Institute constitue une sorte de "cage de verre" qui rajoute une couche de droits sur le domaine public numérisé et empêche sa libre réutilisation. Pire, le clic droit est même désactivé ce qui empêche jusqu’à la copie des contenus à des fins personnelles. On est bien en présence d’une forme de copyfraud et d’enclosure posée sur le domaine public.

Pourtant, il serait trop rapide d’accuser uniquement Google d’être responsable de ces restrictions, car en effet, comme le rappelle BlankTextField sur Twitter, les institutions partenaires de Google  (En France, le Château de Versailles, le Musée d’Orsay, Le Musée du Quay Branly, Le Musée de l’Orangerie, etc) pratiquent elles aussi largement le copyfraud sur leurs propres sites, en copyrightant le domaine public.

Avec le Google Cultural Institute, on est donc en présence d’une forme de partenariat Public-Privé qui conduit à une enclosure sur le domaine public numérisé. Or ce type de dérives n’est pas une fatalité et des institutions publiques peuvent tout à fait coopérer avec des entités privées pour produire ensemble des biens communs numériques. Mais il faut pour cela passer d’une logique de partenariats Public-Privé à des partenariats Public-Communs.

Des partenariats Public-Communs, respectueux du domaine public

L’expression "partenariat Public-Communs" (Public-Commons Partnership) a été proposée par l’italien Tommaso Fattori, qui souhaitait montrer qu’il existe une autre voie possible que les partenariats Public-privé classiques, trop souvent à l’origine de formes de privatisation ou d’accaparement de ressources communes.

Dans le champ de la diffusion du patrimoine culturel en ligne, il existe justement un précédent qui incarne bien cette idée. Il s’agit du programme Flickr The Commons, initié en 2008 par un partenariat entre Flickr et la Bibliothèque du Congrès pour diffuser des fonds de photographies anciennes. Depuis, ce site a connu un grand succès et des dizaines de bibliothèques, musées et archives partout dans le monde ont choisi de l’utiliser pour exposer une partie de leurs collections.

google

Flickr The Commons.

Or du point de vue juridique, il existe une grande différence entre Flickr The Commons et le Google Cultural Institute : les institutions partenaires de Flickr (détenu par Yahoo!, rappelons-le) ne peuvent pas rajouter de couches de droits supplémentaires sur le domaine public. Le programme n’a mis en place qu’une seule mention "Aucune restriction de copyright connue" applicable à toutes les images sur la plateforme, qui permet la diffusion du domaine public "à l’état pur" sans copyfraud. Ces contenus culturels deviennent alors librement réutilisables par les communautés d’utilisateurs, y compris à des fins commerciales. On voit donc avec cet exemple comment un partenariat Public-privé peut se transformer en partenariat Public-Communs.

L’autre exemple que l’on peut citer de coopération orientée vers la constitution de biens communs, ce sont bien sûr les partenariats entre Wikimedia Commons et les institutions culturelles. Pour prendre un exemple français, on peut prendre le cas du Musée des Augustins de Toulouse, qui a choisi de publier sur Wikimedia Commons l’ensemble de ses collections de peintures et de sculptures exposées dans ses salles publiques. Là aussi, les reproductions numériques sont disponibles sans couche de droits supplémentaires, ce qui respecte l’intégrité du domaine public.

google

Les collections du Musée des Augustins de Toulouse sur Wikimedia Commons.

L’ouverture protège, la fermeture menace

L’intérêt principal à mon sens de ces partenariats Public-Communs, c’est qu’ils évitent de déséquilibrer l’écosystème numérique en conférant à un seul acteur une position dominante. Flickr The Commons ou Wikimedia Commons ne sont qu’un point de diffusion possible du domaine public numérisé parmi d’autres. La liberté de réutilisation qui est garantie sur ces plateformes fait que les contenus peuvent être réutilisés librement par des tiers, évitant ainsi de favoriser un acteur en particulier. Dans l’environnement numérique, ce qui appartient à tous ne peut plus être approprié par un seul et c’est la meilleure façon de se protéger des enclosures.

La situation est différente avec le Google Cultural Institute. En bloquant la réutilisation à l’extérieur de la plateforme de Google, les institutions culturelles partenaires confèrent à ce dernier un avantage comparatif très important et renforcent sa position dans l’écosystème. Dans ce type de partenariats, il y a en réalité "collusion" entre les acteurs institutionnels et l’acteur privé, et c’est au final le public – nous tous – qui nous voyons privés des droits culturels légitimes que le domaine public devrait pourtant nous offrir. Cette conception "propriétaire" de la culture et du patrimoine fait en définitive complètement le jeu de Google.

google

Sans surprise, les tableaux du Musée d’Orsay sont aussi copyrightées sur le Google Cultural Institute que sur son propre site. A qui la faute ?

Si Google s’était au contraire engagé dans un programme similaire à celui de Flickr, en mettant en place des conditions d’utilisation respectueuses du domaine public sans laisser le choix aux institutions partenaires, son Institut Culturel aurait pu constituer un outil intéressant pour faire évoluer les pratiques et apporter sa contribution à la formation de nouveaux biens communs de la connaissance.  Mais tel n’est pas le cas et c’était son intérêt bien compris…

Quelle lisibilité pour la politique du Ministère de la Culture ?

C’est la raison pour laquelle le boycott par Aurélie Filippetti du lancement du Google Cultural Institute constitue sans doute en lui-même une décision opportune. La Ministre de la Culture a avancé comme argument pour justifier son absence le fait de ne pas vouloir "servir de caution" à Google, notamment tant que la firme n’a pas apporté de réponses satisfaisantes aux critiques qui lui sont faites quant à sa stratégie d’optimisation fiscale ou au respect des données personnelles des utilisateurs, deux points essentiels qui sont au coeur de la position dominante que cet acteur a su construire.

Par ailleurs, dans l’interview accordée au Monde pour annoncer son intention de boycotter l’inauguration, Aurélie Filippetti fait référence aux orientations prises en faveur du domaine public et de l’ouverture des données culturelles à l’issue de "l’Automne numérique " du Ministère de la Culture qui a eu lieu au mois d’octobre dernier et que j’avais saluées dans S.I.Lex :

Par ailleurs, dans « l’automne numérique » (politique numérique du ministère) sont traités des sujets comme la mise en valeur du domaine public et l’ouverture des données du domaine public culturel, poursuit la ministre.

Le Ministère de la Culture a aussi déclaré vouloir "veiller à «l’équilibre» des contrats entre les établissements culturels et Google".

Tous ces motifs sont légitimes, s’ils renvoient bien à ces problèmes d’enclosure que j’ai pointés plus haut. Mais on regrette que le message envoyé à Google, mais aussi aux institutions culturelles françaises, n’ait pas été plus clair. Hier matin par exemple, alors qu’elle était invitée sur France Inter à s’expliquer à propos de son boycott, Aurélie Filippetti n’a plus du tout parlé de la question du domaine public, pour en revenir à un discours beaucoup plus vague sur la protection de "l’exception culturelle française", calibré pour plaire aux industries culturelles françaises.

Par ailleurs, de vraies questions de cohérence globale de la politique du Ministère de la Culture se posent, car pour avoir boycotté le Google Cultural Institute, Aurélie Filippetti n’en a pas moins soutenu cette année d’autres partenariats public-privé, comme ceux conclus pour la numérisation des collections de la BnF, qui posaient pourtant de graves questions de respect de l’intégrité du domaine public. Par ailleurs, les établissements culturels français sont légion à pratiquer le copyfraud lorsqu’ils diffusent le domaine public numérisé, exactement de la même manière que sur le Google Cultural Institute.

Si le Ministère de la Culture veut aller au bout des nouvelles orientations qui ont été prises depuis plusieurs mois en faveur du domaine public et de l’ouverture des données culturelles (voir par exemple le Guide dataculture paru en mars dernier), il faut à présent franchir un pas supplémentaire, en demandant explicitement à ses établissements publics de ne plus entraver la libre réutilisation du domaine public numérisé et en privilégiant des partenariats Public-Communs.

Le Ministère peut aussi arriver à ce résultat en soutenant la loi sur le domaine public en France, qui a été déposée par la députée Isabelle Attard le mois dernier à l’Assemblée nationale.

Mise à jour du 14 décembre 2013 : Hier a été annoncé un exemple significatif de partenariats Public-Communs. La British Library a choisi de libérer UN MILLION d’images du domaine public sur Flickr The Commons. C’est une contribution majeure à la constitution de biens communs numériques et une manière de diffuser le domaine public en respectant son intégrité.


Classé dans:Domaine public, patrimoine commun Tagged: aurélie filippetti, Biens Communs, Domaine public, Google, Google Cultural Institute, Google Open gallery, ministère de la culture, partenariats public-privé

L’oeuvre, le mythe et le domaine public (Réponse à Alexandre Astier)

samedi 7 décembre 2013 à 20:07

Avertissement préalable : suite à la publication de ce billet, Alexandre Astier est venu discuter sur Twitter et l’échange fut constructif et intéressant, ce qui est très rare sur ces questions. J’insère ci-dessous certains des tweets d’Alexandre Astier. La suite du billet doit être lue à la lumière de ces déclarations, qui sont sensiblement différentes des propos qui ont pu être tenus lors de l’émission Ce soir (ou jamais !) ou qui les éclairent autrement ("K " veut dire Kaamelott). Alexandre Astier autorise les usages pédagogiques de son oeuvre ; il autorise aussi les fanfictions s’inscrivant dans son univers et on peut discuter avec lui d’une éventuelle réduction de la durée du droit d’auteur.

***

Vendredi dernier, j’ai participé à Ce soir (ou jamais !) sur France 2, dans une émission intitulée "Tintin, Astérix, James Bond, Yves Saint Laurent : y a t-il une vie après la mort du créateur ?". Frédéric Taddeï a souhaité en effet rebondir sur le débat suscité en octobre dernier par les déclarations parues dans le Monde de Nick Rodwell, mari de la veuve d’Hergé et gestionnaire des droits sur Les Aventures de Tintin via la Société Moulinsart. Celui-ci avait en effet annoncé son intention de publier un nouvel album de Tintin en 2052, pour essayer d’empêcher que l’oeuvre d’Hergé n’entre dans le domaine public (contre la volonté exprimée par l’auteur de son vivant). Pier-Carl Langlais avait réagi à ces propos sur Rue89 et je l’avais fait aussi de mon côté sur Slate, car il peut paraître assez choquant de voir un héritier chercher à arracher une oeuvre du domaine public et cela rappelle funestement l’allongement de la durée des droits votée en 1998 aux États-Unis sous la pression de la Walt Disney Company, juste avant que le personnage de Mickey n’entre dans le domaine public.

Qu’est-ce qui fait la différence entre une oeuvre et un mythe ? (Image tirée de "La quête du Saint Graal et la mort du roi Arthur". Domaine public. Source : Wikimedia Commons)

Le débat sur le plateau de Ce soir (ou jamais !) a bien confirmé que Rodwell avait l’intention de tenter quelque chose, sans que l’on puisse savoir exactement quoi. Mais une autre personne était présente parmi les invités, qui était directement concernée par cette question du domaine public. Il s’agissait d’Alexandre Astier, auteur-réalisateur-acteur de la série télévisée Kaamelott, s’inscrivant dans l’univers de la Légende arthurienne et de la quête du Graal. A vrai dire, on ne pouvait trouver meilleur exemple de ce que permet l’ouverture du domaine public en terme de réutilisation de personnages préexistants pour créer une nouvelle oeuvre. Et Alexandre Astier est aussi allé puiser dans le domaine public à l’occasion de son récent spectacle "Que ma joie demeure !" consacré au compositeur Jean-Sébastien Bach.

Or lors de l’émission – et il me semble que ce furent les échanges les plus intéressants de la soirée -, Alexandre Astier a tenu des propos contradictoires sur le domaine public. D’un côté, il a admis que les oeuvres comme les Aventures de Tintin avaient une dimension particulière et qu’elles tendaient à devenir des "mythologies" destinées à être "remâchées comme du chewing-gum" à travers les époques (métaphore qui fait furieusement penser au mashup). Mais lorsqu’on lui a fait remarquer que lui-même avait réutilisé des éléments du domaine public pour créer à son tour, il s’est subitement raidi, allant jusqu’à dire "si vous écrivez, écrivez vos trucs, les gars. Ne venez pas chercher les autres". Et lorsqu’on lui oppose que c’est pourtant ce qu’il a fait avec Kaamelott, il répond que la Légende arthurienne n’est "pas une oeuvre", mais "un mythe" et qu’on ne peut pas la comparer avec les Aventures de Tintin.

N’ayant pas eu le temps de répondre sur le fond à Alexandre Astier pendant l’émission, je voulais le faire dans ce billet, pour montrer que cette conception minimise certains fondements profonds de la création, qui puise toujours à des degrés divers dans ce qui a existé auparavant ("Nous sommes des nains assis sur les épaules des géants"). Alexandre Astier illustre ainsi le fait qu’une grande partie des créateurs aujourd’hui oublient la dette fondamentale qu’ils ont vis-à-vis du domaine public et c’est l’une des sources majeures du déséquilibre du système de la propriété intellectuelle.

Ecouter la légende aux portes des oeuvres et les oeuvres aux portes de la légende

La distinction qu’Alexandre Astier fait entre "l’oeuvre" et le "mythe" ou la "légende" me paraît contestable. Il n’y a qu’une différence de degré, mais pas de nature entre les deux, car c’est finalement le travail du temps, au fil des réutilisations d’une oeuvre qui transforme les créations en légende ou en mythe.

La page Wikipédia "Liste d’oeuvres concernant le cycle arthurien" montre bien ce lent processus d’alluvionnement, qui fait que l’accumulation successive des oeuvres reprenant les mêmes histoires et les mêmes personnages transforment leur nature. Tout comme la droite est une succession de points, le mythe est bien une succession d’oeuvres créées par des auteurs, même si leur nom finit par disparaître avec le temps. Issu de la synthèse entre des légendes celtiques et bretonnes et d’élements issus du Christianisme, le "fonds commun" de la légende arthurienne a été ensuite cristallisé par des auteurs médiévaux, avec un rôle particulier joué par Chrétien de Troyes au XIIème siècle. Les personnages, les événements et les lieux du la Quête du Graal sont ensuite sans cesse repris, modifiés, augmentés par des auteurs successifs, jusqu’à l’époque contemporaine où la Légende arthurienne continue à alimenter l’imaginaire des créateurs. Notre appréhension de l’histoire d’Arthur et des chevaliers de la Table ronde est aujourd’hui par exemple indissociable du film Excalibur de John Boorman, de l’Enchanteur de Barjavel, des Dames du Lac du Marion Zimmer Bradley, du Merlin de Disney ou encore, bien entendu, de Sacré Graal des Monthy Python dont la veine parodique a plus d’un lien avec Kaamelott.

Kaamelott est l’un des maillons d’une longue chaîne d’oeuvres qui ont forgé au fil du temps le cycle du Graal et nul doute que la légende continuera encore longtemps, augmentée de l’apport d’Alexandre Astier. Dans la dynamique de la création, il y a donc un lien profond entre les oeuvres et les mythes. Les oeuvres vont souvent chercher leurs inspirations dans des mythes et les mythes sont régénérés et augmentés périodiquement par les oeuvres, sans quoi ils tomberaient dans l’oubli.

Le cycle de la création

Il se trouve que ce grand "cycle" de la création a très bien été décrit par l’américain Joseph Campbell dans son ouvrage de 1949 "Le héros aux mille et un visages", dont j’ai eu déjà l’occasion de parler dans S.I.Lex. Campbell soutient qu’un très grand nombre d’histoires peuvent se ramener à un schéma narratif archétypique, qu’il nomme le "voyage du héros". Cette structure constitue à ses yeux un "monomythe" qui constitue la matrice de la plupart des grands récits de l’Humanité.

Mais loin d’être limité aux mythes et aux contes traditionnels, le pouvoir explicatif de la théorie du monomythe s’applique en réalité à de très nombreuses créations contemporaines. Georges Lucas par exemple reconnaissait sa dette vis-à-vis de l’ouvrage de Campbell pour l’écriture de Star Wars et de plusieurs analyses ont mis en évidence la présence de la même structure sous-jacente dans de nombreux récits contemporains, que ce soit Harry Potter, Le Seigneur des anneaux ou même… Le monde de Nemo !

Avec Kaamelott, ce jeux des influences est encore plus riche et complexe, car la série puise bien plus largement que dans la Légende du Graal. On y retrouve des traces de l’Univers fantasy des jeux de rôles (Donjons & Dragons, Warhammer) ; des références plus ou moins directes à l’univers d’Astérix, de Star Wars ou de Stargate, des liens avec Sacré Graal ou la série La Vipère noire, de Rowan Atkinson (Mister Bean). Tout ceci fait de Kaamelott un grand mélange et un carrefour entre beaucoup d’influences : un amalgame d’éléments légendaires et d’oeuvres, pour former quelque chose de nouveau.

Loin de moi l’idée d’insinuer que Kaamelott n’est pas une création originale, au sens que le droit attribue à ce terme (portant l’empreinte de la personnalité de l’auteur) ou de diminuer le mérite d’Alexandre Astier. Mais l’originalité n’est justement pas la nouveauté et ce qui fait l’intérêt de Kaamelott, c’est précisément la manière dont des figures immémoriales (Arthur, Guenièvre, Lancelot, Perceval, Merlin, etc.) ont été "télescopées" par Astier de manière complètement anachronique avec des références récentes et notre langage d’aujourd’hui. Du coup, entendre quelqu’un comme Alexandre Astier dire : "si vous écrivez, écrivez vos trucs, les gars. Ne venez pas chercher les autres", a vraiment du mal à passer, car il est l’exemple même de ces auteurs qui ont "recyclé" au sens le plus noble du terme des éléments préexistants.

Et tout cela n’a été possible que grâce à l’existence du domaine public.

Tintin au pays du Folklore

Faut-il maintenant faire une distinction entre la Légende arthurienne et les Aventures de Tintin ? Bien sûr, Tintin n’est pas né dans la "vallée du Floklore" pour reprendre cette belle expression inventée par Aymeric Mansoux, à une époque où les oeuvres naissaient et restaient dans le domaine public. C’est une oeuvre moderne, issue du travail créatif d’Hergé et elle porte la marque d’un seul auteur. Mais si nous le voyons ainsi, c’est aussi parce que nous ne pouvons pas encore connaître l’avenir et savoir si Tintin accèdera un jour au statut de mythe. A vrai dire, certaines oeuvres créées au 20ème siècle par des auteurs uniques ont rapidement acquis une dimension qui les rapproche des mythes d’antan. C’est le cas par exemple de Star Wars de Georges Lucas ou du Seigneur des Anneaux de Tolkien (aussi peut-être des comics américains). C’est le cas en réalité des "oeuvres univers", qui font davantage que raconter une histoire et dessinent un "monde" avec une galerie de lieux et de personnages. Or l’univers de Tintin présente de telles caractéristiques.

Galerie des personnages des Aventures de Tintin, dessinée par Hergé sur les pages de garde des albums.

Juridiquement, Tintin et Arthur n’ont pas une nature différente : ce sont tous deux des personnages que les juges acceptent de considérer comme protégeables en eux-mêmes par le droit d’auteur lorsqu’ils ont suffisamment de caractéristiques originales. La différence, c’est bien qu’Arthur est dans le domaine public, ce qui le rend disponible pour toutes les réutilisations, alors que Tintin reste protégé par le droit d’auteur, et fait l’objet d’un contrôle féroce exercé par la société Moulinsart. C’est ce qui m’a fait dire au cours de l’émission que nous sommes en réalité la première époque dans l’histoire qui se refuse à elle-même que ses oeuvres accèdent au statut de mythes, à cause d’une conception déséquilibrée de la propriété intellectuelle. Si Rodwell parvient artificiellement à prolonger les droits sur Tintin, alors il n’entrera pas dans le domaine public et il ne pourra pas faire l’objet d’appropriations et de réinterprétations libres, à l’image de celle qu’Astier a pu faire à partir de l’histoire de la Quête du Graal. Et le cas de Rodwell n’est pas isolé, puisque d’autres ayant droits s’efforcent en ce moment d’empêcher des oeuvres majeures du 20ème siècle d’entrer dans le domaine public (Sherlock Holmes, Zorro, Tarzan).

Ce faisant, on s’éloigne d’ailleurs complètement de l’esprit originel du droit d’auteur. En 1791, à la Révolution, lorsque le droit d’auteur fut créé en France, il durait seulement pendant 10 ans après la publication de l’oeuvre, ce qui permettait rapidement qu’elle accède au domaine public et que le public s’en empare. Le Chapelier, le représentant qui fut le rapporteur de cette première loi sur le droit d’auteur, concevait les oeuvres comme des propriétés de l’auteur, mais il ajoutait : "Lorsqu’un auteur fait imprimer un ouvrage ou représenter une pièce, il les livre au public, qui s’en empare quand ils sont bons, qui les lit, qui les apprend, qui les répète, qui s’en pénètre et qui en fait sa propriété. " Et c’est préciser cette appropriation par le public, qui constituait un mécanisme essentiel dans la création des contes et des mythes, qui est bloqué aujourd’hui à cause des restrictions imposées par le droit d’auteur, ainsi que par la durée très longue des droits. Ce qui était libre au bout de 10 ans ne l’est aujourd’hui qu’après presque un siècle et demi…

Schéma par Guillaume Champeau. Source : Numerama. CC-BY-NC-ND.

Harry Potter a déjà des milliers d’auteurs… 

Lors de l’émission, il n’a finalement été question que des suites que des auteurs professionnels pouvaient donner à des oeuvres après la mort de leur créateur, mais nous n’avons pas pu parler des productions amateurs, qui constituent pourtant un aspect important de la créativité aujourd’hui sur Internet. Il en existe sans doute sur Tintin, mais elles sont obligées plus ou moins de se cacher, étant donné que la Société Moulinsart a déjà attaqué en justice des sites de tintinophiles.

Mais d’autres titulaires de droits n’ont pas la même attitude et c’est le cas par exemple de J.K. Rowling, l’auteur de Harry Potter, qui accepte assez largement les fanfictions s’inscrivant dans son univers et reprenant ses personnages. Elle a posé des limites, comme le fait de ne pas faire d’usage commercial ou de mettre en scène ses personnages dans des situations pornographiques, mais en dehors de ces restrictions, les créations dérivées réalisées par les amateurs foisonnent sur Internet et forment des communautés d’écriture et de partage (fandoms). Cela signifie donc que Rowling accepte qu’Harry Potter ait des milliers d’auteurs partout dans le monde, dès maintenant de son vivant, sans attendre le passage de l’oeuvre dans le domaine public. Elle accepte aussi que l’univers dont elle a planté le décor s’enrichisse de nouveaux personnages, de nouveaux lieux, de nouvelles histoires, qui s’inscrivent dans les "creux" qu’elle a pu laisser. L’univers d’Harry Potter se développe ainsi, en dehors de son auteur, d’une manière qui rappelle beaucoup la génération des mythes.

gazette

La Gazette du Sorcier, l’un des hauts points de rassemblement de la communauté du fandom d’Harry Potter en France.

Ce phénomène des fanfictions, qui explose avec Internet, nous ramène directement à la citation de Le Chapelier. Il manifeste cette propension du public à "répéter", "se pénétrer" des oeuvres et "en faire sa propriété", par l’activité créative. Et c’est là que l’on se dit aussi qu’Alexandre Astier passe à côté de quelque chose de fondamental dans la dynamique actuelle de la création, en disant "si vous écrivez, écrivez vos trucs, les gars." Une des différences majeures entre Tintin et Harry Potter, c’est que le second peut disposer d’une communautés de fans créatifs qui font vivre dès aujourd’hui cet univers et qui participent à son élévation au rang de mythe moderne, tandis que la protection tatillonne de Nick Rodwell fait que Tintin n’a quasiment plus aujourd’hui que des consommateurs passifs. Et c’est à mon sens un facteur d’appauvrissement et de dévitalisation de l’oeuvre, beaucoup plus que de protection.

A un moment donné de la discussion lors de l’émission, Alexandre Astier a pris l’exemple des LEGO, qui ont perdu l’essentiel de leur protection par la propriété intellectuelle et sont quasiment passés dans le domaine public. Or pour lui, cela n’avait aucun intérêt, sinon de permettre à des concurrents de faire des copies de mauvaise qualité. Mais cette ouverture a bel et bien un intérêt : des fans des LEGO organisés en communautés peuvent maintenant librement produire de nouvelles pièces et customiser des éléments. Et par exemple, on trouve sur Internet une gamme de LEGO Sacré Graal que la firme danoise n’aurait sans doute jamais produite d’elle-même. De l’intérêt du domaine public et de l’ouverture…

Le domaine public protège, surtout de l’oubli…

Lors du livetweet de l’émission vendredi soir, l’auteur de nouvelles Neil Jomunsi a fait un lien très pertinent entre le sujet de l’émission et le cas de H.P. Lovecraft, l’auteur du mythe de Cthulhu :

Lovecraft est en effet un exemple d’auteur qui a délibérément laissé d’autres écrivains reprendre de son vivant les personnages et l’univers qu’il avait créés afin qu’ils le développent et l’enrichissent. Et sans doute n’est-ce pas étranger au fait que Lovecraft avait d’emblée eu la volonté de créer une mythologie moderne, avec sa cohorte de Dieux et sa cosmogonie. Ce choix de l’ouverture eut une importance capitale dans la destinée de son oeuvre, car Lovecraft rencontra durant toute sa vie les plus grandes difficultés à se faire publier et à toucher un lectorat. Ce n’est que parce qu’il réussit en somme à créer de son vivant autour de son oeuvre une communauté de "fans" créatifs que celle-ci a pu ensuite être reconnue comme une des créations majeures du XXème siècle. D’une certaine manière, Lovecraft a choisi de faire comme si son oeuvre était déjà dans le domaine public avant sa mort. Pourtant ironiquement après sa disparition, certains de ses collaborateurs ont essayé de se réapproprier son oeuvre et de la placer sous copyright, ce qui a d’ailleurs perturbé son entrée définitive dans le domaine public à la fin des années 2000…

Dans le cas de Lovecraft, l’ouverture l’a protégé de ce qu’il peut peut-être y avoir de pire pour un auteur : l’obscurité et l’oubli.

La tombe de Lovecraft, avec une peluche de Cthulhu déposée par un fan… (Par StrangeInterlude. CC-BY-SA. Source : Flickr)

***

Écrivez vos propres histoires ! Ne volez pas celles des autres ! J’avouerais avoir été terriblement déçu par ces propos d’Alexandre Astier, moi qui ait passé des heures et des heures à voir et revoir les saisons de Kaamelott. Il faut que nous ayons perdu beaucoup en sagesse pour oublier à ce point la dette que nous avons vis-à-vis du domaine public. Suprême ironie au début de l’émission, Frédéric Taddeï a demandé à Alexandre Astier où en était son projet d’adaptation de Kaamelott en film, dont on parle depuis un certain temps. Et Astier a répondu qu’il était toujours bloqué "à cause de problèmes de droits d’auteur"…

On lui souhaite qu’il n’ait pas à attendre l’entrée de Kaamelott dans le domaine public pour pouvoir porter à l’écran sa propre création. Car il sera mort à ce moment et avec lui, tous ses fans…

PS : @_Quack1 m’a signalé sur Twitter qu’Alexandre Astier a utilisé pour écrire Kaamelott une méthode développée par l’américain Christopher Vogler, qui travaille avec Hollywood. Or celle-ci repose en partie sur les travaux de Joseph Campbell dont j’évoque plus haut. Je l’ignorais lorsque j’ai inséré cette référence dans ce billet. Astier en parle dans cette vidéo :


Classé dans:Domaine public, patrimoine commun Tagged: Alexandre Astier, Ce soir (ou jamais !), Domaine public, droit d'auteur, Frédéric taddéï, Harry Potter, Kaamelott, Lovecraft, Nick Rodwell, Tintin

Et Facebook inventa le Robocopyright "social"…

jeudi 5 décembre 2013 à 02:07

3 décembre 2013 : alors que nos libertés numériques partent déjà bien en lambeaux, Facebook s’est vu accorder un brevet sur un dispositif de contrôle des contenus circulant sur un réseau social qui fait littéralement froid dans le dos, en mélangeant allègrement le Copyright Madness, Big Brother et Minority Report.

C’est le site TorrentFreaks qui explique que Facebook a déposé un brevet sur une méthode permettant d’utiliser les informations de profils d’utilisateurs et des "signes sociaux" pour déterminer si des contenus partagés sont piratés ou non. Les données mises à contribution pour réaliser ces analyses incluent les centres d’intérêt déclarés par les membres du réseau, leur localisation géographique et leurs relations sociales.

Des systèmes automatiques de filtrage des contenus existaient déjà, et notamment le dispositif ContentID fonctionnant sur YouTube, capable de repérer des oeuvres d’après leurs empreintes et d’appliquer des actions de retrait, de sanction ou de monétisation, en fonction de la volonté des titulaires de droits. Cette application "robotisée" de la règle de droit constituait déjà une forme de police privée du copyright, entraînant des dérapages attentatoires à la liberté d’expression et une fragilisation rampante des droits des internautes.

Mais Facebook franchit cette fois un pas de plus vers la dystopie, car il ne s’agit plus de marquer les contenus, mais les utilisateurs eux-mêmes, en les profilant selon leur "propension à pirater". Le fonctionnement de la Hadopi soulevait déjà des questions en termes de surveillance des individus et de traitement de données personnelles. Mais ici, le système est infiniment plus pervers, puisque ce sont les individus qui fournissent eux-mêmes les données servant à les contrôler, en acceptant ce type de traitement via les conditions d’utilisation du site qui prévoient que les informations des utilisateurs pourront être utilisées "pour protéger les droits ou la propriété de Facebook ou de tiers".

On aboutit à quelque chose de potentiellement très inquiétant, et j’ai envie de dire surtout en France, où l’objectif d’arriver à mettre en place un système "d’auto-régulation des plateformes" a clairement été exprimé, tant au niveau de la Hadopi que du rapport Lescure. Cela pourrait même constituer l’enjeu principal de la future loi sur la création, annoncée pour 2014, et Facebook vient de mettre sur la table une proposition en or pour ceux qui rêvent d’un "Robocopyright", capable de réguler la circulation des contenus sans passer par le juge.

Surveiller et prévoir

La grande différence entre ContentID et le dispositif inventé par Facebook est que ce dernier ne reconnaît pas le contenu piraté à une empreinte (fournie à la plateforme par les titulaires de droits) permettant d’appliquer un filtrage. Le caractère illégal est "déduit" de l’analyse des données sociales collectées sur les profils des utilisateurs. Et pire que cela, Facebook prétend pouvoir "prédire" qu’un utilisateur fera circuler des contenus piratés, ce qui nous amène directement vers quelque chose ressemblant à la nouvelle Minority Report de Philip K. Dick

Voilà ce que dit le texte du brevet, rapporté par TorrentFreaks :

Le système s’appuyant sur le réseau social pourra collecter des signaux sociaux à propos du contenu, comme les divers profils des personnes l’ayant consulté, les relations entre ces personnes et un autre utilisateur ou une entité qui serait mentionnée ou taggée dans le contenu, et les relations entre ces personnes et l’utilisateur ayant posté le contenu.

Ces signaux sociaux sont ensuite utilisés pour calculer une série de métriques agrégées pour générer une prédiction permettant de déterminer si l’usage de ce contenu est autorisé sur ce réseau social.

Sur le schéma ci-dessus, tiré du brevet, on voit bien à droite l’articulation entre un "Content Abuse Prediction Module" et un "Content Removal Module", qui procédera à la suppression du contenu en fonction des calculs opérés. On imagine aussi que la plateforme pourra avertir ou sanctionner les utilisateurs, comme Youtube le fait déjà par le biais de ses Copyright Strikes.

Faire la police pour échapper à la responsabilité

Facebook indique également quel est le bénéfice recherché par ce système pour les plateformes qui l’utiliseraient. Il s’agit de limiter les risques d’engagement de leur responsabilité juridique (minimize legal liabilities). En ce moment, les plateformes 2.0 permettant aux utilisateurs de poster leurs propres contenus, comme Youtube, facebook et bien d’autres, vivent sur le fil du rasoir, car elles bénéficient encore d’un régime de responsabilité allégée mis en place pour les hébergeurs, issu chez nous de la loi LCEN de 2004. Il leur permet de ne pas être frontalement responsables des contenus qu’elles abritent, dans la mesure où elles sont capables de les retirer rapidement lorsqu’on leur signale qu’une infraction a été commise.

Mais cet équilibre de la responsabilité des hébergeurs, qui constitue pourtant l’une des clés de voûtes de la protection des libertés en ligne, est aujourd’hui très fortement remis en cause par les titulaires de droits, appuyés par les gouvernements. D’où la tentation, comme l’a déjà fait Youtube avec ContentID, de prendre les devants et de mettre en place des moyens pro-actifs de répérage des contenus contrefaisants, sur une base contractuelle avec les titulaires de droits.

Yes, I’M A Cop : Robocop. CC-BY-NC. Source : Flickr.

Pour les réseaux sociaux comme Facebook, la question du partage de contenus protégés par le droit d’auteur ou de liens permettant d’y accéder devient non négligeable. Une étude publiée par la Hadopi la semaine dernière montrait que l’accès à des œuvres piratées se faisait dans 27% des cas par le biais des réseaux sociaux.

Il y a donc un vrai enjeu pour ces plateformes à pouvoir mettre en place un système de contrôle des contenus, sous forme automatique, ce qui leur permet de ne pas perdre le bénéfice de leur responsabilité allégée. Mais cela ne peut se faire qu’au prix de la mise en place d’une police privée du droit d’auteur.

Particulièrement inquiétant pour la France…

Facebook n’a visiblement pas encore précisé si ce Robocopyright "social" pouvait déjà être déployé sur son site, ni quand il comptait le faire. Mais il est certain que cette perspective fait déjà écho à un discours que l’on entend monter depuis plusieurs mois en France à propos de "l’auto-régulation des plateformes".

Cette idée a germé d’abord en dans un rapport sur les moyens de lutter contre le streaming et le DirectDownload, réalisé par la magistrate Mireille Imbert-Quaretta de la Hadopi. Les grandes lignes de cette étude se retrouvent ensuite dans le rapport Lescure, qui manifeste un grand intérêt pour ContentID de Youtube et les solutions directement négociées en les titulaires de droits et les plateformes. Depuis, le Ministère de la Culture a confié à nouveau à Mireille Imbert-Quaretta une mission de lutte contre la contrefaçon commerciale, qui s’appuie visiblement également sur ce concept "d’auto-régulation des plateformes". Le même discours se retrouve dans la bouche du CSA et l’auto-régulation est aussi poussée par la France au niveau européen. Last but not least, la décision rendue par le TGI de Paris la semaine dernière dans l’affaire Allostreaming va encore un peu plus dans ce sens, puisqu’elle incite explicitement les intermédiaires techniques à entrer en négociation avec les titulaires de droits pour mettre en place des moyens de lutte contre la contrefaçon.

Les pièces du puzzle s’emboîtent peu à peu, et on sent bien que cette question de "l’auto-régulation des plateformes" risque d’être le gros enjeu de la future loi sur la création annoncée pour 2014, bien plus finalement que la question de l’avenir d’Hadopi et de la riposte graduée.

Le graphe Facebook transformé en toile d’araignée pour la police du droit d’auteur…

Ce mouvement était déjà inquiétant, mais avec ce brevet déposé par Facebook, nous rentrons dans une nouvelle dimension. La surveillance et l’exploitation des données personnelles rejoignent le Copyright Madness. Là où nos données étaient déjà utilisées pour prédire nos attentes et nos comportements de consommation à des fins de profilage publicitaire, elles pourraient aussi l’être pour surveiller et même anticiper nos comportements délictuels liés à la violation du droit d’auteur. On sait depuis l’affaire Snowden et le scandale PRISM que les grands sites du Web sont prêts à aller très loin dans la collaboration avec les gouvernements et la France a montré encore la semaine dernière son inféodation quasi-totale à ces logiques derrière une opposition de façade.

Ce Robocopyright "social" de Facebook est une monstruosité numérique et une nouvelle étape dans l’escalade de la guerre au partage. Il ne faut pas laisser la France mettre en place un dispositif légal pour appuyer ce type de logique.


Classé dans:A propos des libertés numériques Tagged: censure, contentid, données personnelles, Facebook, filtrage, Google, piratage, police privée, réseaux sociaux, robocopyright, surveillance, youtube

Et si une directive européenne permettait de financer la numérisation du domaine public ?

mardi 3 décembre 2013 à 07:18

Lorsque l’on parle du domaine public et en particulier de sa numérisation, une des questions les plus épineuses concerne le financement de ces opérations, très onéreuses, et de leur durabilité dans le temps. Lors de l’affaire des accords de numérisation conclus par la BnF avec des sociétés privées, ce fut un des points majeurs du débat et ceux qui ont soutenu ces partenariats public-privé avançaient que sans cet apport de fonds par des sociétés, les oeuvres du domaine public ne pourraient pas être numérisées ou seulement très lentement. C’est ce qui a conduit certains à accepter les exclusivités de 10 ans conférées aux partenaires de l’établissement en échange de leurs investissements, alors que nous les avons combattus de notre côté au nom de la préservation de l’intégrité du domaine public.

Money. Par Adrian Serghie. CC-BY-NC-SA. Source : Flickr.

En ces temps de disette budgétaire, les établissements culturels sont soumis à des restrictions budgétaires ou à l’obligation de dégager des ressources propres et ce contexte fait du domaine public une victime collatérale de la situation de crise dans laquelle nous nous trouvons. Mais une proposition, venue de l’Union européenne, est peut-être susceptible d’apporter une solution de financement pérenne pour la numérisation du patrimoine. En effet, une directive européenne sur la gestion collective des droits est actuellement en cours d’élaboration et elle prévoit visiblement d’utiliser une partie des sommes collectées par les sociétés de gestion collective (SACEM, SACD, SCAM, Adami, SPEDIDAM etc) pour financer la numérisation en bibliothèque.

Vous avez dit "irrépartissables" ?

L’article L. 321.9 du Code de Propriété Intellectuelle définit ces "irrépartissables" comme étant des sommes "qui n’ont pu être réparties soit en application des conventions internationales auxquelles la France est partie, soit parce que leurs destinataires n’ont pas pu être identifiés ou retrouvés".

La SACEM les présente de son côté de cette manière :

Ce qu’on appelle de manière impropre « irrépartissables » désigne les droits d’auteur qui n’ont pu encore être payés, les données d’exploitation remises par les utilisateurs ne permettant pas d’identifier les œuvres exploitées et donc leurs ayants-droit. Il s’agit le plus souvent d’une erreur (ex : nom de l’interprète au lieu du compositeur ou de l’auteur, faute d’orthographe dans la rédaction…), voire d’informations lacunaires provenant des exploitants. Il se peut également que l’œuvre n’ait pas encore été déposée par les créateurs ou, s’agissant d’une œuvre étrangère, que les documents permettant son identification ne soient pas encore parvenus à la Sacem.

Ces irrépartissables peuvent atteindre des montants non négligeables (plusieurs dizaines de millions d’euros par an) et le rapport annuel 2012 de la Commission permanente de contrôle des SPRD en parle à plusieurs reprises. En vertu de l’article L. 321.9 cité ci-dessus, elles sont conservées pendant un certain laps de temps par les sociétés de gestion collective, après quoi elles sont employées pour financer des "actions culturelles". Mais leur attribution fait couler beaucoup d’encre, au point que certains, comme Guillaume Champeau, parlent à leur sujet de "piratage légal" :

Ce sont des sommes dites "irrépartissables". Du piratage légal. Parce que les sociétés de gestion ne connaissent/cherchent pas l’adresse de leur destinataire, ces sommes ne sont pas versées. On ne connaît pas leur montant, mais les consommateurs les payent, directement, ou indirectement, pour rémunérer les auteurs et les artistes-interprètes lorsque leurs chansons sont diffusées.

Les actions culturelles financées en partie par le biais de ces irrépartissables (le reste provenant des 25% de la copie privée) font l’objet de critiques régulières, dans la mesure où elles peuvent servir de manière détournée à faire pression sur des élus. En Belgique, la gestion de ces irrépartissables (plus de 8 millions par an) par la SABAM a soulevé des débats, au point de terminer par un procès. Autant dire que ce sujet des irrépartissables constitue une question sensible…

Une ouverture dans la directive européenne sur la gestion collective

Or en lisant cet article, paru il y a quelques jours sur le site de l’ADBS, on se rend compte que la nouvelle directive sur la gestion collective envisage que ces sommes puissent être utilisées pour la numérisation des oeuvres par les bibliothèques :

Soutenir le projet de directive européenne sur les sociétés de gestion collective dont une version amendée (mais non encore rendue publique) prévoit au paragraphe 12.6 que les irrépartissables (sommes collectées par les sociétés de gestion collective ne pouvant pas être reversées) puissent être aussi consacrés à la numérisation des œuvres par des bibliothèques. Selon des sources sûres, ce nouveau paragraphe donne aux États membres le droit d’utiliser l’argent non distribué « pour financer des projets sociaux, culturels ou éducatifs ». Un lobbying intense s’impose donc au niveau national pour que l’État utilise ce droit pour financer aussi des projets de numérisation de collections de bibliothèques.

L’information vient d’EBLIDA, le bureau chargé de faire du lobbying au niveau européen pour les professionnels de l’information.

Il est certain qu’une telle formule changerait profondément la donne. En France, une partie de la numérisation est déjà financée grâce à des crédits versés par des sociétés de gestion collective. C’est le cas pour la numérisation de masse du domaine public à la BnF, financée  via le Centre National du Livre (CNL) par le reversement de sommes collectées au titre de la copie privée (6 millions par an). Mais ces financements restent insuffisants pour couvrir les besoins de la seule BnF (d’où le recours aux contestables partenariats public-privé), et ne parlons pas des autres établissements culturels français (bibliothèques, archives, musées). Par ailleurs, ces financements du CNL pour la numérisation du domaine public semblent aujourd’hui dangereusement menacés par le programme de numérisation des indisponibles dans le cadre du projet ReLIRE, qui pourraient finir par les absorber.

Le recours aux irrépartissables des sociétés de gestion collective (SACEM, SACD, SCAM et autres) permettraient à la fois de trouver une source de financement plus large, déchargeant le budget de l’État, mais aussi d’éviter le recours à des formules qui portent atteintes au domaine public. On pense bien sûr à ces fameux partenariats public-privé, qui constituent de véritables pièges en raison des exclusivités conférées aux sociétés privées qui apportent des fonds.

On pense aussi à une autre solution, proposée par Pascal Rogard de la SACD, à savoir le domaine public payant, qui consisterait instaurer une sorte de taxe sur l’usage commercial du domaine public pour financer la restauration et la numérisation des collections. Une telle mesure serait en réalité catastrophique, car elle reviendrait à une négation pure et simple du domaine public.

Une occasion à saisir en France 

Les informations rapportées par EBLIDA indiquent que les choses risquent de se jouer en deux temps, d’abord au niveau européen pour que cette possibilité soit inscrite dans la directive, mais aussi au niveau français : "Un lobbying intense s’impose donc au niveau national pour que l’État utilise ce droit pour financer aussi des projets de numérisation de collections de bibliothèques."

Or on nous annonce pour l’année prochaine l’introduction de lois sur la création et sur le patrimoine, qui constituent deux occasions en or d’entériner cette possibilité de recours aux irrépartissables pour qu’elle devienne une réalité en France. Une loi a récemment été déposée par la députée Isabelle Attard "visant à consacrer le domaine public, à élargir son périmètre et à garantir son intégrité". Elle pourrait être complétée par un volet financier reprenant cette proposition.

En tous cas, cette idée constitue une chance inespérée d’accélérer la numérisation du domaine public, tout en évitant que de nouvelles couches de droits soient recréées à cette occasion. Il s’agira de ne surtout pas laisser passer cette occasion.


Classé dans:Bibliothèques, musées et autres établissemerents culturels, Domaine public, patrimoine commun Tagged: Bibliothèques, BnF, Domaine public, gestion collective, Numérisation, partenariats public-privé, SACD, sacem

Deux enjeux stratégiques dans la nouvelle version 4.0 des Creative Commons : Open Data et clause Non-Commerciale

samedi 30 novembre 2013 à 16:49

Cette semaine, après un processus d’élaboration de plus de deux ans, Creative Commons International a annoncé la publication de la nouvelle version 4.0 de ses licences. Framablog a déjà traduit en français un article d’une des responsables de l’organisation, Diane Peter, qui explique les principales modifications par rapport à la version 3.0 remontant à 2007. Creative Commons a travaillé par exemple pour simplifier le texte des licences afin de les rendre plus compréhensibles ; les licences auront également un effet plus global, car elles n’auront plus désormais à être transposées pays par pays et des clarifications intéressantes ont été apportées, notamment en ce qui concerne l’attribution des auteurs et l’adaptation des oeuvres.

Creative Commons. Par Skley. CC-BY-ND. Source : Flickr.

Mais je voudrais dans ce billet m’attarder sur ce qui constitue à mon sens les deux points les plus importants à souligner dans cette nouvelle version des Creative Commons. Le premier est qu’à présent, les licences prennent en compte le droit des bases de données, ce qui les rend applicables dans le cadre de projets d’Open Data, alors que c’était difficilement le cas auparavant. Par ailleurs, la clause NC, qui permet aux auteurs de réserver les usages non-commerciaux d’une oeuvre, a été maintenue, alors qu’un débat assez vif avait agité la communauté pour savoir s’il fallait ou non la supprimer. J’étais d’ailleurs moi-même intervenu dans cette discussion côté français, pour me prononcer en faveur du maintien. Cette clause a finalement été conservée, mais sans modification, ce qui n’est sans doute pas complètement satisfaisant.

Des licences Creative Commons applicables dans le cadre de l’Open Data

Jusqu’à présent, les licences Creative Commons n’étaient pas véritablement applicables aux bases de données, du moins de ce côté-ci de l’Atlantique. En effet le droit spécifique reconnu aux producteurs de bases de données est une particularité européenne, découlant d’une directive européenne de 1996. Il n’existe pas comme tel aux États-Unis par exemple, qui considèrent plutôt les bases de données comme des compilations et les protègent par le copyright uniquement lorsqu’elles sont originales.

La démarche d’ouverture des données, qui caractérise l’Open Data, implique que les producteurs de bases expriment leur intention de permettre la réutilisation par le biais d’une licence. Dans certains pays, comme l’Australie ou la Nouvelle Zélande par exemple, le choix a été fait d’utiliser les Creative Commons au niveau des portails gouvernementaux de diffusion des données publiques.

Comme les Creative Commons ne prenaient pas en compte le droit des bases de données, la démarche a été différente dans plusieurs pays d’Europe, comme l’Angleterre, qui la première a créé une Open Government Licence spécialement pour l’ouverture des données publiques. La France a fait de même de son côté avec la Licence Ouverte/Open Licence, mise en place par Etalab qui est l’équivalent d’une licence CC-BY, mais adaptée au cadre législatif français de la réutilisation des données publiques.

Les projets communautaires ont eux-aussi parfois ressenti des difficultés dans l’utilisation des Creative Commons appliqués aux bases de données. C’est notamment ce qui avait motivé le choix de la communauté OpenStreetMap de passer en 2012 d’une licence CC-BY-SA à la licence OdbL (Open Database Licence), proposée par l’Open Knowledge Foundation et mieux adaptée aux bases de données. Cette licence, qui présente l’intérêt d’appliquer une clause de partage à l’identique à la réutilisation des données est également employée par un nombre significatif de collectivités territoriales en France, notamment la Ville de Paris qui fut la première à la retenir et qui l’a traduite en français.

Creative Commons avait jusqu’à présent peut-être mal négocié le virage de l’Open Data et cette version 4.0 va permettre à ces licences de jouer un rôle sur ce terrain. Il va être intéressant à présent de voir quel va être l’effet concret de cette modification. Le paysage français, après une certaine incertitude sur les licences qui a duré plusieurs années, s’est peu à peu structuré autour de la Licence Ouverte et de l’ODbL, entre lesquels se répartissent l’essentiel des projets d’ouverture des données. Certains acteurs vont-ils à présent opter pour les Creative Commons pour mettre en oeuvre une politique d’Open Data ?

J’aurais tendance à voir plusieurs avantages aux Creative Commons. Ils sont déjà plus connus et constituent l’un des "standards" du web. Par ailleurs, les CC sont désormais aussi bien applicables à des bases de données qu’à des contenus (oeuvres) et il est intéressant de pouvoir couvrir par une même licence ces deux types d’objets. Par exemple, imaginons un projet de recherche qui veuille ouvrir ses résultats à la réutilisation. Il pourra maintenant utiliser une seule licence Creative Commons, à la fois pour les articles ou les images produits dans le cadre du projet (oeuvres) et pour les données de recherche collectées à cette occasion, alors qu’avant il aurait fallu deux licences différentes, une pour les oeuvres et une autre pour les données.

Un point important cependant sera de comparer les Creative Commons (en particulier la CC-BY-SA) et l’ODbL pour déterminer si l’effet du partage à l’identique est le même ou non dans les deux licences. C’est une question complexe à propos de laquelle j’avoue ne pas m’être fait encore une religion.

Enfin, mais c’est essentiel, toutes les licences Creative Commons ne seront pas utilisables dans le cadre de projets d’Open Data. Les licences comportant une clause NC (Non Commercial) ou ND (Pas de modification) sont incompatibles avec une vraie démarche d’Open Data, si l’on se réfère notamment à l’Open Definition mise en place par l’open Knowledge Foundation.

Esta es la primera camiseta de Creative Commons Colombia. Par Colores Mari. CC-BY. Source : Flickr

Maintien de la clause Non-Commerciale, mais sans modification.

La clause Non-Commerciale, qui permet à un auteur d’autoriser via la licence la réutilisation de ses oeuvres, mais uniquement dans une sphère non-marchande, est depuis longtemps la cause de tensions au sein de la communauté de la Culture Libre. Il est vrai que ce fut un débat fondateur de l’émergence du logiciel libre que de permettre les usages commerciaux et de forger des licences, comme la GNU-GPL qui octroient et garantissent cette liberté aux réutilisateurs. Mais ce fut aussi l’une des spécificités des Creative Commons de proposer à la fois des licences libres (CC-BY, CC-BY-SA) et des licences de libre diffusion plus restrictives (CC-BY-NC, CC-BY-ND, CC-BY-NC-ND et CC-BY-NC-SA) pour fournir davantage d’options aux créateurs.

Or au cours du processus d’élaboration de la nouvelle version 4.0, plusieurs voix se sont élevées pour demander à Creative Commons de supprimer la possibilité de retenir ces options. Ce fut le cas notamment de l’Open Knowledge Foundation, par le biais de l’un de ses co-fondateurs Rufus Pollock, qui avançait l’argument que les licences empêchant la réutilisation commerciale ou la modification ne permettaient pas de constituer des biens communs (position que j’ai eu l’occasion de critiquer du point de vue de la théorie des biens communs elle-même).

Toujours est-il que Creative Commons a essayé de proposer plusieurs aménagements, pour tenir compte de ce point de vue. Notamment, il avait été envisagé de renommer la clause Non-Commercial en "Usage commercial réservé" (Commercial Rights Reserved), car le NC ne signifie pas que l’usage commercial de l’oeuvre est impossible, mais qu’il est soumis à l’autorisation préalable de l’auteur. Néanmoins cette option n’a finalement pas été retenue. Des améliorations ont cependant été apportées pour que les auteurs visualisent plus clairement la différence entre les licences "libres" et celles qui ne le sont pas parmi les CC.

Au final donc, la clause NC a été reconduite à l’identique et personnellement, je pense que c’est une bonne décision. Je n’ai jamais défendu l’idée que toutes les oeuvres devaient être placées sous NC, mais dans ma réflexion concernant les modèles économiques, j’ai souvent constaté que la clause NC pouvait être utile à certains créateurs pour tirer revenu de leurs oeuvres , tout en permettant leur réutilisation dans un certain périmètre. Je suis pour que les licences Creative Commons offrent un maximum d’options aux auteurs afin que chacun puisse développer une stratégie adaptée à sa pratique et à son but.

Si je me réjouis donc de la décision de Creative Commons de maintenir le NC, je déplore cependant qu’il ait été maintenu à l’identique. La clause est en effet rédigée ainsi :

L’Acceptant ne peut exercer aucun des droits qui lui ont été accordés à l’article 3 d’une manière telle qu’il aurait l’intention première ou l’objectif d’obtenir un avantage commercial ou une compensation financière privée.

Beaucoup critiquent cette formulation en disant qu’elle est trop complexe et trop vague. Personnellement, je n’ai jamais été d’accord avec ce jugement. La clause telle qu’elle est rédigée me paraît relativement claire, mais elle possède surtout une portée très large, puisqu’elle inclut dans la "commercialité" le simple fait "d’obtenir un avantage commercial", au-delà du fait de recevoir une rémunération sous forme financière.

Plusieurs propositions intéressantes ont été faites au cours du processus d’élaboration des 4.0 pour reformuler cette clause. Certains par exemple avait proposé de mieux délimiter sa portée pour en exclure certains usages (exemples : les usages pédagogiques payants ou la rémunération par la publicité). Mais ces discussions n’ont pas pu aboutir, en grande partie à cause de la crispation engendrée par le demande de suppression de la clause émise par une partie de la communauté.

Nous sommes pourtant plusieurs à penser qu’il faut à présent se tourner vers une approche plus fine des usages commerciaux et cesser de tout mettre dans un même panier. Silvère Mercier a écrit notamment un billet important intitulé "Pour une approche complexe des usages marchands des biens communs de la connaissance" qui détaille bien cet enjeu d’une meilleure appréhension de ce qui doit être considéré comme commercial ou non. Un angle d’attaque particulièrement intéressant est celui de la "lucrativité limitée" que l’on voit se développer dans le secteur de l’Economie Sociales et Solidaire (ESS) par exemple, qui prouve que tous les acteurs commerciaux ne sont pas assimilables. Peut-être faudra-t-il pour prendre en compte cette complexité se tourner vers d’autres instruments juridiques, comme la Peer Production Licence, dont j’avais parlé l’année dernière.

Mieux cerner la distinction entre le commercial et le non-commercial constitue aussi un enjeu majeur si l’on veut arriver à une légalisation du partage des oeuvres en ligne, car les principales propositions qui sont faites en ce sens reposent sur l’idée d’une légalisation des échanges dans une sphère non-marchande seulement, ce qui suppose qu’on soit à même d’en donner une définition. Et cette question concerne à présent aussi Creative Comons directement, puisque l’organisation s’est récemment prononcée en faveur d’une réforme globale du droit d’auteur.


Classé dans:Alternatives : Copyleft et Culture Libre, Données publiques et Open Data Tagged: Creative Commons, données publiques, licences, licences libres, modèles économiques, non commercial, open data, partage