PROJET AUTOBLOG


Planet-Libre

source: Planet-Libre

⇐ retour index

Cyrille BORNE : Renommer des photos par lot

mercredi 31 octobre 2012 à 09:39

Bon, voilà l'affaire telle que je l'ai exposée à Claude, sommairement : quand je travaille sur mes photos, j'ai pris la mauvaise habitude de renommer le fichier de façon très/trop explicite. Un exemple :

$ ls /mnt/home_debian/zamasp/Images/photos_travail/tsenga_concert_1
bohouss_abdallah.jpg
chamou_miki_jimmy_balances.jpg
elyasse_bo_abdallah_chamou.jpg
groupe_4.jpg
lili_danseuse_2.jpg
...

Ce qui est pratique pour identifier une photo sur le moment s'avère sacrément pénible quand il s'agit de négocier les images et/ou d'établir une note d'auteur où le détail des photos doit apparaître.

Il est plus efficace d'attribuer un nom générique à toutes les photos d'un lot et de singulariser chacune en les numérotant : concert_tsenga_01.jpg, etc.

Vous avez compris le principe. Bien évidemment, quand on cherche une photo à partir du sujet représenté, d'un thème, d'un lieu, etc., ce n'est pas l'idéal. Mais, pour cela, il y a les IPTC (métadonnées sémantiques).

Par contre, pour le classement et l'identification par lot, une dénomination plus ou moins explicite sur le sujet de chaque photo (bidonville_tananarive…) me semble, d'expérience, plus indiqué.

Bien des logiciels permettent de renommer massivement des fichiers mais, pour le dire franchement, aucun ne me satisfait réellement. Sinon à quoi bon chercher et proposer autre chose. Inutile de faire en détails la critique de toutes les solutions disponibles. Il me suffit de dire que j'avais besoin d'une solution logicielle simple et rapide : 

1°) on renseigne un répertoire contenant les fichiers à renommer ;

2°) on renseigne l'extension des fichiers à prendre en compte ;

3°) on renseigne le nom générique à attribuer au lot de fichiers ;

4°) les fichiers sont renommés et numérotés ;

5°) le script peut-être lancé depuis un raccourci ou un alias.

Simple, rapide, efficace.

Cette solution c'est Claude Bulin qui l'a codée, brillamment ! en Bash et en perl, s'il vous plaît ! Le tout est disponible sous licence GPL (comme de bien entendu) : renparam.

Juste un exemple pour illustrer cette simplicité :

$ ./renparam.sh -p /mnt/home_debian/Images/photos_travail/tsenga_2_2011/photos_6/23_06_tana_ccac/mini/ -f tsenga_repetitions_tana -e jpg

Et voilà l'ensemble des fichiers renommés génériquement en une ligne de commande !

Comme Claude fait toujours très bien les choses, il a dûment documenté ce petit script.

Certains trouveront peut-être cette solution peu conviviale (sans interface graphique, etc.) mais elle est bougrement efficace. Cela dit, toute proposition d'amélioration est bienvenue mais, de grâce ! gardez cette simplicité.

Pour toute remarque, n'hésitez pas à nous contacter.

Gravatar de Cyrille BORNE
Original post of Cyrille BORNE.Votez pour ce billet sur Planet Libre.

Yannig : Thruk une alternative à l'interface Web de Nagios

mercredi 31 octobre 2012 à 08:24

Il était une fois un moteur nagios ...

Si comme moi vous avez été amené a mettre en oeuvre plusieurs nagios, vous avez sûrement dû vous frotter a son interface Web a base de cgi et de fichier plat exporter toutes les 10 secondes.

Ne crachons pas dans la soupe, cette interface reste très bien pour une petite installation.

Malheureusement, avec l'évolution des besoins en supervision, il devient de plus en plus difficile de se contenter de cette interface. En vrac, on va donner les éléments suivants :

Origine de Thruk

Thruk est donc un projet qui a démarré sur ce constat afin d'offrir une alternative sans pour autant dérouté complètement les utilisateurs en reprenant - dans les grandes lignes - l'aspect de l'ancienne interface. En réalité, cette interface apporte des améliorations très intéressantes par rapport à l'ancienne interface avec notamment les points suivants :
  • Possibilité de déporter l'interface de consultation sur un serveur distant ;
  • Possibilité de fédérer plusieurs noeuds nagios dans la même interface ;
  • Compatibilité avec n'importe quel moteur du moment que ce dernier supporte Livestatus (Shinken, Icinga, centreon engine, check_mk).

Quelques pré-requis de fonctionnement

L'installation de Livestatus se fait en rajoutant un broker à votre moteur nagios. Pour plus de détail, vous pouvez vous reporter à l'article suivant : setting up and using Livestatus. A noter que check_mk et Shinken viennent nativement avec ce support.

Autre point, dans le cas d'un accès déporter, il sera peut-être nécessaire de mettre en place un outil vous permettant d'exposer votre socket Unix sur le réseau. La documentation officiel fait appel à l'outil Unixcat (qui vient avec nagios). Pour ma part, j'ai préféré utiliser l'outil socat qui m'a donné des connexions plus stable et plus rapide. Ci-dessous un exemple de commande pour lancer socat :

socat TCP-LISTEN:1958,interface=lo,reuseaddr,keepalive,nodelay,fork,crnl \\
      UNIX-CLIENT:/var/lib/nagios3/rw/live,keepalive

Installation de Thruk

Le gros défaut de Thruk est tout de même la ribambelle de plugin perl CPAN qu'il a comme dépendance. Heureusement, l'auteur du plugin propose un package tout prêt pour la plupart des plateformes disponibles (Debian, RedHat, Ubuntu, etc.). Pour se faire, il faut se rendre sur la page de téléchargement du projet, choisir le package qui vous convient et procéder à l'installation du package.

A noter que le produit a tout de même besoin de quelques dépendances au niveau système (plugin fastcgi pour apache notamment). Il faudra donc bien penser à installer ces dernières sous peine d'avoir des erreurs au moment de l'installation du package.

Une fois l'installation terminée, Thruk va créer un fichier htpasswd avec comme administrateur par défaut thrukadmin (mdp thrukadmin). Dans le cas où vous auriez déjà un fichier de mot de passe, bien penser à modifier le fichier /etc/apache2/conf.d/thruk.conf afin de pointer sur le bon. Bien penser également à modifier le fichier /etc/thruk/cgi.cfg dans ce cas là afin de définir les droits adéquates.

Enfin, il vous faudra  modifier le fichier /etc/thruk/thruk_local.conf afin de pointer sur votre noeud de supervision. Ci-dessous un exemple d'interfaçage avec un moteur Shinken :
######################################
# Backend Configuration, enter your backends here


name = Shinken
type = livestatus

peer = 127.0.0.1:50000



Un petit arrêt/relance du serveur apache et nous devrions être en mesure d'utiliser Thruk.

Tour du propriétaire

Connectez-vous sur l'interface Thruk (http://MONSERVEUR/thruk/). On devrait vous demander un mot de passe (thrukadmin/thrukadmin par défaut).

Au premier lancement, vous devriez avoir à attendre quelques secondes (ce comportement est normal puisque apache va devoir instancier les process fastcgi de Thruk à ce moment là). Ce délais d'attente passé, vous devriez arriver sur l'interface de Thruk. Par la suite, les process étant déjà là, vous n'aurez pas ce temps d'attente.

Comme indiqué un peu plus haut, l'interface est quasi la même que celle des CGIs si on exclue la map graphique (mais elle est avantageusement remplacé par une grille qui est plus fonctionnelle).

Du côté des améliorations, on peut noter les points suivants :
  • Champ de recherche plus efficace (utilisation d'ajax pour vous proposer des solutions lors de le champ de recherche avec proposition de choix de hostgroup, nom des services et bien sûr machine) ;
  • Lors du lancement d'un test, l'interface se bloque tant que le moteur nagios n'a pas récupéré le résultat du test (plus besoin de faire de rafraîchissement) ;
  • Intégration des graphiques de PNP ;
  • Présence de lien permettant des exports au format Excel (je sais, je suis pas forcément fan mais c'est quand même pratique).
Globalement, l'interface est plus jolie, plus réactive et vous avez également d'autres raffinements auxquels je ne pense pas forcément (générateur de rapport, gestion de la conf etc.).

Bref, comme dirait l'autre, l'essayer c'est l'adopter !

Gravatar de Yannig
Original post of Yannig.Votez pour ce billet sur Planet Libre.

Gilir : UDS-R Jour 2

mardi 30 octobre 2012 à 23:12

1. Matinée

Cette 2e matinée a été plus orientée « Desktop ». Cela a commencé par une session sur Upstart et son extension à la session utilisateur. Pour faire simple, il s’agit d’apprendre à Upstart (le gestionnaire de processus d’Ubuntu, remplaçant Init) à faire plein de choses intelligentes, comme démarrer des services seulement quand on en a besoin (bluetooth quand un appareil est connecté, update-manager quand des mises à jour sont disponibles …). L’intérêt est de supprimer les programmes lancés en arrière plan qui effectuent ce monitoring (update-notifier par exemple), qui prennent de la mémoire pour rien. C’est une bonne nouvelle, que je nuancerais par le fait que cette idée est dans l’air depuis au moins 3 ou 4 versions (remplacement de update-notifier), donc à voir … Plus d’infos sur http://summit.ubuntu.com/uds-r/meeting/21391/foundations-r-upstart-user-session-enhancements/

Ensuite, il y a une session sur la connectivité (http://summit.ubuntu.com/uds-r/meeting/21360/desktop-r-connectivity-checking/), avec notamment la gestion des portails captifs (Wifi qui semble non sécurisé, et qui nécessite une authentification sur une page web). On a aussi parler du remplacement de language-selector par l’utilitaire de Gnome pour gérer la prise en charge des langues. Il semble que pour ce cycle, cela va se faire. Heureusement, language-selector ne devrait pas disparaître, car les flavors non-GNOME et non-KDE s’en servent encore pour gérer cette problématique. Plus d’infos sur http://summit.ubuntu.com/uds-r/meeting/21529/desktop-q-deprecate-language-selector/

Après une autre session sur l’utilisation de l’iso-tracker pour faciliter l’organisation des sorties (http://summit.ubuntu.com/uds-r/meeting/21353/foundations-r-release-manifest-streamlining/), ce fut une session sur les plans de Xubuntu pour la version 13.04. Pas de migration prévue sur xfce 4.12 (sauf cas particulier), la gestion de l’affichage devrait toutefois’être améliorée. L’intégration de MenuLibre, pour remplacer Alacarte sera également testé, en collaboration avec l’équipe Lubuntu qui est toujours à la recherche d’un éditeur de menu. Plus d’infos sur http://summit.ubuntu.com/uds-r/meeting/21410/community-r-xubuntu-planning/

2. Plénières

Les plénières du jour étaient consacrées à Ubuntu en entreprises, avec un point sur le déploiement d’Ubuntu dans les entreprises et chez les manufacturiers informatiques, et une démo sur la connexion à distance directement par l’écran d’accueil (lightdm). Le constat est plutôt positif, les constructeurs certifient de plus en plus de machines, et les déploiements en entreprise commencent à être significatifs. Avec l’arrivée de Steam et autres éditeurs de jeux, la présentation laisse penser qu’Ubuntu n’est pas loin d’atteindre la taille critique pour peser sur les constructeurs pour qu’ils rendent leurs matériels compatibles avec Ubuntu. Il faudra voir dans le futur …

La deuxième présentation a été faites par HP, pour présenter leur projet de réduction de la consommation électrique de leurs serveurs.

3. Après-midi

L’après midi a aussi été orienté « Desktop », mais un peu plus polémique. Cela a commencé par la session habituelle sur la version de GNOME qui sera utilisée pour la 13.04. Il a été proposé, non pas de suivre le développement de GNOME, en incluant la dernière version (3.7/3.8), mais de rester sur la version actuelle de la 12.10 (3.6). A part GLib, dconf, et g-i, c’est cette politique de stabilité qui a été choisie. Même Gtk risque ne pas être mis à jour. C’est un changement important par rapport aux autres cycles, car jamais (si ma mémoire est bonne), une telle politique de gel n’a été décidé (hors LTS, et hors les 1e versions de GNOME 3). Cela démontre à mon avis plusieurs éléments :

* La relation Ubuntu – GNOME n’est pas au mieux. La remontée des problèmes ne passe pas bien, car si c’était le cas, les développeurs Ubuntu ne devraient pas avoir peur d’une version de développement.

* Les composants d’Ubuntu sont de moins en moins basés sur GNOME. En effet, l’un des arguments de cette décision est le temps passé à adapter le code spécifique d’Ubuntu aux changements de GNOME. S’il y avait peu de spécifique, le problème se poserait moins.

* Les versions de GNOME ne sont plus aussi fiables que lors de la série 2.X. A l’époque, je me souviens que faire une mise à jour entre 2 versions était très sûr. Tout le planning d’Ubuntu était (et est toujours) basé sur le planning de GNOME pour cette raison : 1 mois de décalage entre la sortie de GNOME et la sortie d’Ubuntu, c’était suffisant pour stabiliser et adapter la version stable de GNOME. Ce n’est clairement plus le cas.

C’est pour moi un changement majeur. A l’origine, le but d’Ubuntu était (grossièrement), de stabiliser une Debian Sid, avec la dernier version GNOME, et les dernières technologies libres. Quand on voit les discussions qu’il y a eu sur le passage à Debian testing (seulement pour les LTS, mais on a failli le faire pour les autres versions), et maintenant la version de GNOME, je ne peux m’empêcher de penser que les temps changent :-) A noter que cette décision a un impact direct sur la nouvelle flavor Ubuntu-Gnome. Je les vois mal utiliser une « vieille » version de GNOME dans leur distribution … Plus d’infos sur http://summit.ubuntu.com/uds-r/meeting/21388/desktop-r-gnome-plans-review/

La session suivante a été dans le même style, mais parlait spécifiquement de Nautilus (le gestionnaire de fichiers). La version 3.6 a été très mal accueillit par les développeurs Ubuntu, et le but de cet session était s’aplanir les problèmes et trouver la meilleur façon de s’en sortir. Pas vraiment de solution au final, même si la version 3.8 pourrait être meilleur. Affaire à suivre. Mais, il semble que les changements d’interface qu’à subit Nautilus (et qui posent problèmes) pourraient aussi arriver sur d’autres composants de GNOME. On a pas fini d’en parler … Plus d’infos sur http://summit.ubuntu.com/uds-r/meeting/21371/desktop-r-default-file-manager/

Enfin, la dernière session était sur la nouvelle façon de tester les ISOs sans passer pas les Alphas. Cela consiste à effectuer les tests toutes les 2 semaines, sur une semaine glissante. Plus d’infos sur http://summit.ubuntu.com/uds-r/meeting/21080/qa-r-testing-cadence/


Tagged: Lubuntu, Packages, planet-libre, planet-ubuntu-fr, Ubuntu

Gravatar de Gilir
Original post of Gilir.Votez pour ce billet sur Planet Libre.

Articles similaires

Ploum : Le flux total

mardi 30 octobre 2012 à 22:53

Malgré sa centralisation, je suis un énorme fan de Google+. Il me permet de m'informer, de confronter mes idées avec le monde, de partager automatiquement mes photos avec mes proches, d'organiser des évènements, de discuter avec mes amis sans remplir la boîte aux lettres de ceux qui ne le souhaitent pas et sans que ceux qui étaient partis en weekend aient à rattraper une myriade de fils de discussion. Il me permet également également de rendre mes réactions publiques sans tomber dans l'infamie suprême, le tristement célèbre « reply all ».

Une jolie chute d'eau, un « stream »

Le mail a ses limites. J'ai moi aussi finalement fait cette expérience qui arrive à tout le monde un jour ou l'autre : à partir d'une certaine quantité, le mail est inefficace. Comme on dit en bon franglais d'ingénieur : « le mail ne scale pas ».

Chaque jour est un véritable combat contre son inbox. Sans parler du lecteur RSS qu'il faut ramener à 0. N'avez-vous jamais entendu un collègue rentrer de vacances et passer les deux jours qui suivent à « répondre à ses mails » ?

Le mail souffre de multiples problèmes conceptuels. Il n'expire pas. Si il est inutile il nécessite une action (effacer). Alors que s'il est important, que vous comptez faire quelque chose avec, il ne faut pas y toucher pour bien le garder dans votre inbox. Joli paradoxe non ?

Quand, comme moi, vous êtes un adepte de la méthode Inbox 0, vous devenez super efficace pour les petits trucs sans importance. Vous répondez immédiatement aux mails les moins urgents. Par contre, tout ce qui prend un peu de temps ou est important est relégué au second plan, dans mon GTG.

C'est pourquoi, subtilement, le monde est en train de passer de l'email et du RSS au concept de flux. Un flux ne s'arrête jamais. Il vous donne autant à lire que vous le souhaitez. Mais si vous ne le lisez pas, les informations se succèdent malgré tout. Un flux n'a pas de limite de contenance.

Twitter est l'archétype du flux : personne ne lit tous les tweets de sa timeline. Vous lisez juste ce que vous avez sous la main quand vous allez au petit coin. Facebook fonctionne sur ce principe. Mais, à mon sens, le plus réussi au niveau fonctionnel reste Google+.

G+ a tout pour être un véritable « lifestream », un flux total : il peut remplacer les RSS de vos sites préférés (comme Linuxfr, Ars Technica ou Ploum.net). Il remplace les services de partage de photo, les services de chat, de vidéoconférence, de calendrier partagé et, ironiquement après l'échec de Google Wave, il peut même remplacer le mail.

Oui, effectivement, on peut rater certaines choses. Mais, avouez-le, c'est déjà le cas de la majorité des inbox mail. Que celui qui n'a jamais sorti l'excuse « Il doit être dans mes spams » me jette le premier tweet.

En ce sens, G+ est la première véritable ébauche de flux total. Ne me parlez pas de Facebook qui mélangent allègrement tout et n'importe quoi avec des messages privés, des messages sur des murs, des messages dans des groupes et des tas d'autres concepts que je n'ai toujours pas compris. Dans G+, tout est un élément du flux et il n'y a qu'un seul flux, c'est aussi simple que cela.

Une solution de flux total devrait cependant posséder une fonction pour « épingler » un message. Une sorte de liste de lecture qui permettrait de marquer un message comme important, que ce soit pour le lire, pour y répondre ou effectuer une action liée. La situation s'inverse donc par rapport au mail : il faut marquer ce qui est important. Une fonction qui fait encore cruellement défaut dans G+ (j'utilise Pocket à cet effet mais les deux s'intègrent très mal).

Mais je vous parle de G+, je m'oublie ! Ne perdons pas de vue qu'il s'agit d'un service propriétaire et fermé. Un service totalement contrôlé par une société unique. Il est bien entendu que le véritable flux total sera libre et décentralisé.

N'est-ce pas ?



Image par Jean Mottershead


Flattr our API Documentation

Gravatar de Ploum
Original post of Ploum.Votez pour ce billet sur Planet Libre.

Framablog : Et si je proposais ma musique gratuitement sur le Web pendant une journée ?

mardi 30 octobre 2012 à 21:12

« J’ai encaissé deux fois plus d’argent en une seule journée que ce que je touche d’habitude en un mois ! »

Andy Othling est musicien. Il est guitariste de tournée pour Future of Forestry et il a enregistré des albums personnels sous le nom Lowercase Noises.

Sa musique est cool et planante :)

Mais ce qui est encore plus cool c’est la très originale et probante expérience qu’il vient de mener sur Internet.

Sous le régime du copyright classique, ses albums sont présents sur le site de vente de musique en ligne Bandcamp (en passant cette plateforme est sans DRM et propose la format FLAC et Ogg Vorbis).

Présents et tous payants, sauf pendant 24h…

C’est le récit de cette folle journée qu’il vous raconte ci-dessous.

Attention, les conclusions pourront fortement heurter la sensibilité de certains hadopistes !

Lowercase Noises - Knate Myers

Que se passe-t-il lorsque votre musique est gratuite pendant une journée ?

What happens when your music is free for a day?

Andy Othling - 23 octobre 2012 - Blog personnel
(Traduction : Cyrille L., ehsavoie, Martin, Gatitac, Yann, ZeHiro, geecko, Naar, Sparty, Gaëtan, e-Jim, Tchevengour)

Il existe un débat houleux pour savoir si donner gratuitement sa musique est une bonne pratique ou non. Certains disent que cela dévalorise votre musique et vous empêche d’être pris au sérieux. D’autres pensent que c’est nécessaire pour attirer l’attention du public sur celle-ci.

Ce billet n’est pas là pour vous faire adhérer à l’une ou l’autre de ces thèses, mais plutôt pour vous présenter les résultats d’une expérience que j’ai menée il y a quelques semaines. J’ai voulu voir ce qu’il se passerait si je mettais toute ma musique à prix libre (avec un minimum de 0 $) sur ma page Bandcamp pendant 24 heures.

Comment je m’y suis pris

Voici comment j’ai travaillé : j’ai programmé l’envoi d’un e-mail à ma liste de diffusion le 4 octobre à 1 heure du matin annonçant à tout le monde que toute ma musique était disponible à prix libre, à partir de 0 $, et leur indiquant de faire passer le message à toutes leurs connaissances.

J’ai aussi programmé des mises à jour de mes statuts Facebook et Twitter pour la même heure, en demandant aux gens de diffuser l’information les prochaines 24 heures. Ensuite, j’ai programmé des tweets toutes les 2 à 4 heures et des mises à jour du statut Facebook toutes les 4 à 6 heures durant les 24 heures de l’opération, afin de leur rappeler l’offre spéciale.

Les résultats

C’était attendu, l’un des résultats est que beaucoup plus de personnes ont eu accès à ma musique. Ils ont tapé 0 $ et ont téléchargé tout ce qu’ils voulaient gratuitement. Mais d’autres choses intéressantes se sont produites.

Sur Bandcamp, le nombre de téléchargements est le facteur principal de la notoriété.

Puisqu’un grand nombre de personnes ont téléchargé ma musique (gratuitement ou non), mes albums furent propulsés en haut de beaucoup de listes du site. L’image ci-dessous montre les albums d’ambiance les plus vendus de ce jour si spécial :

lowercasenoises1.png

Comme vous pouvez le voir, mes six albums sont directement en haut de cette section. Génial ! (Y voir aussi Karl Verdake me réjouis !)

Être en haut de ces listes, c’est plus de nouveaux visiteurs.

Parce que ma musique a atteint les sommets de certaines listes de Bandcamp, elle est devenue plus visible à ceux qui parcouraient ces listes ce jour-là. Ci-dessous, quelques captures d’écran des pages de statistiques de Bandcamp du jour J :

lowercasenoises5.png

lowercasenoises2.png

Plus de 100 personnes sont allées écouter ma musique depuis la page d’accueil de Bandcamp et 50 autres l’ont fait grâce aux listes mentionnées plus haut. Ce sont des personnes qui ne connaissaient pas même l’existence de ma musique.

Les gens se sont vraiment passés le mot.

Je n’ai eu aucune honte a demander aux gens de diffuser autour d’eux que mes morceaux restaient gratuits pendant ces 24 heures. Grâce à cela, quelqu’un a spontanément relayé l’info sur Reddit. Comme vous pouvez le voir ci-dessous, cela m’a apporté encore plus de nouveaux auditeurs :

lowercasenoises3.png

Une fois de plus, 202 nouveaux auditeurs rien qu’en demandant aux gens d’en parler autour d’eux !

Les gens continuaient de payer pour ma musique.

Maintenant, vous vous demandez probablement qu’est-ce que ça a donné en terme de rentabilité. J’avais prévu une chute des revenus, car c’est généralement ce à quoi on s’attend quand on commence à distribuer les choses sans contrepartie. Mais ce qui est en fait arrivé, c’est que, sur les ventes, j’ai encaissé deux fois plus en une seule journée que ce que je touche d’habitude EN UN MOIS. Oui, parfaitement, vous lisez bien. Une journée a davantage rapporté que deux mois en temps normal !

Je ne suis pas vraiment capable d’expliquer cela, mais je pense que ça s’est joué pour beaucoup sur la générosité réciproque. Les gens ont vraiment semblé apprécier que je fasse ce geste et ont répondu en donnant plus qu’ils ne le faisaient auparavant. J’ai ainsi été stupéfait par ceux qui ont décidé de donner davantage pour un album que le prix qu’il leur aurait coûté la veille.

Le plus important : les contacts

Plus d’argent, c’est génial, mais à mon avis ce n’est pas le plus grand succès de cette expérience.

lowercasenoises4.png

Vous pouvez constater qu’en une journée, j’ai ajouté plus de 450 noms à mon carnet d’adresses. Ce sont 450 nouveaux contacts dont je pourrais bénéficier à l’avenir, et 450 personnes de plus qui peuvent à leur tour relayer l’info si jamais je venais à répéter ce genre d’opération. C’est bien plus important à mes yeux que l’argent.

Récapitulatif

Donc, que s’est-t-il passé là?

D’après moi, c’est du gagnant-gagnant. Il n’y a vraiment eu aucun coût pour moi à réaliser cette expérience, les gains se sont avérés énormes et mes auditeurs n’ont pas été abusés. Pour ne rien vous cacher mon taux de téléchargements payants a baissé de 22% à 8%, mais étant donné tout ce qui est arrivé, cela ne me gêne pas le moins du monde.

Alors, que cela signifie-t-il pour vous en tant qu’artiste ? C’est un peu plus dur à dire, étant donné que cela dépend de ce que vous avez mis en place et que la situation de chacun est différente. Mais, cela montre au moins l’importance de l’expérimentation. N’hésitez pas à essayer des choses pour voir à quoi vos fans vont réagir. Vous devez apprendre d’eux comme ils ont appris de vous.

Question : Et vous, avez-vous déjà proposé votre musique gratuitement ou bien à prix libre ? Cela a-t-il fonctionné ?

Crédit photo : Knate Myers

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.