PROJET AUTOBLOG


Framablog

Site original : Framablog

⇐ retour index

Rassembler les gens (Libres conseils 35/42)

lundi 18 mars 2013 à 15:32

Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.

Traduction Framalang : Ouve, merlin8282, Julius22, Sphinx, CoudCoud, lum’, goofy, peupleLà, Alpha, Peekmoaudionuma, lamessen

Rassembler les gens

Dave Neary

Dave Neary travaille sur des projets libres et open source depuis qu’il a découvert Linux en 1996. C’est un contributeur de longue date à GNOME et à GIMP. Il travaille à plein temps depuis 2007 pour aider des entreprises à se réconcilier avec les logiciels développés de façon communautaire. Durant cette période, il a travaillé sur divers projets dont OpenWengo, Maemo et Meego, qui étaient liés à de l’événementiel, à des méthodes de travail communautaires, à de la gestion de produits ainsi qu’à de la gestion d’outils d’analyse d’une communauté. Il s’est impliqué, en tant que bénévole, dans l’organisation du GUADEC, du Desktop Summit, du Libre Graphics Meeting, de la GIMP Conference, d’Ignite Lyon, de l’Open World Forum et de la MeeGo Conference.

L’une des choses les plus importantes que vous puissiez faire dans un projet lié au logiciel libre, à part écrire du code, c’est de rassembler les principaux contributeurs aussi souvent que possible. J’ai eu la chance de pouvoir organiser un certain nombre d’événements au cours de ces dix dernières années, mais aussi d’observer les autres et d’apprendre à leur contact pendant ce temps. Voici quelques-unes des leçons que j’ai apprises au cours du temps, grâce à cette expérience.

1. Le lieu

Le point de départ pour la plupart des réunions ou des conférences, c’est le lieu. Si vous réunissez un petit groupe (moins de dix personnes), il suffit bien souvent de choisir une ville et de demander à un ami qui possède une entreprise ou qui est professeur d’université de vous réserver une salle. Vous aurez sans doute besoin d’une organisation plus formelle dès qu’il y aura plus de monde à accueillir.

Si vous ne faites pas attention, le lieu de l’événement sera une grande source de dépenses et il vous faudra trouver l’argent correspondant quelque part. Mais si vous êtes futé, vous pouvez vous débrouiller pour obtenir assez facilement une salle gratuitement.

Voici quelques-unes des stratégies qu’il serait intéressant d’essayer :

2. Le budget

Les conférences coûtent de l’argent. Ce qui peut coûter le plus cher pour une petite rencontre, ce sont les frais de déplacement des participants. Pour une conférence plus importante, les principaux coûts seront l’équipement, le personnel et la salle. Chaque fois que j’ai dû réunir un budget pour une conférence, mon approche globale a été simple :

Lever des fonds est une chose difficile. On peut vraiment y passer tout son temps. Au bout du compte, il y a une conférence à préparer, et le montant du budget n’est pas la préoccupation principale de vos participants.

Rappelez-vous que votre objectif principal est de réunir les participants du projet afin de le faire avancer. Alors, obtenir des réponses de participants potentiels, organiser le logement, la salle, les discours, la nourriture et la boisson, les activités sociales et tous les autres aspects de ce à quoi les gens s’attendent lors d’un événement… tout cela est plus important que la levée de fonds.

Bien sûr, de l’argent est nécessaire pour être capable d’organiser tout le reste. Alors, trouver des sponsors, décider de leurs niveaux de participation et vendre la conférence est un mal nécessaire. Mais une fois que vous avez atteint le montant nécessaire pour la conférence, vous avez vraiment mieux à faire.

Il existe quelques sources potentielles de financement pour préparer une conférence — combiner ces sources semble, selon moi, la meilleure des façons pour augmenter vos recettes.

3. Contenu

Le contenu d’une conférence est son élément le plus important. Des événements différents peuvent traiter différemment d’un même contenu — certains événements invitent une grande partie de leurs intervenants, tandis que d’autres comme GUADEC et OSCON font des appels à propositions et choisissent les interventions qui rempliront les salles.

La stratégie que vous choisirez dépendra beaucoup de la nature de l’événement. Si l’événement existe depuis une dizaine d’années, avec un nombre de participants toujours croissant, faire un appel à articles est une bonne idée. Si vous êtes dans votre première année, et si les personnes ne savent vraiment pas quoi faire de l’événement, alors donnez le ton en invitant de nombreux orateurs, aidant ainsi les gens à comprendre votre objectif.

Pour Ignite Lyon l’an dernier, j’ai invité environ 40 % des orateurs pour le premier soir (et j’ai souvent dû les harceler pour qu’ils me proposent une intervention). Les 60 % restants sont venus via un formulaire de candidature. Pour le premier Libre Graphics Meeting, en dehors des présentations éclairs, je pense avoir d’abord contacté chaque orateur, à l’exception de deux d’entre eux. Maintenant que l’événement en est à sa 6e année, il existe un processus d’appel à contributions qui fonctionne plutôt bien.

4. Le programme

Il est difficile d’éviter de mettre en parallèle des exposés attrayants pour les mêmes personnes. Dans chaque conférence, vous pouvez entendre des personnes qui voulaient assister à des conférences se déroulant en même temps, sur des sujets similaires.

Ma solution pour la programmation des conférences est très simple, mais elle fonctionne dans mon cas. Des post-it de couleur, avec une couleur différente pour chaque thème, et une grille vide. Le tour est joué. Écrivez les titres des exposés (un par post-it), ajoutez les quelques contraintes que vous avez pour l’orateur, puis remplissez la grille.

Mettre le programme en-dehors de l’ordinateur, et dans des objets réels, permet de voir très facilement les conflits, d’échanger les conférences aussi souvent que vous voulez, et de le publier ensuite sur une page Web quand vous en êtes satisfait.

J’ai utilisé cette technique avec succès pour GUADEC 2006 et Ross Burton l’a réutilisée avec succès en 2007

.

5. Les fêtes

Les fêtes sont un compromis à trouver. Vous voulez que tout le monde s’amuse, et s’éclater jusqu’au petit matin est une partie très importante quand on participe à une conférence. Mais la fréquentation matinale souffre après une fête. Ayez pitié du pauvre membre de la communauté devant se tirer hors du lit après trois heures de sommeil pour aller parler devant quatre personnes à 9 heures du matin après la fête.

Certaines conférences ont trop de fêtes. C’est super d’avoir la possibilité de se saouler avec des amis chaque nuit. Mais ça n’est pas génial de vraiment le faire chaque nuit. Rappelez-vous du but de la conférence : vous voulez stimuler l’avancement de votre projet.

Je préconise une grande fête, et une plus petite, au cours de la semaine. En-dehors de ça, les personnes seront tout de même ensemble et passeront de bons moments, mais ce sera à leurs frais, ce qui fait que chacun restera raisonnable.

Avec un peu d’imagination, vous pouvez organiser des événements qui n’impliquent pas l’utilisation de musique forte et d’alcool. D’autres genres d’événements sociaux peuvent faire l’affaire, et même être plus amusants.

Au GUADEC, nous organisons un tournoi de football depuis quelques années. Lors du sommet OpenWengo en 2007, nous avions embarqué les personnes pour une balade en bateau sur la Seine puis nous étions ensuite montés sur un manège du XIXe siècle. Faire manger les gens ensemble est un autre moyen de nouer des liens. J’ai de très agréables souvenirs de repas de groupe lors de nombreuses conférences. À la conférence annuelle de KDE, l’Akademy, il y a traditionnellement une grande journée de sortie durant laquelle les personnes vont ensemble à un pique-nique, quelques activités simples de plein air, une promenade en bateau, un peu de tourisme ou quelque chose de similaire.

6. Les coûts supplémentaires

Attention à ces dépenses imprévues ! Une conférence dans laquelle j’étais impliqué, et où le lieu de réunion était « sponsorisé à 100 % » nous a laissé une note de 20 000 euros pour les coûts de main-d’œuvre et d’équipement. Oui, le lieu était sponsorisé, mais la mise en place des tables et des chaises, ainsi que la location des écrans, des vidéoprojecteurs et de tout le reste ne l’était pas. Au bout du compte, j’ai estimé que nous avions utilisé seulement 60 % de l’équipement que nous avions payé.

Tout ce qui est fourni sur place est extrêmement coûteux. Une pause-café peut coûter jusqu’à 8 euros par personne pour un café et quelques biscuits, de l’eau en bouteille pour les conférenciers coûte quatre euros par bouteille, etc. La location d’un rétroprojecteur et de micros pour une salle peut coûter 300 euros ou plus pour une journée, selon que le propriétaire exige ou non que l’équipement audio-vidéo soit manipulé par son propre technicien.

Quand vous traitez avec un lieu commercial, soyez clair dès le départ sur ce pour quoi vous payez.

Les détails sur place

J’aime les conférences attentives aux petits détails. En tant qu’orateur, j’aime quand quelqu’un me contacte avant la conférence pour m’avertir qu’il me présentera. Que souhaiterais-je qu’il dise ? C’est rassurant de savoir que, quand j’arriverai, il y aura un micro sans fil et quelqu’un qui peut aider à l’ajuster.

Faire attention à tous ces détails nécessite de nombreux volontaires, et ça nécessite quelqu’un pour les organiser avant et pendant l’événement. Il faut passer beaucoup de temps à parler à l’équipe sur place, plus particulièrement aux techniciens audio/vidéo.

Lors d’une conférence, le technicien audio-vidéo avait prévu de basculer manuellement l’affichage vers un économiseur d’écran à la fin d’une conférence. Au cours d’une session de mini-conférences, nous nous sommes retrouvés dans une situation burlesque quand, après le premier conférencier, j’ai interverti l’ordre de passage : au moment où la présentation suivante s’affichait sur mon portable, nous avions toujours l’économiseur sur le grand écran. Personne n’avait parlé avec le technicien de la régie pour lui expliquer le format de la présentation ! Et c’est comme ça qu’on a fini par avoir pas moins de quatre spécialistes de Linux à s’occuper de l’ordinateur portable qui vérifiaient les connexions en psalmodiant divers mantras Xrandr, qui s’efforçaient de remettre en marche le rétroprojecteur au-dessus de nos têtes ! Nous avons fini par changer d’ordinateur portable, le technicien de la régie a compris de quel type de session il s’agissait, et ensuite tout s’est fort bien passé — la plupart des gens concernés ont accusé mon portable.

Gérer une conférence, ou parfois une plus petite rencontre, prend du temps, et nécessite beaucoup d’attention aux détails, qui pour la plupart ne seront jamais remarqués par les participants. Et je n’ai même pas évoqué des choses comme les banderoles et les affiches, la création du graphisme, la gestion de la presse ou d’autres joyeusetés qui vont de pair avec l’organisation d’une conférence.

Le résultat final est en revanche particulièrement gratifiant. Une étude que j’ai menée l’année dernière sur le projet GNOME a montré qu’il y a eu une forte augmentation de la productivité sur tout le projet juste après notre conférence annuelle et un grand nombre de membres de notre communauté mentionnent la conférence comme ayant été, pour eux, le point culminant de l’année.

Internet est (devenu) un État policier

lundi 18 mars 2013 à 11:38

Un article qui ne nous apprend à priori rien de nouveau mais dont les exemples et les arguments enchaînés aboutissent à quelque chose d’absolument terrifiant.

Ce n’est pas un cauchemar c’est la réalité. Une réalité, née d’un accord tacite entre le public (les États) et le privé (les multinationales), qui s’est mise en place sans véritablement rencontrer consciences ni oppositions.

Raison de plus pour soutenir tous ceux qui voient le monde autrement et participer à faire en sorte que nous soyons de plus en plus nombreux à réclamer une éthique et faire vivre le bien commun…


Mixer - CC by-sa


Internet est un État policier

The Internet is a surveillance state

Bruce Schneier - 16 mars 2013 - CNN Opinion
(Traduction : Antoine, Neros, Sky, guillaume, audionuma, Asta + anonymes)

Note de la rédaction : Bruce Schneier est un expert en sécurité et l’auteur de Liars and Outliers: Enabling the Trust Society Needs to Survive (NdT : Menteurs et Atypiques : mettre en œuvre la confiance dont la société à besoin pour survivre).

Je vais commencer par trois points factuels.

Un : certains des hackers militaires chinois qui ont été récemment impliqués dans une attaque d’envergure contre le gouvernement et des entreprises des États-Unis ont été identifiés car ils accédaient à leur compte Facebook depuis la même infrastructure réseau qu’ils utilisaient pour leurs attaques.

Deux : Hector Monsegur, un des dirigeants du mouvent hacker LulzSec, a été identifié et arrêté par le FBI l’année dernière. Bien qu’il prenait de fortes mesures de sécurité informatique et un relais anonyme pour protéger son identité, il s’est quand même fait prendre.

Et trois : Paula Broadwell, qui avait une relation extra-conjugale avec David Petraeus, le directeur de la CIA, a également pris de nombreuses mesures pour masquer son identité. Elle ne se connectait jamais à son service de courriel anonyme depuis le réseau de son domicile. À la place, elle utilisait les réseaux publics des hôtels lorsqu’elle lui envoyait un courriel. Le FBI a effectué une corrélation entre les données d’enregistrement de différents hôtels pour y trouver que son nom était le point commun.

Internet est en état de surveillance. Internet est un état de surveillance. Que nous l’admettions ou non, et que cela nous plaise ou non, nous sommes traqués en permanence. Google nous trace, tant sur ses propres pages que sur celles auxquelles il a accès. Facebook fait de même, en traçant même les utilisateurs non inscrits chez lui. Apple nous trace sur nos iPhones et iPads. Un journaliste a utilisé un outil appelé Collusion (NdT : de Mozilla) pour déterminer qui le traçait : 105 entreprises ont tracé son usage internet sur une seule période de 36 heures !

De plus en plus, nos activités sur Internet sont croisées avec d’autres données nous concernant. La découverte de l’identité de Broadwell a nécessité de croiser son activité sur internet avec ses séjours dans des hôtels. Tout ce que nous faisons aujourd’hui implique l’usage d’un ordinateur, et les ordinateurs ont comme effet secondaire de produire naturellement des données. Tout est enregistré et croisé, et de nombreuses entreprises de big data font des affaires en reconstituant les profils de notre vie privée à partir de sources variées.

Facebook, par exemple, met en corrélation votre comportement en ligne avec vos habitudes d’achat hors-ligne. Et, plus encore, Il y a les données de localisation de votre téléphone portable, les enregistrements de vos mouvements par les caméras de surveillance…

C’est de la surveillance omniprésente : nous sommes tous surveillés, tout le temps, et ces données sont enregistrées de façon permanente. C’est ce à quoi un état de surveillance ressemble, et c’est plus efficace que dans les rêves les plus fous de George Orwell.

Bien sûr, nous pouvons agir pour nous y prémunir. Nous pouvons limiter ce que nous cherchons sur Google depuis nos iPhones, et utiliser à la place les navigateurs Web de nos ordinateurs, qui nous permettent de supprimer les cookies. Nous pouvons utiliser un alias sur Facebook. Nous pouvons éteindre nos téléphones portables et payer en liquide. Mais plus le temps passe et moins de gens s’en soucient.

Il y a simplement trop de façons d’être pisté. L’Internet, les courriels, les téléphones portables, les navigateurs Web, les sites de réseaux sociaux, les moteurs de recherche : ils sont devenus nécessaires, et il est fantaisiste d’attendre des gens qu’ils refusent simplement de s’en servir juste parce qu’ils n’aiment pas être espionnés, d’autant plus que l’ampleur d’un tel espionnage nous est délibérément cachée et qu’il y a peu d’alternatives commercialisées par des sociétés qui n’espionnent pas.

C’est quelque chose que le libre marché ne peut pas réparer. Nous, les consommateurs, n’avons pas de choix en la matière. Toutes les grandes sociétés qui nous fournissent des services Internet ont intérêt à nous pister. Visitez un site Web et il saura certainement qui vous êtes; il y a beaucoup de façons de vous pister sans cookie. Les compagnies de téléphones défont de façon routinière la protection de la vie privée sur le Web. Une expérience à Carnegie Mellon a pris des vidéos en temps réél d’étudiants sur le campus et a permis d’identifier un tiers d’entre eux en comparant leurs photos avec leurs photos publiques taguées sur Facebook.

Garder sa vie privée sur Internet est désormais presque impossible. Si vous oubliez ne serait-ce qu’une fois d’activer vos protections, ou si vous cliquez sur le mauvais lien, vous attachez votre nom de façon permanente à quelque service anonyme que vous utilisez. Monsegur a dérapé une fois, et le FBI l’a choppé. Si même le directeur de la CIA ne peut garder sa vie privée sur Internet, nous n’avons aucun espoir.

Dans le monde d’aujourd’hui, les gouvernements et les multinationales travaillent de concert pour garder les choses telles qu’elles sont. Les gouvernements sont bien contents d’utiliser les données que les entreprises collectent — en demandant occasionnellement d’en collecter plus et de les garder plus longtemps — pour nous espionner. Et les entreprises sont heureuses d’acheter des données auprès des gouvernements. Ensemble, les puissants espionnent les faibles, et ils ne sont pas prêts de quitter leurs positions de pouvoir, en dépit de ce que les gens souhaitent.

Résoudre ces questions nécessite une forte volonté gouvernementale, mais ils sont aussi assoiffés de données que les entreprises. Mis à part quelques amendes au montant risible, personne n’agit réellement pour des meilleures lois de protection de la vie privée.

Alors c’est ainsi. Bienvenue dans un monde où Google sait exactement quelle sorte de pornographie vous aimez, où Google en sait plus sur vos centres d’intérêt que votre propre épouse. Bienvenue dans un monde où votre compagnie de téléphone portable sait exactement où vous êtes, tout le temps. Bienvenue à l’ère de la fin des conversations privées, puisque vos conversations se font de plus en plus par courriel, SMS ou sites de réseaux sociaux.

Bienvenue dans un monde où tout ce que vous faites sur un ordinateur est enregistré, corrélé, étudié, passé au crible de société en société sans que vous le sachiez ou ayez consenti, où le gouvernement y a accès à volonté sans mandat.

Bienvenue dans un Internet sans vie privée, et nous y sommes arrivés avec notre consentement passif sans véritablement livrer une seule bataille…

Crédit photo : Mixer (Creative Commons By-Sa)

Geektionnerd : grand nettoyage de printemps chez Google

vendredi 15 mars 2013 à 13:18

Google spring cleaning

Google spring cleaning 2

Sources :

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)

DRM dans HTML5 : la réponse de Cory Doctorow à Tim Berners-Lee

jeudi 14 mars 2013 à 01:13

Lors du tout récent SXSW, Sir Tim Berners-Lee, répondant à une question, s’est montré favorable à l’introduction de DRM dans le HTML5, c’est-à-dire directement dans le code des pages Web.

Ceci a déçu beaucoup de monde, à commencer par Cory Doctorow qui lui a répondu dans les colonnes du Guardian, traduit ci-dessous pour nos soins.


Etech - CC by


Ce que j’aurais souhaité que Tim Berners-Lee comprenne au sujet des DRM

What I wish Tim Berners-Lee understood about DRM

Cory Doctorow - 12 mars 2013 - The Guardian (Blog Tchnology)
(Traduction Framalang : catalaburro, Alpha, Alpha, lum’, Tito, goofy, peupleLà, lamessen, penguin + anonymes)

Ajouter des DRM au standard HTML aura des répercussions importantes qui seront incompatibles avec les règles fondamentales du W3C.

À la suite de son discours d’introduction au récent SXSW, l’inventeur du Web Tim Berners-Lee a répondu à une question concernant le projet controversé d’ajouter des DRM à la prochaine version du HTML. Le standard HTML5, qui est en ce moment en débat au W3C (World Wide Web Consortium), est le dernier en date des champs de bataille dans la longue guerre pour la conception des ordinateurs personnels. Berners-Lee a soutenu ce projet en prétendant que, sans les DRM, une part croissante du Web serait verrouillée dans des formats comme le Flash, impossibles à lier et à soumettre à la recherche.

Certains membres de l’industrie du divertissement ont longtemps entretenu le doux rêve d’ ordinateurs conçus pour désobéir à leurs propriétaires, dans une stratégie globale de maximisation des profits qui s’appuie sur la possibilité de vous faire payer pièce après pièce pour avoir le droit d’utiliser les fichiers stockés sur vos disques durs.

Il est notoire que l’industrie a réussi à convaincre les fabricants de lecteurs de DVD d’ajouter une limitation au lecteur pour vous empêcher de lire un DVD sur un continent si vous l’avez acheté dans un autre. Pour que cela fonctionne, les lecteurs de DVD ont dû être conçus pour cacher les programmes qui les faisaient tourner. Ainsi les propriétaires de lecteurs de DVD ne pouvaient tout simplement pas arrêter la fonction de « vérification de zone ». Les lecteurs devaient aussi être conçus pour cacher des fichiers à leurs propriétaires, de telle manière que les utilisateurs ne puissent pas trouver le fichier contenant la clé de déchiffrement afin de l’utiliser pour déverrouiller le DVD sur d’autres lecteurs, ceux qui ne vérifieraient pas la compatibilité de zone du DVD.

Deux questions importantes découlent de cet exemple historique. Tout d’abord, cela a-t-il fonctionné ? et deuxièmement, pourquoi diable les fabricants ont ils été d’accord avec ces limitations ? Ces deux questions sont importantes à poser ici.

Est-ce que le zonage géographique a fonctionné ? Pas du tout. Après tout, cacher des fichiers et des processus dans l’ordinateur que le « méchant » peut tout à fait embarquer avec lui dans un labo ou au bureau est complètement vain. Si Berners-Lee pense qu’ajouter des secrets aux navigateurs web auxquels les possesseurs d’ordinateurs ne pourront accéder permettra d’une quelconque manière de créer les marchés dont l’industrie du divertissement a soi-disant besoin pour créer de nouveaux modèles économiques, il se trompe.

Plus important encore : pourquoi les fabricants sont-ils d’accord pour ajouter des restrictions à leurs matériels ? Le zonage est le contraire d’une fonctionnalité, un « produit » qui n’a pas pour but d’être vendu. Vous ne pouvez pas vendre plus de lecteurs DVD en ajoutant un autocollant qui dit : « Nouvelle version, avec des restrictions par zones géographiques ! »

Les pièges du brevet

En clair, c’est l’industrie qui a établi un besoin légal pour l’établissement des DRM sur les lecteurs DVD. Lorsque les organismes à l’origine des DRM se rassemblent, ils cherchent à identifier un « lien de propriété intellectuelle », bien souvent un brevet. Si un brevet entre en jeu lors du décodage d’un format de fichier, alors le brevet peut être lié à l’application des termes de la licence, ce qui peut être utilisé pour contraindre les fabricants.

En d’autres termes, si un brevet (ou des brevets) peut être inclus dans le système de décodage des DVD, il est possible de menacer les fabricants d’un procès pour violation de brevet,à moins qu’ils n’achètent une licence d’utilisation. Les licences de brevet sont gérées par la Licensing Authority (LA) (NdT : Consortium regroupant les détenteurs de brevets sur la technologie en question, ici la MPEG-LA) qui crée des normes de contrat de licence. Ces termes incluent toujours une liste de fonctionnalités que les fabricants ne doivent pas implémenter (par exemple il ne leur est pas possible d’ajouter une fonctionnalité « sauvegarder sur un disque dur » à un lecteur DVD); et une liste de fonctionnalités négatives que les fabricants doivent implémenter (par exemple l’ajout obligatoire d’une fonction : « vérifier la zone » au lecteur).

Par ailleurs, tous les accords de licence de DRM s’accompagnent d’un ensemble de règles de « robustesse » qui incite les fabricants à concevoir leur produit de façon à ce que leur propriétaire ne puisse ni voir ce que font ces DRM ni les modifier. Cela a pour but d’empêcher que le possesseur d’un dispositif n’en reconfigure les propriétés pour faire des choses interdites (« sauvegarder sur le disque ») ou pour ignorer des choses obligatoires (« vérifier la région »).

Ajouter les DRM au standard HTML aura des répercussions étendues qui sont incompatibles avec les règles les plus importantes du W3C et avec les principes qui tiennent particulièrement à cœur à Berners-Lee.

Par exemple, le W3C a fait avancer les organismes de normalisation en insistant sur le fait que les standards ne devaient pas être gênés par les brevets. Lorsque des membres du W3C détiennent des brevets sur une partie d’un standard, ils doivent promettre à tous les utilisateurs de fournir une licence qui ne possède pas de conditions trop contraignantes. Cependant, les DRM nécessitent des brevets ou des éléments sous licence dont le seul objectif est d’ajouter des conditions contraignantes aux navigateurs.

La première de ces conditions – la « robustesse » contre les modifications de l’utilisateur final – est une exclusion totale de tous les logiciels libres (ces logiciels qui, par définition, peuvent être modifiés par leurs utilisateurs). Cela signifie que les deux technologies de navigateurs web les plus populaires, WebKit (utilisé avec Chrome et Safari) et Gecko (utilisé avec Firefox et ses navigateurs apparentés), pourraient légalement se voir interdire d’être intégré dans l’une de ces « normes » qui sortiraient du W3C.

Copie moi si tu peux

Plus encore, les DRM sont parfaitement inefficaces pour empêcher la copie. Je suspecte Berners-Lee d’en être parfaitement conscient. Quand les geeks minimisent les craintes autour des DRM, ils disent souvent des choses telles que : « He bien, je peux les contourner et de toute façon ils reviendront à la raison tôt ou tard vu que cela ne fonctionne pas, non ? ». Chaque fois que Berners-Lee raconte l’histoire des débuts du Web, il insiste sur le fait qu’il a pu inventer le Web sans demander la moindre permission. Il utilise cela comme une parabole pour expliquer l’importance d’un Internet ouvert et neutre. Mais il échoue à comprendre que la raison d’être des DRM est d’obliger à demander une permission pour innover.

Car limiter la copie n’est qu’une raison superficielle à l’ajout de DRM à une technologie. Les DRM échouent complètement lorsqu’il s’agit d’empêcher la copie, mais sont remarquablement efficaces pour éviter toute innovation. En effet les DRM sont couverts par les lois anti-contournement telles que la célèbre DMCA de 1998 (US Digital Millennium Copyright Act) et l’EUCD de 2002 (EU Copyright Directive) ; chacune d’elle fait du contournement de DRM un crime, même si vous n’enfreignez aucune autre loi. Concrètement, cela signifie que vous devez demander la permission à une autorité de licence de DRM pour ajouter ou modifier n’importe quelle fonctionnalité, ce que les termes de la licence vous interdisent de faire.

Comparons les DVD aux CD. Les CD n’avaient pas de DRM, il était donc légal d’inventer des technologies comme l’iPod ou iTunes qui extrayaient, encodaient et copiaient la musique pour un usage privé. Les DVD avaient des DRM, il était donc illégal d’en faire quoi que ce soit de plus et depuis presque 20 ans qu’ils sont apparus, aucune technologie légale n’a vu le jour sur le marché pour faire ce que iTunes et l’iPod font depuis 2001. Une entreprise a essayé de lancer un jukebox primitif à DVD combiné à un disque dur et fut poursuivie pour cette activité commerciale. 20 ans de DVD, zéro innovation. Bon, les DRM n’ont pas empêché les gens de créer des copies illégales de DVD (bien entendu !), mais elles ont complètement empêché l’émergence sur le marché de tout produit légal et innovant, et nous ne sommes pas près d’en voir la fin.

Prêts à vous faire les poches

C’est ce vers quoi le W3C essaie de faire tendre le Web. Et Berners-Lee, avec ses remarques, en prend la responsabilité. Un état où chaque amélioration est vue comme une occasion d’instaurer un péage. Un Web construit sur le modèle économique de l’infection urinaire : plutôt que d’innover dans un flot sain, chaque nouvelle fonctionnalité doit venir d’une petite goutte contractée et douloureuse : quelques centimes si vous voulez la lier à un temps spécifique de la vidéo, encore quelques centimes si vous souhaitez intégrer un lien provenant de la vidéo dans une page web, encore plus si vous souhaitez mettre la vidéo sur un autre appareil ou la décaler dans le temps, et ainsi de suite.

Le W3C étant l’organisme principal qui normalise le Web, son action repose sur une confiance énorme à la fois sacrée et significative. Le futur du Web est le futur du monde, car tout ce que nous faisons aujourd’hui implique le net et ce sera tout aussi nécessaire pour tout ce que nous ferons demain. À présent, il souhaite brader cette confiance, uniquement parce que les principaux fournisseurs de contenu verrouilleront leur « contenu » en utilisant Flash s’ils ne parviennent pas à obtenir de veto sur l’innovation issue du Web. Cette menace n’est pas nouvelle : les grands studios avaient promis de boycotter la télévision numérique américaine si elle ne rendait pas les DRM obligatoires. Les tribunaux américains ont refusé de leur accorder cette aubaine, et pour autant, la télévision numérique continue de fonctionner (si seulement Otcom et la BBC avaient tenu compte de cet exemple avant de vendre la télévision britannique aux studios américains en ce qui concerne nos propres normes de télévision numérique HD).

Flash est déjà hors course. Comme Berners-Lee vous le dira lui-même, la présence de plate-formes ouvertes, où l’innovation n’a pas besoin d’autorisation, est la meilleure façon d’inciter le monde à se connecter à vous. Un Web ouvert crée et distribue tant de valeur que chacun s’est mis à l’utiliser, délaissant ainsi les écosystèmes contrôlés semblables à Flash, entouré d’AOL et autres systèmes défaillants. Les gros studios ont plus besoin du Web que le Web n’a besoin d’eux.

Le W3C a le devoir d’envoyer au diable les colporteurs de DRM, tout comme les tribunaux américains l’ont fait lors de l’affaire de la TV numérique. Il n’y a pas de marché pour les DRM, pas de cause d’utilité publique qui justifie l’octroi d’un droit de veto à d’obscurs géants des médias qui ne voient pas plus loin que le bout de leur nez et qui rêvent d’un monde où chaque fois que vous cliquez, vous passez à la caisse et où la difficulté d’utilisation est quelque chose qui arrivent aux autres et pas à eux.

Crédit photo : Etech (Creative Commons By)

Pourquoi je retourne à Firefox

mercredi 13 mars 2013 à 18:07

Les statistiques font foi, nombreux sont les lecteurs de ce blog à avoir adoré le navigateur Firefox, pour cependant, progressivement, parfois la mort dans l’âme, opter pour le choix pragmatique de Google Chromium, ou pire Google Chrome.

Sauf que depuis Firefox a progressé techniquement et Mozilla s’affirme chaque jour davantage comme une libre boussole du Web, ce que ne sera jamais Google.

Cela vaut le coup de reconsidérer la question, non ?


Keng Susumpow - CC by


Pourquoi je suis (re)passé à Firefox

Why I’m Switching (Back) to Firefox

Cameron Paul - 10 mars 2013 - Blog personnel
(Traduction : Jeff_, biglittledragoon, Agnes, MFolschette, Plop, Tom, Pouhiou, quack1, jtanguy, Rudloff + anonymes)

Dès septembre 2008, j’ai commencé à en avoir assez de Firefox. Il avait été mon navigateur de prédilection pendant des années mais la merveille du monde open source commençait à me décevoir. J’ai utilisé la version bêta de Firefox 3 dès le premier jour où elle a été disponible et je n’ai cessé de la trouver lourde et lente tout au long de mon utilisation. J’ai toujours été un adorateur des conceptions minimalistes et Firefox était en train de rapidement devenir tout sauf minimaliste.

Puis, quelque chose d’inattendu est arrivé. Google a annoncé la sortie de son propre navigateur. J’étais bientôt face à ce qui semblait être à l’époque le logiciel le plus incroyable que j’aie jamais vu. Google Chrome a initié une qualité de navigation formidablement épurée et aboutie soutenue par WebKit. Je pouvais enfin profiter de la vitesse de Safari avec une interface utilisateur bien conçue. Avec le temps, les choses n’ont fait que s’améliorer. Les outils de développement de WebKit sont devenus plus puissants que Firebug et avec la sortie de V8, Google a modifié notre conception des performances de JavaScript.

Cinq ans ont passé et les choses ne sont plus aussi roses. Plus que jamais, j’ai des problèmes de lenteur du navigateur. L’utilisation mémoire dépasse l’entendement et j’ai fréquemment des onglets qui ne répondent plus du tout. De plus, il semble y avoir une lacune générale de contrôle qualité ces derniers jours. Cocher la case « Désactiver le cache » dans les outils développeur semble ne pas avoir d’effet et, occasionnellement, des erreurs JavaScript disparaissent dans la nature au lieu d’apparaître dans la console. Chrome commence à beaucoup ressembler à ce qu’était Firefox en 2008.

Revenons-en maintenant à Firefox. Cela fait cinq années que je n’ai pas utilisé le navigateur de Mozilla pour autre chose qu’une vérification rapide, afin de m’assurer qu’une page web que je construisais avait un rendu correct. Dans ce laps de temps je n’ai pas prêté attention au travail qui avait été effectué. Firefox est devenu rapide. Comparé à Chrome, j’observe des chargements de pages visiblement plus prompts. SpiderMonkey semble avoir rattrapé V8 également. Mes propres tests (non scientifiques) m’ont montré que V8 était toujours légèrement plus rapide mais la différence était trop mince pour être perçue par des humains.

Puis il y a les outils de développement. Les outils de développement de WebKit ont toujours quelques fonctionnalités qui ne sont pas présentes dans Firefox, mais pour 95 % de mon utilisation, les outils de Firefox sont en fait meilleurs. Dans l’inspecteur, un meilleur contraste et une meilleure disposition permettent à l’œil de parcourir ce pavé qu’est le DOM non rendu. Sur la page, les éléments sélectionnés sont surlignés avec des pointillés subtils mais visibles au lieu d’une boîte bleue qui masque la page. Il y a également le mode de sélection au survol qui me permet de me déplacer rapidement à travers les éléments de la page jusqu’à arriver là où je le souhaite. Non seulement les outils de développement de Firefox sont plus agréables mais ils me font également gagner du temps lors de la sélection et la manipulation d’éléments sur la page.

Si l’on met de côté les problèmes techniques, il existe un autre élément qui me trotte dans la tête depuis déjà un petit moment. Je crois sincèrement que Mozilla s’engage sur les questions de liberté et de vie privée sur le Web. Google quant à lui s’engage à faire de l’argent et à savoir tout ce que je fais. Firefox m’accueille avec une page détaillant mes droits en tant qu’utilisateur de logiciel libre. Chrome m’accueille avec… pfffff… Chrome m’accueille avec une putain de publicité pour un Chromebook.

À l’heure où je parle je me sens un peu nostalgique. Le Firefox d’aujourd’hui me rappelle le Firefox tel qu’il était lorsque je l’ai découvert. Une fois de plus, Mozilla a délivré un produit techniquement supérieur tout en respectant totalement mes droits en tant qu’usager. Firefox c’est la liberté.

Crédit photo : Keng Susumpow (Creative Commons By)