PROJET AUTOBLOG


Framablog

Site original : Framablog

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Les tribulations d'un organisateur de conférences (Libres conseils 36/42)

mercredi 20 mars 2013 à 21:30

Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.

Traduction Framalang : Ouve, Julius22, Sphinx, CoudCoud, grosfar, lum’, goofy, peupleLà, lamessen

Nous ne sommes pas fous… Nous organisons des conférences !

Gareth J. Greenaway

Gareth J. Greenaway s’est impliqué activement dans la communauté du logiciel libre et open source depuis 1997 après avoir découvert Linux. Sa contribution majeure a consisté à regrouper des gens ayant la même opinion pour apprendre et expérimenter de nouveaux éléments de logiciel libre et open source. Cette implication a débuté avec un petit groupe d’utilisateurs de Linux (un « GUL ») et s’est développée avec l’organisation de la « Southern California Linux Expo », aussi connue sous le nom de SCALE. En tant que membre fondateur de cet évènement, Gareth remplit actuellement deux fonctions importantes au sein de l’organisation. La première est la gestion des conférences et la seconde concerne les relations avec la communauté.

J’ai commencé à écrire cette section avec ce que je pensais être les besoins et les étapes pour organiser une conférence sur le libre et l’open source. Cependant, une grande partie de ce que je trouvais à dire avait déjà été abordé par Dave Neary, expert en gestion de communautés. Donc, pour éviter de répéter et de recouper ce que Dave voulait expliquer, j’ai décidé de partager différentes histoires de l’organisation de SCALE et les leçons que j’en ai tiré pendant ces années.

Trop d’énergie !

SCALE a commencé il y a maintenant neuf ans avec des membres de trois groupes locaux d’utilisateurs de Linux, ce n’était à l’origine qu’un modeste évènement régional organisé par l’un de ces groupes. La première expérience fut vraiment enrichissante. Beaucoup de leçons en ont été tirées. On courait un peu partout et l’évènement semblait se dérouler à une vitesse folle. Étant donné qu’aucun de nous n’avait encore organisé d’évènement où il fallait se soucier des risques de surtension ou de consommation électrique, nous n’y avons pas pensé, et, du coup, nous avons dû ré-enclencher les disjoncteurs de la salle plusieurs fois pendant l’évènement.

Ça va marcher… c’est sans fil !

Le deuxième SCALE a pris en compte un grand nombre de leçons apprises l’année précédente mais un nouveau lieu de rencontre allait donner de nouvelles leçons. Le centre de conférences de Los Angeles est le lieu où s’est tenu SCALE 2, il fournissait un espace bien plus grand pour installer l’évènement. Le nouveau lieu nous a aussi permis d’apprendre notre première leçon sur les contrats avec un grand organisme pour gérer les choses telles que l’équipement audio et vidéo, l’accès à Internet et le matériel d’exposition.

Compte tenu de la situation de l’évènement à l’intérieur du centre de conférences, nous avons dû positionner les comptoirs d’enregistrement dans une zone qui, tout en étant visible des participants qui arrivaient, se trouvait à une certaine distance du reste du salon. Nos possibilités pour fournir un accès réseau à la zone d’enregistrement étaient limitées car les règles de protection anti-incendie proscrivaient l’utilisation de câbles ; le sans-fil était donc l’unique option.

Tout a été mis en place très tôt le jour du salon et fonctionnait parfaitement bien, jusqu’à ce que cela cesse mystérieusement de marcher. La connexion sans fil, fournissant l’accès au réseau indispensable au comptoir d’enregistrement, a tout simplement disparu. Nous avons alors vécu beaucoup de tentatives de dépannages, beaucoup de déplacements d’équipements et d’antennes et beaucoup de frustration. « Ça devrait fonctionner. » était la seule conclusion à laquelle tout le monde pouvait parvenir, sans trop savoir pourquoi cela ne fonctionnait pas.

Soudain, un des membres de l’équipe, qui s’était tenu à l’écart de la séance de dépannage, a appelé tout le monde à venir à l’endroit où il se trouvait. En face d’une grande fenêtre qui surplombait un grand hall de réunion, nous avons tout à coup tous vu ce qu’il désirait nous faire voir. En-dessous de nous il y avait des dizaines de lumières clignotantes, tournantes et pulsantes qui nous regardaient. Des centaines d’appareils électroniques avec des lumières clignotantes, des sirènes et des panneaux à LED (diodes électro-luminescentes), interférant narquoisement avec les signaux sans fil de nos pauvres points d’accès. Nous avons soudain réalisé que nos heures de travail à tenter de résoudre ce problème de sans-fil avaient été vaines. Finalement, nous avons déroulé un câble Ethernet, l’avons scotché de la manière la plus sécurisée que nous avons pu, et nous avons dit une petite prière pour que le chef des pompiers ne fasse pas d’inspection surprise.

Soirées de gala, tireurs d’élite et disparition mystérieuse de mallette IBM

L’une des anecdotes les plus célèbres dans l’histoire de SCALE est sans doute celle des incidents et péripéties qui sont survenus pendant SCALE 3. Ces aventures sont bien connues, et si vous assistiez à SCALE cette année-là, vous n’avez pas pu y échapper.

Le troisième SCALE devait se dérouler encore une fois au centre de conférences de Los Angeles au L.A. Convention Center. Tout le travail de planification et d’organisation avait été mené en amont pendant de nombreux mois et tout s’annonçait bien. Trois semaines environ avant l’évènement, nous avons reçu des informations à propos de plusieurs routes qui seraient fermées autour du centre de conférences à cause d’une soirée de gala qui devait avoir lieu. À cause de ces fermetures de routes, il n’y avait plus qu’une voie d’accès pour accéder au centre et en repartir, ce qui est loin d’être idéal. Fort heureusement, nous avons eu le temps d’avertir tous ceux qui venaient à l’évènement et de leur indiquer les routes fermées à la circulation et les itinéraires alternatifs. Cette année-là, c’était aussi la première fois que SCALE devait se dérouler sur deux jours, dans l’espoir de répartir un peu les choses pour ne pas être autant dans la précipitation et la frénésie.

L’un des plus anciens sponsors et exposants de SCALE est IBM. Ils ont toujours été une plus-value appréciée, mais, malheureusement, leur participation s’est généralement accompagnée de quelques difficultés. La veille de l’évènement, comme d’habitude, avait été réservée à la mise en place pour permettre à l’équipe de SCALE de tout installer et aux exposants de préparer leurs stands. C’est également le jour de réception de tous les paquets envoyés par les exposants. IBM avait prévu de présenter une nouvelle ligne de serveurs sur le salon et avait fait expédier un de ces serveurs au centre de conférences ; malheureusement, il n’avait pas été livré sur leur stand et personne dans le centre de conférences ne savait où pouvait bien se trouver le colis. Malgré de nombreuses heures à chercher dans tous les endroits possibles à l’intérieur du centre de conférences, nous n’avions pas la moindre piste.

Il se trouve que le gala qui devait avoir lieu quelques jours plus tard avait loué un certain nombre de pièces pour en faire des bureaux et des espaces de stockage. Dans un éclair de génie, le coordinateur de l’évènement qui aidait à la recherche suggéra que nous pourrions chercher dans un de leurs espaces de stockage en espérant que la mallette d’IBM ait été livrée là par accident. La pièce en question était un petit placard de rangement dans lequel nous nous sommes trouvés face à des montagnes de boîtes, du sol jusqu’au plafond, remplies de tickets pour la soirée de gala à venir. Derrière ces boîtes, dans un coin, il y avait une grande mallette bleue avec le logo IBM bien visible. Crise évitée !

Le reste de l’évènement se déroula sans heurts et pratiquement sans incidents. Alors que l’évènement se finissait, une petite foule commença à se former près de grandes fenêtres donnant sur la rue. Alors que je passais à cet endroit, je pris conscience de ce que tout le monde était en train de regarder. Plusieurs silhouettes, toutes vêtues de noir, se déplaçaient sur les toits des bâtiments le long de la rue. Toutes ces silhouettes portaient des fusils de précision et étaient des membres de l’équipe du SWAT de la police de Los Angeles qui se préparaient pour la soirée de gala qui allait avoir lieu plus tard. Ce fut sans conteste une sortie mémorable du centre de conférences.

Pas de chambre à l’hôtel

Le quatrième SCALE a occasionné un nouveau changement de lieu. Cette fois-ci, nous sommes passés à un hôtel à la place d’un centre de conférences. Comme avec les années de plus en plus de personnes voyageaient pour assister à SCALE et séjournaient dans des hôtels proches, nous avons décidé d’étudier la possibilité que SCALE ait lieu dans un hôtel. Nous avons parcouru la région et avons fini par consulter un organisateur d’évènements pour trouver le bon endroit pour le nôtre. En nous installant dans un hôtel proche de l’aéroport de Los Angeles, la planification commença. Tenir l’évènement dans un hôtel nous a rapidement confrontés à de nouvelles problématiques propres aux hôtels. Une des plus importantes leçons que nous avons alors apprises a été de s’assurer que tous les contrats comportaient une clause convenue d’annulation.

À peu près cinq semaines avant l’évènement, nous avons reçu un appel des responsables du lieu qui nous informaient que leur entreprise annulait notre évènement pour attribuer le lieu à une autre manifestation. Cela a évidemment été un choc pour nous et nous a plongé dans la plus grande confusion. Le contrat avec l’hôtel ne comprenait pas une ligne sur les cas de résiliation pour changement de lieu, mais précisait seulement qu’ils pouvaient annuler la manifestation sans aucun motif.

Après un grand nombre de coups de téléphone et de tractations avec les responsables du lieu initial, ils ont fini par accepter de nous indemniser pour nous aider à migrer vers un lieu de remplacement. Lequel nous a consenti les mêmes conditions pour tout ce qui concernait l’électricité, l’accès à Internet et l’équipement audio et vidéo. Tout s’est bien passé et l’équipe de SCALE en a tiré une précieuse leçon sur la façon de négocier ses futurs contrats.

Rappel !

Tout compte fait, organiser une conférence est une entreprise gratifiante et un excellent moyen de rendre à la communauté ce qu’elle nous a apporté. Les conférences constituent un moment privilégié car elles permettent des échanges en personne dans un monde qui repose couramment sur des moyens de communication virtuels.

Voici les conseils que je donnerais à des organisateurs de conférences :

Pourquoi j'ai quitté Google

mercredi 20 mars 2013 à 17:48

Il y a un an le développeur James Whittaker quittait Google et le faisait savoir dans un article cinglant qui en disait long sur l’évolution de l’entreprise, obnubilée par la publicité et la concurrence de Facebook.

Nous avons choisi de le traduire car les arguments nous semblent malheureusement tout aussi valables aujourd’hui.

Ah, oui, et où est-il allé ensuite ? Réponse ici : Why I joined Microsoft ;)


Google+


Pourquoi j’ai quitté Google

Why I left Google

James Whittaker - 13 mars 2012 - Blog personnel
(Traduction : ACA, VifArgent, KoS, Eijebong, Alpha, angezanetti, Penguin, audionuma, P3ter, KoS + anonymes)

Ok, je cède. Tout le monde veut savoir pourquoi je suis parti, et répondre individuellement n’est pas forcément évident, voici donc les détails de la version longue. Vous pouvez en lire un bout (je vais à l’essentiel au troisième paragraphe) ou la lire en entier. Mais avant, une remarque préalable : il n’y pas de drame, pas de grand discours, pas de critiques d’anciens collègues et rien de plus que ce que vous pouvez déjà présumer d’après ce qui se dit dans la presse ces jours-ci autour de Google et de son attitude envers la vie privée des utilisateurs et les développeurs. C’est simplement une analyse plus personnelle.

Quitter Google ne fut pas une décision facile. Durant mon séjour là bas je suis devenu passionné par l’entreprise. J’ai fait quatre présentations « Google Developper Day », deux « Google Test Automation Conferences » et j’étais un contributeur prolifique du blog Google test. Des recruteurs m’ont souvent demandé de les aider à embaucher leurs champions. Personne n’avait besoin de me demander deux fois de promouvoir Google et personne ne fut plus surpris que moi quand je fus incapable de continuer à le faire. En fait, les trois derniers mois que j’ai passé à travailler chez Google ont été une énorme déception durant lesquels j’ai essayé en vain de rallumer ma passion.

Le Google qui me passionnait était une société high tech qui poussait ses employés à innover. Le Google que j’ai quitté était une société publicitaire concentrée uniquement sur l’aspect financier.

Techniquement, je suppose que Google à toujours été une entreprise de publicité, mais pendant la majeure partie de ces trois dernières années, ça n’y ressemblait pas. Google était une entreprise de pub uniquement dans le sens où une bonne émission télévisée est une entreprise de pub : avoir un bon contenu attire les publicitaires.

Sous Eric Schmidt, les pubs étaient toujours à l’arrière plan. Google a été lancé comme une usine à innovations, incitant les employés à être entreprenants au travers les prix des fondateurs (NdT : prix accordés aux employés les plus méritants sous forme d’action Google, pour retenir les meilleurs employés à Google), les primes par les pairs et le fameux 20% du temps (NdT : Google permet(tait ?) à ses employés de consacrer 20% de leur temps de travail à des projets personnels). Nos revenus publicitaires nous ont donné de l’aisance pour réfléchir, innover et créer. Les plateformes comme App Engine, Google Labs et l’open source ont servi d’environnements de test pour nos inventions. Le fait que tout ça était payé par une machine à fric complètement bourrée de publicité a échappé à la plupart d’entre nous. Peut-être que les ingénieurs qui travaillent vraiment sur les pubs l’ont senti, mais le reste d’entre nous était convaincu que Google était une entreprise de technologie avant tout et par-dessus tout, une entreprise qui engageait des personnes intelligentes et qui faisait un gros pari sur leur capacité à innover.

De cette machine à innovation sont sortis des produits stratégiquement très importants comme Gmail et Chrome, des produits qui étaient le résultat de l’esprit d’entreprise au plus bas niveau de l’entreprise. Bien sûr, cette innovation emballée crée quelques ratés, et Google n’y a pas échappé, mais l’entreprise a toujours su perdre sans s’entêter et apprendre de ses échecs.

Dans un tel environnement, il n’est pas essentiel d’être au sein de l’exécutif pour réussir. Vous n’avez pas besoin d’être chanceux et d’atterrir sur un projet « sexy » pour construire une grande carrière. N’importe qui ayant des idées ou le niveau pour contribuer, pouvait s’impliquer. J’avais énormément d’opportunités pour quitter Google pendant cette période, mais il était difficile d’imaginer un meilleur endroit pour travailler.

Mais c’était le « bon temps » comme on dit, et ce temps-là n’est plus.

Il se trouve qu’il y a un point où la machine à innover Google a faibli, et ce point est crucial : concurrencer Facebook. Des efforts informels ont produit un duo antisocial avec Wave et Buzz. le réseau social Orkut n’a jamais marché en dehors du Brésil. Comme le dit le proverbe (« le lièvre trop confiant risque une courte sieste »), Google s’est réveillé de son rêve social en voyant son statut d’empereur de la pub menacé.

Google peut bien brandir des publicités à davantage de personnes, Facebook en sait beaucoup plus sur eux. Publicitaires et éditeurs chérissent ce genre d’informations personnelles, tant et si bien qu’ils mettent parfois plus en avant Facebook que leur propre marque. Démonstration n°1 : une entreprise avec la puissance et l’influence de Nike mettant sa propre marque après celle de Facebook ? Aucune entreprise n’a fait ça pour Google et Google en a pris ombrage.

Larry Page a pris lui-même le contrôle pour corriger cette erreur. Le social fut « nationalisé » au sein de l’entreprise, un plan appelé Google+. C’était un nom menaçant qui donnait le sentiment que Google ne suffisait pas. La recherche devait être sociale. Android devait être social. YouTube, jadis heureux de son indépendance, devait l’être… bon, vous avez compris. Encore pire, l’innovation aussi devait être sociale. Les idées qui ne réussissaient pas à mettre Google+ au centre de l’univers étaient une perte de temps.

Tout à coup, 20% signifiait incompétent. Google Labs a fermé. Les prix d’App Engine ont augmenté. Les APIs qui étaient gratuites depuis des années furent dépréciées ou devinrent payantes. Alors que les valeurs entrepreneuriales disparaissaient, un discours moqueur à l’égard de « l’ancien Google » et de ses tentatives ridicules de concurrencer Facebook est apparu pour justifier un « nouveau Google » qui promettrait de faire plus avec moins.

Les jours heureux où Google embauchait des gens intelligents et innovants pour inventer le futur étaient terminés. Le nouveau Google savait au-delà de tout doute à quoi devait ressembler le futur. Les employés n’avaient rien compris et l’intervention des dirigeants allait tout remettre en ordre.

Officiellement, Google a déclaré que « le partage sur le Web était en panne » et rien d’autre que la force cumulée de nos esprits autour de Google+ ne pouvait le réparer. Il y a de quoi admirer une entreprise qui a la volonté de sacrifier des idoles pour rallier ses talents afin de faire face à une menace à l’encontre de ses intérêts. Si Google avait eu raison, l’effort aurait été héroïque et beaucoup d’entre nous voulaient réellement être impliqués dans ce qui serait la solution. Je me suis laissé convaincre. J’ai travaillé sur Google+ comme responsable du développement et j’ai écrit un bout de code. Mais le monde n’a jamais changé ; le partage non plus, n’a pas changé. Dire que nous avons participé paradoxalement ) améliorer Facebook est discutable, mais tout ce dont je disposais n’était en fait que des tests comparatifs à la faveur de Facebook.

Il s’est avéré que le partage n’était pas en panne. Le partage fonctionnait bien et de manière efficace, Google n’en faisait simplement pas partie. Tout le monde autour de nous partageait et semblait plutôt content. Aucun exode des utilisateurs de Facebook ne s’est jamais produit. Je n’aurai même pas pu montrer Google+ une deuxième fois à ma fille, « la vie sociale n’est pas un produit » m’a-t-elle dit après que je lui ai fait une démonstration. « Un réseau social c’est des gens, et les gens sont sur Facebook ». Google était l’enfant-roi qui, après avoir découvert qu’il n’avait pas été invité à la fête, avait organisé la sienne de son côté.

Google+ et moi, ça n’aurait jamais pu marcher. En vérité, je n’ai jamais tellement été intéressé par la publicité. Je ne clique pas sur les pubs. Lorsque Gmail affiche des pubs basées sur les choses que je tape dans mes courriels, cela me fait flipper. Je ne veux pas que mes résultats de recherche contiennent les coups de cœur des abonnés de Google+ (ou de Facebook ou de Twitter). Lorsque je cherche « rue de la soif à Londres », je veux un meilleur résultat que la suggestion sponsorisée « Achetez une rue de la soif de Londres chez Carrefour ».

L’ancien Google a fait fortune avec les publicités parce qu’il proposait du bon contenu. C’était comme à la télévision : faites la meilleure émission et vous aurez le plus de revenus publicitaires des entreprises. Le nouveau Google semble surtout se concentrer sur les entreprises.

Peut être que Google a raison. Peut être que le futur c’est d’en apprendre le plus possible à propos de la vie privée des autres. Peut être que Google est le mieux placé pour savoir quand je devrais appeler ma mère et que ma vie serait meilleure si je fais les soldes chez H&M. Peut être que s’ils me harcèlent en constatant tout ce temps libre dans mon agenda je ferais plus de sport.

Peut être que s’ils affichent une publicité pour un avocat spécialiste du divorce à cause de l’e-mail que j’écris à propos de mon fils de 14 ans en train de rompre avec sa copine, j’aimerais assez cette publicité pour mettre fin à mon propre mariage. Ou peut-être que je réglerai tous ces trucs-là tout seul.

Le Google d’avant était un endroit génial pour travailler. Quid du nouveau ?

-1

Autos, téléphones… nous devrions pouvoir déverrouiller tout ce qui nous appartient

mardi 19 mars 2013 à 19:13

Vous venez de crever et vous vous retrouvez malencontreusement sur le bord de la route pour changer votre pneu. Tout d’un coup un policier arrive et vous verbalise parce que vous enfreignez je ne sais quel copyright de la marque de votre véhicule stipulant que vous n’avez pas le droit d’y changer quoi que ce soit. C’est surréaliste et pourtant c’est bien la situation actuelle des téléphones portables.

Quid d’un monde sous contrôle où les objets ne nous appartiennent plus faute d’avoir le droit de les bidouiller ?


Håkan Dahlström - CC by


Oubliez la bataille du téléphone portable - Nous devrions pouvoir déverrouiller tout ce qui nous appartient

Forget the Cellphone Fight — We Should Be Allowed to Unlock Everything We Own

Kyle Wiens - 18 mars 2013 - Wired Opinion
(Traduction : Alpha, Sphinx, aKa, marc, lgodard, M0tty, jtanguy, Moosh, Floréal, K4ngoo, Texmix + anonymes)

Alors que le Congrès des Etats-Unis travaille sur une loi visant à ré-autoriser le déverrouillage des téléphones portables, regardons le vrai problème en face : les lois issues du copyright qui ont d’abord fait que le déverrouillage devienne illégal. À qui appartiennent les objets que nous possédons ? La réponse avait pour habitude d’être évidente. Dorénavant, avec l’électronique, omniprésente dans tous les objets que nous achetons, la réponse a changé.

Nous vivons dans une ère numérique, et même les produits matériels que nous achetons sont complexes. Le copyright impacte plus de monde qu’auparavant car la frontière entre logiciel et matériel, ente monde physique et numérique, s’amenuise.

Le problème ne se réduit pas seulement au déverrouillage des téléphones portables ; quand on achète un objet, n’importe lequel, nous devrions le posséder. Nous devrions être en mesure de soulever le capot, l’ouvrir, le modifier, le réparer, etc… sans demander la permission au fabriquant.

Sauf que nous ne possédons pas vraiment nos objets (enfin pas dans la totalité), les fabricants sont les vrais propriétaires. Parce que la modification d’un objet moderne requiert un accès à de l’information : du code, des documents de conception, des codes d’erreur, des outils de diagnostic… Les voitures modernes sont des mécaniques puissantes mais également des ordinateurs sophistiqués. Les fours à micro-ondes sont une combinaison de plastique et de microcode. Le silicium imprègne et alimente presque tout ce que nous possédons.

C’est un problème de droits de propriété, et les lois actuelles sur le copyright prennent ce problème à l’envers, transformant les gens ordinaires, comme les étudiants, les chercheurs et les patrons de petites entreprises, en délinquants. Par exemple l’entreprise de télécoms Avaya, qui fait partie du top 500 de Fortune, est connue pour poursuivre des entreprises de services en justice, les accusant de violer le copyright simplement parce qu’elles utilsent un mot de passe pour se connecter à leurs systèmes téléphoniques. Vous avez bien lu : rentrer un mot de passe est considéré comme : une « reproduction de matériel soumis au copyright ».

Les fabricants ont systématiquement utilisé le copyright en ce sens ces 20 dernières années pour limiter notre accès à l’information. La technologie a avancé trop vite par rapport aux lois sur le copyright, les sociétés ont exploité cette latence pour créer des monopoles de l’information à nos dépens et à leur bénéfice. Après des années d’expansion et de soi-disantes améliorations, le copyright a transformé Mickey Mouse en un monstre immortel.

Cela n’a pas toujours été ainsi. Les lois sur le copyright ont été créés à l’origine pour protéger la créativité et promouvoir l’innovation. Mais maintenant, elles font exactement le contraire. Elles sont utilisées pour empêcher les entreprises indépendantes de réparer les nouvelles voitures. Elles rendent presque impossible aux agriculteurs de réparer leur matériel. Et, comme nous l’avons vu ces dernières semaines, elles empêchent les particuliers de déverrouiller leurs propres téléphones portables.

Ce n’est pas juste un problème qui affecte seulement les spécialistes en informatique ; les fermiers sont également touchés. Kerry Adams, un agriculteur dans une ferme familiale de Santa Maria en Californie, a récemment acheté deux machines de transplantation pour la modique somme de 100000$ pièce. Elles sont tombées en panne juste après, et il a dû faire venir un technicien de l’usine pour les faire réparer.

Comme les constructeurs ont mis un copyright sur les notices techniques, les techniciens locaux ne peuvent pas réparer les appareils récents. De plus, les appareils actuels, remplis de capteurs et d’électronique, sont trop complexes pour être réparés sans la notice technique. C’est un problème pour les agriculteurs qui n’ont pas les moyens de payer les frais d’entretien élevés pour de l’outillage qui se détériore assez vite.

Adams a abandonné l’idée de faire réparer ses repiqueurs, c’était tout simplement trop cher de faire venir les techniciens en déplacement jusqu’à son exploitation. À présent, les deux repiqueurs sont à l’arrêt et il ne peut pas s’en servir pour subvenir aux besoins de son exploitation et de sa famille.

Dieu a peut-être donné vie à un fermier, mais les lois sur le copyright ne lui permettent plus de gagner sa vie.

Dans le proche domaine de la mécanique automobile, le copyright est aussi vu comme un étau, restreignant leur capacité à résoudre des problèmes. Les erreurs de code dans votre voiture ? Protégés. Les outils de diagnostic pour y accéder ? Des logiciels propriétaires.

Les nouvelles voitures se sophistiquent année après année, et les mécaniciens ont besoin d’un accès aux informations systèmes pour rester dans la course. Sous la protection du copyright, les constructeurs automobiles ont empêché l’accès des garagistes indépendants aux outils de diagnostic et aux schémas de fonctionnement dont ils ont besoin.

Les mécaniciens n’abandonnent pas pour autant. En septembre dernier, le Massachusetts a acté une loi sur le Droit à Réparer destinée à niveler le champ d’action entre les concessions et les garagistes indépendants. Sous le cri de ralliement de « C’est votre voiture, vous devriez avoir la possibilité de la réparer où vous le souhaitez », la loi a été adoptée à une très large majorité de 86%. Cette loi contourne le copyright, forçant les constructeurs à publier toutes les informations techniques aux propriétaires de véhicules du Massachusetts et aux techniciens système. L’agitation populaire se propage : les législateurs du Maine viennent de mettre en place une législation similaire.

Pendant ce temps, des progrès sont faits vers la légalisation du déverrouillage des téléphones portables. Avec des groupes locaux menant le combat, l’administration Obama a annoncé son soutien à l’annulation de cette interdiction la semaine dernière. Les membres du Congrès ont depuis rédigé pas moins de quatre projets de loi pour légaliser le déverrouillage.

C’est un pas dans la bonne direction mais ce n’est pas assez. Que les choses soient claires : réparer nos voitures, tracteurs, et téléphones portables ne devrait rien avoir à faire avec le copyright.

Tant que le Congrès se concentre simplement sur le déverrouillage des mobiles, il passera à côté du vrai problème. Les sénateurs peuvent adopter cents projets de loi sur le déverrouillage ; dans cinq ans, les grandes entreprises trouveront d’autres revendications de copyright pour limiter le choix des consommateurs. Pour vraiment résoudre le problème, le Congrès doit promulguer une réforme du copyright qui soit significative. Les bénéfices économiques potentiels sont significatifs, étant donné que l’information libre crée des emplois. Les informations techniques sont accessibles librement sur internet pour de nombreux smartphones sur iFixit (mon organisation) et d’autres sites. Ce n’est pas par hasard que des milliers d’entreprises de réparation de mobiles ont fleuri ces dernières années, exploitant les connaissances techniques pour éloigner les téléphones portables cassés des décharges.

Tant que nous serons limités dans notre faculté à modifier et réparer les choses, le copyright, pour tous les objets, entravera la créativité. Il nous en coûtera de l’argent. Il nous en coûtera des emplois. Et cela nous coûte déjà notre liberté.

Crédit photo : Håkan Dahlström (Creative Commons By)

Guerre sans merci dans le maquis des codecs vidéos

mardi 19 mars 2013 à 13:49

La guerre des formats vidéos sur le Web bat son plein, sans que nous puissions à priori faire grand-chose (c’est dans la cour des grands que cela se passe, avec un Google qui est ici du bon côté de la Force).

Et une fois de plus les brevets sont pointés du doigt…


Seth Anderson - CC by-sa


Codecs vidéo : les sales affaires derrière les belles images

Video codecs: The ugly business behind pretty pictures

Simon Phipps - 15 mars 2013 - InfoWorld.com
(Traduction : audionuma, goofy, KoS + anonymes)

Lorsque Google a annoncé la semaine dernière qu’il avait fait la paix avec le gestionnaire de brevets MPEG-LA à propos de son codec VP8, certains ont déclaré que l’entreprise avait cédé et rejoint le cirque des brevets logiciels. Il n’en est rien.

La vérité est bien plus complexe et pourrait annoncer de grands changements dans la lutte pour le contrôle de nos habitudes de visionnage et d’écoute en ligne. En conséquence, de puissants intérêts sont rapidement intervenus pour tenter de museler les canons du VP8 avant qu’ils ne tonnent.

Le contexte des codecs

Le secteur des codecs vidéo est complexe et truffé d’acronymes et de manœuvres politiques depuis des dizaines d’années. Même ceux qui sont les plus impliqués dans cette situation sont en désaccord, tant sur la réalité que sur l’histoire de cette situation. Voici un résumé :

Lorsque vous téléchargez ou visionnez une vidéo, vous pouvez la considérer comme du QuickTime, du Flash ou même de l’Ogg, mais ce ne sont que des mécanismes de distribution. La vidéo représente une énorme quantité de données, et vous la faire parvenir requiert de la compression de données. Le contenu d’une vidéo est encodé dans un format obtenu par un logiciel de compression de données, et est ensuite affiché sur votre écran après que ce contenu ai été décodé par un logiciel de décodage.

Le codec est le logiciel qui réalise ce processus. Les travaux théoriques sur les codecs sont exceptionnellement complexes, et il y a toujours un compromis entre la compression maximale, le temps nécessaire à compresser les données, et la qualité optimale. C’est ainsi qu’il existe une grande variété de codecs, et le savoir-faire concernant leur implémentation est un bien précieux.

Dès 1993, il devint évident qu’une standardisation des formats de données pris en charge par les codecs était nécessaire. Les institutions internationales de standardisation ISO et IEC constituèrent un groupe d’experts appelé le Motion Picture Expert Group (groupe des experts de l’image animée, MPEG) qui a depuis produit une série de standards destinés à divers usages.

Le secteur est truffé de techniques brevetées. La standardisation des codecs est basée sur le modèle du secteur des télécommunications, dans lequel il est commun de permettre à des techniques brevetées de devenir des standards pour ensuite en dériver des paiements de licences pour chaque implémentation. Pour faciliter la collecte des royalties, une société appelée MPEG-LA, LLC (qui, pour rajouter à la confusion, n’a aucun lien avec avec MPEG) a été constituée pour gérer un portefeuille de brevets au nom de la plupart des détenteurs de brevets qui contribuent aux standards MPEG.

Ce dispositif fonctionnait correctement dans l’ancien monde basé sur des points de passages obligés où les sociétés étaient les créateurs de logiciels. Mais la nouvelle société basée sur le réseau et les techniques qu’il utilise (tel que l’open source) ne fonctionne pas correctement dans un modèle où chaque nouvelle utilisation nécessite d’abord de demander la permission. Les éléments qui nécessitent une autorisation a priori — les points de passage obligés — sont des insultes à Internet. Ils sont considérés comme des nuisances, et les experts cherchent des solutions pour les éviter.

La naissance des codecs ouverts

Lorsqu’il fut clair que le Web ouvert avait besoin de codecs ouverts pour traiter des formats de médias ouverts, de brillants esprits commencèrent à travailler au contournement de ces problèmes. La sciences des codecs est bien documentée, mais l’utilisation de n’importe laquelle des techniques bien connues risquait d’enfreindre des brevets logiciels contrôlés par MPEG-LA. Il ne suffisait pas de simplement modifier un standard dérivé de MPEG pour contourner les brevets. Ces standards avaient créé un tel maquis de brevets que n’importe quel nouveau projet utilisant les mêmes calculs mathématiques était quasiment certain d’enfreindre un portefeuille de brevets quelque part.

La création de codecs ouverts réclamait une nouvelle réflexion. Heureusement, certains intérêts commerciaux travaillaient sur des idées de codecs alternatifs. Une entreprise nommée On2, notamment, avait créé une famille de codecs basée sur des idées hors du champ des brevets MPEG et avait déposé ses propres brevets pour éviter de se faire marcher sur les pieds. En 2001, elle publia une technologie de codecs appellée VP3 en open source, technologie protégée par ses propres brevets. Cette technologie constituait la base de ce qui devint Theora. On2 continua à travailler pour produire une série de codecs dédiés à des niches jusqu’à son acquisition par Google en 2010.

Le VP8 était le codec de On2 à la pointe de la technologie, offrant à la fois une excellente qualité d’image et une bonne compression des données. Peu après l’acquisition de On2 par Google, ce dernier rendit libre l’utilisation de VP8, créant un engagement d’ouverture pour tous les brevets lui étant liés, et déclara que le nouveau projet WebM offrirait un format totalement libre et ouvert pour la lecture de vidéos.

Évidemment, MPEG-LA a senti la menace et a rapidement décidé de contre-attaquer. Il a presque immédiatement annoncé la constitution d’un portefeuille de brevets pour vendre des licences sur des brevets qu’il était certain que WebM et VP8 violaient, et a invité les détenteurs habituels de brevets à lui communiquer toutes informations sur ces brevets.

Une lueur d’espoir

Et puis … plus rien. Il semble que les coups d’épée de MPEG-LA étaient plutôt des bruits de fourreau. L’accord avec MPEG-LA que Google a annoncé était formulé avec beaucoup de soins pour ne pas froisser les parties prenantes, mais il semble indiquer que MPEG-LA avait les mains vides :

Aujourd’hui, Google Inc. et MPEG-LA, LLC ont annoncé qu’ils ont conclu un compromis qui accorde à Google une licence sur les techniques, quelles qu’elles soient, qui pourraient être essentielles à VP8. De plus, MPEG-LA a accepté de mettre fin à ses efforts pour constituer un portefeuille de brevets autour de VP8.

Vous pouvez constater qu’il n’y pas grand-chose de valeur qui soit licencié dans ce cas, puisque Google est apparemment autorisé à :

…rétrocéder les licences à n’importe quel utilisateur de VP8, que l’implémentation de VP8 soit celle de Google ou d’une autre entité : cela signifie que les utilisateurs peuvent développer des implémentations de VP8 indépendantes et bénéficier de la protection accordée par la rétrocession de licence.

Le communiqué continue avec deux déclarations importantes. Premièrement, Google a le projet de soumettre VP8 à MPEG pour standardisation. Cela constituerait un profond changement d’orientation, qui pourrait orienter les futurs efforts hors du maquis des brevets et vers des territoires plus ouverts. Deuxièmement, Google a l’intention de proposer VP8 comme codec « obligatoire à implémenter » dans le groupe RTCWEB de l’IETF qui définit les protocoles permettant les communications en temps-réel dans les navigateurs Web : WebRTC.

Si tout cela réussissait, cela ouvrirait de grandes opportunités pour les logiciels open source et le web ouvert. Libérés de la course à la rente des détenteurs de brevets, les développeurs open source seraient enfin libres d’innover dans le domaine des applications audio et vidéo sans avoir en permanence à surveiller leurs arrières ou à demander la permission.

Naturellement, de puissants groupes d’intérêts continuent à essayer de ralentir, voire interrompre, cette révolution. À peine Google avait-il publié son communiqué à propos de VP8, de l’accord avec MPEG-LA et de son intention de standardiser, que deux messages furent postés sur la liste de discussion de l’IETF-RTCWEB. Le premier, envoyé par le collaborateur de Microsoft Skype Matthew Kaufmann, essayait de ralentir les progrès vers la standardisation et invoquait les règles et le débat pour tenir VP8 hors des prochaines discussions de standardisation. Le deuxième, envoyé par l’ancien spécialiste des brevets de Nokia Stephan Wenger, invoquait aussi les règles mais plus inquiétant, sous-entendait que MPEG-LA n’était pas seul à pouvoir jouer ce jeu là. Cette crainte prit bientôt corps dans un message du collaborateur de Nokia Markus Isomaki annoncant que Nokia — qui n’est pas membre de MPEG-LA — avait l’intention de démontrer que VP8 enfreint un de ses brevets.

C’est la vie de tous les jours dans le monde des codecs et c’est riche d’enseignements sur les dangers des brevets logiciels. Une fois acceptés et institutionnalisés comme processus normaux et légaux, ils contrôlent tout le reste. Bien que VP8 vienne d’un héritage technologique différent, ayant prudemment évité la masse des brevets déposés lors des premiers travaux sur le MPEG, et ayant ainsi été scrupuleusement ouvert par Google (il devait se corriger lors du processus, ce qu’il fit admirablement), le monde oppressant des brevets tente de le faire tomber dans ses griffes et de le contrôler, afin de le soumettre à la taxation sur l’innovation imposée par les vainqueurs de la première course technologique.

Nous ne pouvons pas faire grand-chose à part observer avec anxiété l’initiative de Google pour le Web ouvert. Dans cette histoire, il apparaît plus clairement que jamais que la réforme du système des brevets pour aboutir à une société plus juste et harmonisée se fera encore attendre.

Crédit photo : Seth Anderson (Creative Commons By-Sa)

Le plus vieux torrent de The Pirate Bay est une copie (illégale) de « Revolution OS »

lundi 18 mars 2013 à 18:40

Réalisé en 2001 par J.T.S. Moore, le documentaire « Revolution OS » retrace l’histoire des mouvements GNU, Linux, Open Source et des logiciels libres. Plusieurs personnalités de l’informatique sont interviewées, comme Richard Stallman, Linus Torvalds, Eric S. Raymond ou encore Bruce Perens.

Il n’est pas anodin de remarquer que c’est le plus vieux torrent encore activement partagé sur The Pirate Bay, avec la paradoxale ironie du partage illégal d’un film traitant d’un tel sujet !

PS : Nous avons choisi de faire comme si le lecteur était familier de Bittorrent et que les termes seeder, celui qui met à disposition le fichier, ou leecher n’avaient pas de secret pour lui (sinon c’est clic Wikipédia).

PS2 : Le film est également disponible dans son intégralité (anglais sous-titré anglais) en streaming sur YouTube (et toujours illégalement bien entendu).

Revolution OS

Le torrent le plus vieux de The Pirate Bay est « Revolution OS »

The Pirate Bay’s Oldest Torrent is “Revolution OS”

Ernesto - 17 mars 2013 - TorrentFreak.com
(Traduction : igor-d, Martin, Sakrecoer, Alpha, fcharton + anonymes)

Après presque 9 ans de distribution, le plus vieux torrent de The Pirate Bay disponible, est encore bien actif. Curieusement, ce torrent n’est ni un classique d’Hollywood ni un album de musique indémodable. La première place est attribuée à un exemplaire piraté de « Revolution OS », un documentaire qui traite de l’histoire de Linux, GNU et le mouvement du logiciel libre.

The Pirate Bay fêtera son dixième anniversaire un peu plus tard cette année. Une belle réussite, quand on sait que le site a fait l’objet de procès durant une bonne moitié de son existence.

Loin de tout ça, nous avons souhaité découvrir le plus vieux torrent ayant survécu à tous ces problèmes.

Après quelques recherches, nous avons trouvé que cette distinction revient à une copie pirate du documentaire « Revolution OS ». Le torrent en question fût mis en ligne le 31 Mars 2004.

A l’époque il n’y avait que quelques centaines de fichiers torrents stockés sur The Pirate Bay, comparé aux plus de 2 millions d’aujourd’hui. Année après année uniquement 15 personnes ont laissé un commentaire sur la page du torrent et il y a 27 seeders à l’heure où nous écrivons ces lignes.

Il y a une certaine ironie dans le fait qu’une copie « piratée » d’un film à propos de Linux, GNU et le mouvement des logiciels libres soit le torrent le plus ancien à être encore seedé (c’est-à-dire disponible et partagé). Richard Stallman, une des figures clefs du documentaire, serait fier et heureux de l’apprendre ;)

J.T.S. Moore, le réalisateur de « Revolution OS » a des sentiments contradictoires au sujet de cette réussite quand on l’interroge :

« Il y a clairement un problème de copyright, mais d’une certaine manière ça fait plaisir de savoir que « Revolution OS » intéresse certaines personnes douze ans plus tard » a-t-il confié à TorrentFreak.


Revolution OS - Torrent - The Pirate Bay


Mais « Revolution OS » est-il le plus ancien torrent encore en vie tout site confondu ?

Non, cet honneur là revient à une autre production peu connue. Le fichier torrent qui existe depuis le plus longtemps à notre connaissance est The Matrix ASCII.

Nous l’avions déjà couronné plus vieux torrent en 2005, et à ce jour il est toujours actif avec quelques téléchargeurs et seeders. Le fichier torrent en question a été créé en décembre 2003 alors que The Pirate Bay n’était âgé que de quelques mois et que Facebook et YouTube n’existaient pas encore. Jusqu’à maintenant, ce fichier a survécu une durée ahurissante de 3 333 jours.

En parlant de records, on peut aussi signaler le plus gros et le plus petit torrent de The Pirate Bay. Le plus gros torrent actif est une archive du dernier Geocities.com, fermé par Yahoo en 2010. Le torrent de 641 Go est actuellement en train de lutter pour sa survie avec un seul seeder.

Le plus petit torrent, à peine plus de 3 Ko, renvoie vers un crack d’Adobe Photoshop. Dans ce cas, le fichier du torrent prend plus d’espace disque à lui tout seul que le fichier qu’il permet de télécharger. Avec plus de 1000 seeders, ce fichier devrait rester encore disponible pour un petit moment ;)

L’an prochain, le torrent de « Revolution OS » devrait fêter ses 10 ans, et nul doute qu’il sera encore là pour souffler ses bougies.