PROJET AUTOBLOG


Gnuzer's BLOG

Archivé

Site original : Gnuzer's BLOG

⇐ retour index

Mon avis sur Firefox 4

dimanche 10 avril 2011 à 18:21

Edit: Firefox 4 n’est plus la version actuelle désormais. Il se peut que certaines critiques ou remarques formulées ici ne soient plus d’actualité. (notamment celles sur les plugins consommateurs de ressources : la page de surveillance des plugins gourmands de Mozilla change tout le temps)

Alors que, quelques jours après la sortie du tant attendu Firefox 4, fleurissent çà et là sur le web reviews, critiques, éloges et trolls sur le nouveau bébé de Mozilla, Framasoft demande à ses lecteurs ce qu’ils en pensent.

Les commentaires étant nombreux, je donne ma réponse ici, car ma celle-ci me semble trop tardive pour espérer suffisamment de visibilité. Et puis j’ai toujours eu un peu peur de la foule. ;-)

Contexte :

J’utilisais déjà Firefox 3.6 avant de passer à Firefox 4. Firefox a presque toujours été le choix n°1 pour moi en terme de navigateur car il est :

…alors que les navigateurs concurrents sont parfois non-libres (Opera, Chrome…), parfois plus légers/rapides mais moins puissants/extensibles (Seamonkey, Chromium/Iron, Epiphany, Midori, Arora…).

À noter qu’il m’arrive d’utiliser Seamonkey (sous le nom de Iceape sur Debian), qui à mon sens est un bon compromis entre la légèreté et la puissance (de plus il talonne de près Firefox en terme de fonctionnalités), et qu’il m’arrivait d’utiliser Epiphany à l’époque où celui-ci reposait encore sur gecko. N’utilisant pas KDE je ne peux pas juger Konqueror.

Extensions utilisées sous Firefox 3.6 :

et occasionnellement WOT, HTTPS-Everywhere, Skipscreen, User Agent Switcher, ainsi que des addons et scripts greasemonkey pour tenter de se passer de Flash, ou afficher la destination des URL courtes…

Passage à Firefox 4 :

Je suis passé à Firefox 4 quelques jours avant sa sortie officelle, via les dépôts « experimental » de Debian : le navigateur n’était alors qu’en RC. Actuellement la version que j’utilise est la 4.0-3 (il y a eu quelques corrections mineures depuis la 4.0 sous debian). En installant Firefox 4.0 RC, sachant que ce navigateur supportait le webm et que des addons/scripts me permettraient de voir certaines vidéos flash sans Flash Player, j’en ai profité pour supprimer ce logiciel proprio lourdingue qui faisait tâche sur mon ordi[1].

Mozilla promettait donc, avec Firefox 4, de nous fournir un navigateur plus rapide, plus agréable, plus respectueux des standards du web et plus respectueux de la vie privée. Passons en revue ces points.

Respect des standards du web :

La plupart des tests montrent Firefox 4 bien au-dessus de Firefox 3.6 sur ce point, mais encore en-dessous des navigateurs basés sur WebKit comme Chrome. À l’utilisation, j’ai dû constater deux-trois fois des éléments qui se chevauchaient un peu sur certaines pages, mais rien de suffisamment gênant pour que ça me marque. La grande avancée est très certainement le support du format webm, qui permet de se passer de Flash Player (et donc de Flashblock… un addon en moins, c’est toujours ça ;-) ) pour voir certaines vidéos sur des sites comme YouTube ou Fansub-streaming.

Firefox 4 supporte de nombreuses autres fonctionnalités novatrices notamment en ce qui concerne « HTML5 et ses amis ». Mais ne connaissant pas de site de jeux vidéo web populaire ayant remplacé ses jeux en flash par des jeux HTML5, ces améliorations ne m’apportent pour l’instant pas grand chose.

Même remarque pour le support de l’accélération matérielle (ou son absence) : mon chipset AMD 740G n’étant pas fait pour ça, je ne peux rien dire.

Rapidité :

Mozilla nous a promis un navigateur capable de rattraper le lourd retard de Firefox 3.6 sur Google Chrome en terme de rapidité. On peut en effet constater que ce Firefox 4.0 est bien plus rapide que son prédécesseur pour afficher les pages, et surtout est presque aussi rapide que Chromium (en tout cas chez moi, la différence est vraiment minime).

Cependant, en ce qui concerne la rapidité de l’interface, la différence entre Firefox 3.6 et Firefox 4.0 ne se fait pas clairmement sentir. Mon jugement est très certainement biaisé par le fait que j’utilisais Firefox 3.6 équipé de l’addon « Load Tabs Progressively »[2], qui n’est pas disponible pour Firefox 4.0 à l’heure actuelle[2bis]. Cependant, il est clair que l’interface de Firefox 4.0 est moins fluide que celle de Chromium, surtout quand le navigateur est bardé d’onglets (cela vient-il du fait que Chromium accorde un processus séparé pour chaque onglet ? [3]).

Respect de la vie privée :

Firefox 4.0 propose désormais les fonctionnalités Do-Not-Track et HSTS, surtout utiles si les webmasters jouent le jeu et si on n’utilise pas Noscript/Adblock pour bloquer les cookies et HTTPS-Everywhere pour forcer le HTTPS. Bien sûr ces fonctionnalités ne sont pas suffisantes pour me faire abandonner ces extensions.

Amélioration de l’expérience utilisateur :
  • Les App Tabs : très pratique. Elles me permettent d’accéder rapidement à Google Reader, Identi.ca, ur1.ca et downforeveryoneorjustme.com. À noter qu’un clic milieu dans une App Tab ouvre un onglet à gauche de la barre d’onglets. C’est parfois déroutant de voir défiler la barre d’onglets jusqu’à son extrème gauche pour voir apparaître le nouvel onglet créé.

  • le « switch to tab » dans la barre d’adresse : pratique , [fainéantise] mais nécessite d’utiliser le clavier : pas toujours agréable quand on browse en mode « flemme » [/fainéantise]… Toujours aucun moyen de compter ses onglets, ou de passer rapidement d’un extrème à l’autre dans la liste d’onglets. Toujours aucun moyen également de créer un nouvel onglet entre deux autres, comme avec Chromium.

  • la barre des onglets au-dessus : très pertinent, rien à dire.

  • la fusion des boutons stop et reload : pertinent, surtout pour quelqu’un qui utilisait l’addon « Stop-Or-Reload Button » (particulièrement utile sur les petits écrans type netbook).

  • la suppression du bouton « RSS » : discutable. Les développeurs de Mozilla sont parti du principe que s’il était peu utilisé, c’est qu’il ne servait à rien. Or, le bouton RSS est justement fait pour peu s’en servir : on le clique une fois pour s’abonner, puis on n’en a plus besoin. Il était surtout utile pour savoir du premier coup d’œil si un site proposait des flux. De plus, dans la barre d’adresse, il n’était pas particulièrement gênant…

    Mais, bon, comme on peut rajouter un bouton RSS manuellement, ce changement n’est pas trop grave.

  • le single-button menu : utile, surtout pour quelqu’un qui utilisait l’addon « Tiny Menu » sur les petits écrans type netbook. Il manque cependant dans ce menu l’équivalent du menu « outils », dans lequel on peut gérer rapidement les préférences de certains addons (le User Agent Switcher, par exemple…). Edit: Il manque également des options qui étaient bien pratiques, comme la possibilité de changer de feuille de style via un sous-menu.

  • la disparition de la barre d’état et la bulle d’url : pertinent, mais le fait que la bulle d’url n’affiche pas l’url complète (comme sous Chromium) est un peu déroutant. Supprimer la barre d’état (renommée en « barre des modules ») permet de gagner de la place, mais certains icônes d’addons ne peuvent pas être placés ailleurs (greasemonkey [Edit: désormais le bouton peut être dépalcé], Xmarks, Flashgot, RefControl…).

  • Panorama : une catastrophe. Bourrés d’effets graphiques avec des bulles qui se survolent et glissent les unes au-dessus des autres, ce truc est horriblement lent sur mon PC. Est-ce que Panorama exploite le chipset graphique ?

    De plus, il nécessite trop de clics et/ou raccourcis claviers pour passer d’une onglet à un autre ou même avoir une vue d’ensemble. Grouper ses onglets dans différentes fenêtres, à l’ancienne, est autrement plus pratique. Edit: Panorama semble avoir une meilleure fluidité depuis Firefox 4.0.1. Mais comme je n’en ai pas l’utilité, je ne l’utilise toujours pas.

  • La possibilité d’avoir des addons qui s’installent/s’activent/se désactivent sans reboot, façon Chrome/greasemonkey : excellent. L’addon Wild Fox, par exemple, ne nécessite pas de reboot, et c’est très agréable, surtout pour les tests.

  • Firefox Sync : Censé remplacer mon addon Xmarks, mais assez lourdingue. Je l’ai brièvement testé, après avoir entendu dire ça et là que Sync n’était pas du tout intuitif. Je ne dirais pas cela mais je dois reconnaître que l’interface semble sous-entendre que nous avons forcément un PC fixe équipé de Firefox 4 + un PDA équipé de Fennec. C’est assez perturbant, surtout quand on utilise Sync juste pour retrouver ses onglets après une réinstallation…

    Ceci dit, ce qui est le plus gênant est l’absence d’informations en temps réel. Avec Xmarks, l’utilisateur sait à tout moment quand a lieu la synchronisation, combien de temps elle prend, si elle a échoué et pourquoi, grâce à un indicateur discret dans la barre des modules. Il peut également avoir facilement un aperçu de ses données synchronisées, rétablir les jeux d’onglets qu’il veut, gérer différents profils… Bref, Sync a selon moi encore du chemin à faire pour rivaliser avec son concurrent (qui a pourtant le défaut de ralentir de 30% le navigateur !).

  • Le cascading session restore : Censé remplacer Load Tabs Progressively/BarTab. Mais d’une efficacité discutable.

    En effet, si l’idée de base est bonne (le navigateur charge les onglets au fur et à mesure au démarrage, se lançant plus rapidement mais ramant un tout petit peu plus durant les premières minutes d’utilisation), la fonctionnalité n’est pas aussi agréable que Load Tabs Progressively. En effet, contrairement à ce que proposait cet addon, il n’y a pas de possibilité de savoir d’un coup d’œil quels onglets sont chargés et lesquels ne le sont pas. Il est alors plus difficile de gérer ses onglets intelligemment : on voit son navigateur ramer et on ne sait pas quel onglet en est responsable, on ne sait pas quel onglet il serait plus judicieux de visiter en premier, etc…

    Bref, à l’heure actuelle, BarTab étant encore indisponible pour Firefox 4, le plus judicieux reste à passer à 0 la valeur de browser.sessionstore.max_concurrent_tabs dans about:config. Ainsi un onglet non visité ne s’ouvrira que quand on cliquera dessus, ce qui rend la gestion des onglets un peu plus facile. En attendant mieux… Edit: Depuis Firefox 8 c’est browser.sessionstore.restore_on_demand sur True

Notes supplémentaires :
Tips&Tricks :

Les meilleurs tips & tricks que j’ai trouvés pour améliorer la rapidité de lancement de Firefox 4 et/ou la réactivité de son interface sont :

Après toutes ces actions, si Firefox 4 a toujours beaucoup à envier à Chromium en terme de réactivité, la différence de performances se fait clairement sentir par rapport à la configuration par défaut du navigateur.

Extensions :

Les extensions que j’utilise actuellement (liste non exhaustive, et susceptible de changer) pour rendre Firefox 4 plus agréable à l’utilisation sont :

( Flashblock n’est plus nécessaire depuis que je n’utilise plus de lecteur Flash ou Silverlight. Linkification n’est pas disponible pour Firefox 4, et est remplacé par le script greasemonkey Linkify Plus. Load Tabs Progressively et son équivalent libre BarTab ne sont pas disponibles pour Firefox 4, browser.sessionstore.max_concurrent_tabs peut remédier en partie à ce problème. )

scripts greasemonkey :

( Il y a aussi un bon paquet d’extensions que j’ai voulu tester, et qui sont le plus souvent désactivées car buggées ou très spécifiques : Skipscreen (spécifique), Tree Style Tabs (lourd et buggué), Vertical Tabs (lourd et pas assez mûr), Wild Fox (quelques bugs), Swarm Player (spécifique, quelques bugs), OverbiteFF (spécifique), GrafxBot (très spécifique) )

TL;DR :

Firefox 4.0 vs Firefox 3.6, les + :
Firefox 4.0 vs Firefox 3.6, les « = » :
Firefox 4.0 vs la concurrence (Chromium, en fait), les – :
En conclusion :

Firefox 4.0 est naturellement meilleur que Firefox 3.6, en tout cas de mon point de vue. L’opportunité de se passer de Flash Player à coup de webm et de scripts greasemonkey est sans doute ce que j’attendais le plus de cette mouture, et je n’ai pas été déçu. Bien que les performances se sont significativement améliorées, je reste un peu sur ma faim de ce côté là : une séparation des processus à la Chromium n’aurait pas été du luxe…

Nombre de nouveautés mises en avant pour cette release me sont actuellement inutiles (Panorama, Sync, Do-Not-Track, HTST, Menu réduit, accélération matérielle…) : les seules choses qui me manquaient vraiment dans Firefox 3.6 étaient une amélioration des performances, ainsi que le support du webm. C’est pourquoi l’attente de presque 9 mois qui a séparé la sortie de Firefox 3.6.4 et Firefox 4.0RC m’est relativement frustrante, surtout si on y ajoute le temps d’attente de mise à jour des extensions (rares étaient les extensions compatibles avec Firefox 4, à la sortie de celui-ci).

Cependant, on peut se consoler en se disant que cette attente était le prix à payer pour que Firefox soit un navigateur en avance sur son temps. En effet, si des fonctionnalités comme le support du WebGL et des derniers standards HTML5 ne sont actuellement appréciables grosso-modo que sur les Demos, les Labs Mozilla et autres plateformes dédiées, on peut espérer à l’avenir en profiter sur la plupart des sites web sophistiqués, sans devoir subir des binaires imbouffables en Flash, Java, Silverlight ou autre. Même remarque pour les addons : espérons que les développeurs ne tardent pas trop à adopter le nouveau système d’extensions, la nouvelle interface et les exigences de Mozilla (et des utilisateurs) en terme de perfs…

De plus, Mozilla semble avoir appris du mécontentement de ses fans impatients : désormais les versions majeures de Firefox intégreront moins de nouvelles fonctionnalités, mais auront un rythme de sortie plus important. Reste à savoir si Firefox 5 apportera ce qui fait encore défaut à Firefox 4, à savoir de meilleures performances, l’aboutissement du projet Electrolysis, un meilleur support de l’accélération matérielle avec Xorg, ainsi qu’un Panorama et un Sync potables.

Mais n’oublions pas que beaucoup de l’attrait de Firefox 4 dépendra de l’évolution des extensions…

[1] Dire que je l’ai supprimé purement est simplement serait peut-être un peu excessif. Disons que je l’ai échangé contre une bonne dose d’abnégation (qui me fait passer mon chemin quand je vois un message du type « You need Flash Player to see this video ») et une petite pincée de mépris (qui me fait dire « Délit-Mocheyeunne est un site merdique : Mozinor ne veut pas que j’y voie sa dernière vidéo ? Tant pis pour lui. »)

[2] …qui est propriétaire ! Honte sur moi… Si je l’avais su à l’époque, j’aurai très certainement utilisé BarTab. [2bis] BarTab n’est lui non plus toujours pas disponible au moment où j’écris ces lignes.

[3] Mozilla avait prévu de faire de même pour Firefox, en initiant un projet nommé Electrolysis. La phase 1 du projet est achevée : le navigateur accorde aux plugins des processus séparés (et je trouvais ça très utile lorsque j’utilisais le crapware FlashPlayer). Mais la phase 2 d’Electrolysis n’a pas vu le jour dans Firefox 4 (et je ne sais pas du tout dans quelle version de Firefox on la verra apparaître…).

[4] Ce qui, IMHO, n’est pas cher payer par rapport aux avantages qu’ils procurent…

[5] S’il on peut le remplacer avec un script greasemonkey léger, je suis preneur.

De l’art d’acheter un PC…

mercredi 6 avril 2011 à 22:09

 

Prologue

C’est début janvier que j’ai commandé ce Thinkpad Edge 14″. Il me fallait un ordinateur de type PC, de bonne qualité, pas trop cher (moins de 600 €), relativement performant, si possible portable.

Pourquoi portable ? Parce que les moniteurs fixes étant encore relativement chers, un PC fixe n’aurait pas été tellement plus avantageux. Sans compter qu’on perd la souplesse d’utilisation d’un PC portable (étant dans une zone wifi, je me voyais mal déplacer régulièrement ma tour en cas de mauvaise réception…).

Pourquoi de bonne qualité ? Parce que j’aime voir les choses sur le long terme. Je préfère dépenser 600 euros dans une machine bas de gamme qui durera 10 ans que 500 euros dans la première bouse haut de gamme achetée en grande surface qui me claquera dans les mains au bout de deux ans. Et aussi parce que le culte de l’obsolescence programmée qui caractérise notre société d’hyper-consommation me fait horreur : je ne tiens pas à y participer.
Ma maigre connaissance du marché de l’électronique me permet de dire que les modèles Thinkpad de la marque IBM/Lenovo sont réputés pour leur fiabilité et leur qualité. À envisager, donc.

Pourquoi pas trop cher ? Parce qu’il me fallait cet ordinateur immédiatement, je ne pouvais attendre d’économiser plus. J’excluais cependant les netbooks, très avantageux niveau prix mais très limités (c’est très bien pour surfer, installer des serveurs basiques, on peut même y jouer à des jeux vidéos 2D pas trop dégueulasses, mais dès qu’il s’agit d’utiliser de gros programmes en java (comme Freenet, Oneswarm, ANTs, Frostwire… enfin tous ces petits programmes qui servent à faire du vrai Internet librement), c’est une galère). J’envisageais de monter un laptop en kit, bien que n’ayant jamais assemblé d’ordinateur. Après mettre renseigné je repoussais cette possibilité, bien trop hasardeuse et risquée[1].

Il me restait donc la possibilité d’acheter un Thinkpad d’occasion sur ebay… Conjecturant que ceux qui achètent des Thinkpad (et les revendent) sont généralement des geeks, je supposais qu’ils auraient pris soin de leur machine, et que le fait qu’il s’agisse d’occasions ne se ferait pas trop sentir. Mais ayant passé trop de temps à baver devant les derniers modèles de Thinkpad sur le site de Lenovo, je me laissais tenter par un modèle relativement récent, un Thinkpad Edge 14″ à base de Core i3, disponible – occasion inespérée – pour environ 600 euros sur ebay, livraison comprise (environ 90 $), vendu par un particulier, provenance : USA, état : comme neuf.

Note : lorsqu’on achète ce type de matériel, il faut penser à acheter également un adaptateur secteur compatible (en l’occurence US 110V (type A, 2 broches)–> EU 220V (type E/F)), ainsi qu’un jeu d’autocollants pour clavier (si on veut passer son QWERTY en AZERTY, en BÉPO…ou tout autre format adapté pour le français), qu’on peut trouver ici, par exemple.

 

Premières péripéties

L’item fut donc commandé début janvier, passa successivement entre les mains d’USPS puis de Chronopost, arriva à la douane trois jours plus tard, laquelle m’envoya une lettre me sommant de donner des informations sur mon colis et de m’engager à payer une taxe au cas où on voudrait m’en faire payer une, et à laisser la douane orner mon casier judiciaire d’une amende pouvant aller jusqu’à trois fois le prix de l’objet au cas où les douaniers décideraient qu’il s’agit d’une contrefaçon. J’envoie les informations demandées à Chronopost, par mail (avec des screenshots et des scans pour les factures), je reçois en réponse un accusé de réception.

 

Au bout de deux semaines, ne recevant rien, je commence à renvoyer régulièrement des mails à Chronopost pour leur signifier mon inquiétude. Je reçois systématiquement une erreur 550 en retour. J’apprends ça et là sur le web que Chronopost, caylemal, qu’ils travaillent main dans la main avec la douane, et que les colis peuvent y séjourner plusieurs mois, sans explication, voire même disparaître, une sorte de garde à vue hardcore, en quelque sorte, mais pour les objets.

 

Plan B

Au bout d’un mois, ne sachant ce qu’il est advenu de mon ordinateur (la hotline de Chronopost n’étant disponible que quand je ne le suis pas, le principe d’une hotline, quoi), et ayant besoin de cet outil dans les plus brefs délais[2], je décide de sacrifier mes dernières munitions et d’acheter un ordinateur presque équivalent… mais le moins cher possible.

Et là mon choix ne peut plus se tourner que vers les PC fixes à monter soi-même. D’une part parce qu’ils sont moins cher et qu’on peut faire évoluer le prix de façon très souple, d’autre part parce que cela garantit une certaine sécurité pour tout ce que concerne la livraison/douane. Si un ou deux colis disparaissent, cela ne fait qu’un ou deux composants à racheter, et non l’ordinateur entier.

Je repère deux sites intéressants pour choisir sa configuration en ligne : celui de LDLC et celui de TopAchat. L’assistant de configuration de TopAchat est très bien fait, on s’y instruit très vite. Au bout de quelques jours, j’arrive à réunir boîtier, MoBo, RAM, Proco, Alim, Moniteur, Clavier/souris, Carte Wifi, Multiprise, ventilo, disque dur… en évaluant chaque composant en fonction de son prix, de ses performances, de sa consommation, de la réputation de sa marque, de son taux de pannes, et de la compatibilité avec les autres composants.

[liste de liens]
http://www.topachat.com/pages/configomatic.php

http://www.topachat.com/comprendre/choisir-processeur.php
http://www.topachat.com/comprendre/choisir-carte-mere.php

http://www.topachat.com/comprendre/monter-son-pc/index.php
http://www.hardware.fr/articles/773-1/taux-pannes-composants.html

http://www.antec.outervision.com/

Si on se débrouille bien, on arrive à une liste dont aucun composant ne fait plus de 50 €, sauf le moniteur… (C’est d’ailleurs le seul truc un peu embêtant quand on achète un PC en kit… Les moniteurs LCD récents sont pratiquement tous des widescreen (18 pouces minimum), et il est difficile d’en trouver à moins de 90 €.)

…avant de se rendre compte, au moment de passer à la caisse (de valider la commande, quoi), que TopAchat ne comptabilise pas la TVA dans les prix de ses composants… on se retrouve donc avec un total TTTTTC bien plus élevé que le total affiché par le configurateur en ligne. Vu sous cet angle, l’offre de LDLC paraît alors tout de suite plus alléchante[3]

La bestiole arrive assez vite. Chronopost n’est finalement pas si médiocre quand il s’agit de ne livrer qu’en France depuis la France, et que vos items ne sont pas fragiles.

Je me rends compte immédiatement qu’il manque le cordon d’alimentation. C’est normal, certaines alims sont maintenant vendues sans cordon, par souci d’éco[logie/nomie]. Si on n’a pas de cordon orphelin chez soi, c’est quelque chose qu’il faut prendre en compte au moment de la commande.

 

Épilogue

Et mon fameux Thinkpad, me diriez-vous, qu’en est-il advenu ? Ça n’est que quelques jours après avoir assemblé ma machine que j’en ai à nouveau entendu parler… La douane a tout simplement renvoyé le colis à l’expéditeur, aux USA. Ayant trouvé le temps de contacter Chronopost, j’ai pu apprendre de la bouche d’une employée (un peu stressée) de la hotline (un peu stressée, également) de Chronopost que la douane a bien reçu mon dossier, qu’elle ne l’a pas traité, qu’on ne sait pas pourquoi et que les douaniers n’étant pas bavards on ne le saura sans doute jamais, à moins qu’ils aient écrit quelque chose sur le paquet avant de le renvoyer, et que tout ceci n’est pas de la faute de Chronopost, on a bien transmis votre mail alors dites pas que c’est de notre faute, sivouplé, non, dites pas sur votre blog qu’on est des branquignoles, c’est la douane qui a merdé, pas nous, non, nous boycottez pas, on est un bon service de livraison, sivouplé, sivouplé, sivouplé…

Sachez donc, amis lecteurs, que Chronopost est un service de branquignoles, qui travaille main dans la main avec la douane, a un taux de pertes ahurissant, balance les colis violemment dans les camions, coûte cher à la France pour pas grand chose, et qu’il faut boycotter ces nuisibles.

Ça, c’est fait.

J’ai donc recontacté le vendeur américain, qui, sympa, m’a proposé de réexpédier le colis , cette fois en partageant les frais de livraison : 50 € pour USPS/Chronopost, 70 € pour FedEx. J’ai choisi de faire rougir mon compte en banque pour FedEx. En passant j’ai appris que les douaniers n’avaient écrit aucune indication sur le paquet. Je me console en me disant que les 70 € supplémentaires que je paye (plus les 90 € de taxe dont je me vois sucré à la livraison par FedEx) ne sont certainement rien comparé à l’argent que les douaniers ont jeté par la fenêtre en faisant leur connerie.

Bof.

À retenir :

 

[1] En effet, s’il est assez facile de monter un PC fixe, monter un laptop est une autre paire de manches… Il faut trouver une carte mère, un écran, une alimentation et une coque adapées, et cela demande un travail et une patience qui semblaient hors de portée à un débutant comme moi. Mais peut-être dans quelques années, pour mon prochain laptop, qui sait…?

[2] Parce que l’ordinateur que j’utilisais alors n’était pas le mien, que c’était un ordinosaure crachottant, que ce p*tain d’écran CRT défectueux finirait pas me rendre aveugle et que ça me gonflait d’utiliser un driver proprio sur ma debian pour pouvoir me connecter à une ‘achinbox® (tout aussi préhistorique elle aussi, d’ailleurs) avec un dongle sagempa® (au bout d’une rallonge usb) pour accéder au Minitel 2.0 by Orange.

[3] La facture sur LDLC est détaille d’ailleurs assez bien le calcul du total TTC. J’ai pu apprendre que même l’éco-participation était soumise à la TVA. En France, on taxe les taxes

Ah, si j’avais le temps….!

mercredi 6 avril 2011 à 19:28

…et la motivation, parce que si je ne fous rien en ce moment, c’est bien plus une affaire de procastrination que de manque de temps.

D’où l’intérêt de cet article : dire que mon inactivité actuelle ne m’empêche pas d’avoir un tas d’idées qui se bousculent dans la tête, et mettre en vrac quelques sources d’inspiration qui serviront peut-être pour de futurs posts.

Si j’avais le temps, donc…

1) …je m’occuperais de mon blog, sur la forme

Je mettrais les mains dans le cambouis et me créerais un thème WordPress à moi (sous licence FTWPL, of course, c’est d’ailleurs parce que je supporte mal a présence d’une mention Creative Commons (non-libre en plus !) dans mon bottom que je tiens à avoir « mon » propre thème).

J’adapterais mon blog (à l’aide de plugins et de bidouilles) pour le rendre « full-Internet »…en ayant au préalable défini dans un article la notion de blog « full-Internet »[1].

J’associerais mon blog à un wiki, afin de donner la possibilité à la communauté de développer de façon collaborative des idées évoquées dans mes posts. Je ne sais pas encore à quoi ça pourrait ressembler concrètement, mais ça permettrait de faire de ce blog ce à quoi il était dédié au départ : faire avancer le schmilblick.

2) …je m’occuperais de mon blog, sur le fond

Je mettrais à jour mes articles (il en a qui contiennent des infos périmées, d’autres dont le formatage n’a pas aimé mes migrations successives…), j’en ferais pourquoi pas des versions en anglais (en français pour celui définissant la FTWPL), et peut-être même des verions TL;DR pour certains.

Je mettrais à jour mes pages (ex : ça fait tellement longtemps que je dis que je vais faire une page TODO-list, sans vraiment savoir si je ne devrais pas plutôt l’appeler DIDNOT-list, et que je ne m’y tiens pas, que je suis obligé de pondre l’article que vous êtes en train de lire…).

Je rédigerais enfin ces satanés articles qui traînent dans mes fonds de tiroirs depuis des jours semaines mois.

3) …je me débarrasserais de ces idées de softs qui me trottent dans la tête…

…soit en les filant à quelqu’un qui sait coder (mais qui n’a pas d’idées :-P ), soit en apprenant à coder moi-même (ce qui ne serait pas du luxe). Mais comme je vais les évoquer sur ce blog, le premier évènement est plus probable que le deuxième.

En quelques mots :

  • Un addon Firefox (ou Greasemonkey) qui combinerait tous les points positifs des actuels scripts permettant de lire les vidéos de certains sites en Flash dans un lecteur vidéo libre, sans passer par FlashPlayer (généralement directement dans le navigateur, via le plugin video).

  • Un soft qui permettrait de lire n’importe quelle vidéo, depuis n’importe quel ordinateur personnel (c’est-à-dire un truc qui téléchargerait complètement la vidéo dans le cas où ce serait du streaming, puis la réencoderait complètement, dans un format libre et de qualité, en tenant compte des performances de l’appareil), bref, le soft miracle qui permettrait enfin d’éviter de s’arracher les cheveux lorsqu’on tombe sur une vidéo HD en streaming dans une page web que l’on visite depuis un ordinosaure ou un PC de poche.

  • Un soft qui permettrait de synchroniser les documents en cours de lecture avec un appareil mobile (eBook, PDA…), ainsi que de télécharger sélectivement les pages web en bout de lien (de façon à pouvoir lire ses flux RSS (les derniers non lus avant synchronisation) dans les transports en commun, par exemple).

  • Des softs qui permettraient de faire migrer facilement du contenu d’un réseau à un autre. Exemple : J’aime bien la chaîne d’un créateur sur Dailymotion (plateforme privée, centralisée, privatrice), pourquoi ne pas avoir avoir un outil qui, d’un clic, me télécharge les vidéos de cette chaîne, les encode dans un format correct et me fait un pack balancé automatiquement sur bittorrent/i2p/FreeNet (ou toute autre plateforme ouverte, décentralisée, respectueuse des libertés de mes potes libristes).

  • Des softs qui permettraient d’intégrer le simple user à la communauté du libre. Par exemple en facilitant (voire en automatisant) la création de rapports de bugs, en facilitant le soutient financier (‘manque un bouton Flattr dans Synaptic ! ^^ ), ou éventuellement en facilitant la création de reviews (pour détecter non pas les bugs, mais les aspects libérateurs ou non d’un logiciel)…

  • Plus des softs qui amélioreraient la facilité d’utilisation/configuration des OS libres, comme des softs qui associeraient des GUI aux fichiers de config qui n’en ont pas encore… (le côté philosophie (d’origine) d’Ubuntu : « Tout passage par la ligne de commande doit être considéré comme un bug », mais avec un côté libérateur en plus…), ou bien des softs qui guideraient l’utilisateur qui veut optimiser sa distro (de la même manière qu’on est guidé quand on veut l’installer)…

4) …je me débarrasserais aussi des idées de distros qui me trottent dans la tête…

…soit en les filant à quelqu’un qui sait faire, soit en mettant les mains dans la doc et le cambouis moi aussi (ce qui ne serait pas du luxe, là non plus).

Mais l’idée principale serait de faire des LiveCD/DVD/USB, qui nous permettraient d’utiliser n’importe quel ordi n’importe où sans être restreint par autre chose que la technique. Par exemple entrer dans un cybercafé et utiliser sa distro en LiveUSB pour pouvoir y faire tout ce qu’on veut avec, y compris ce que les logiciels d’origine de l’ordinateur ou la connexion Internet fournie sont censés interdire. C’est déjà possible avec un LiveUSB persistant, mais le mode persistant n’est pas fait pour être utilisé de manière portable. Solution : faire son propre LiveCD/DVD/USB aux petits oignons[2].

On commencerait par une base… légère, complète (oui, si c’est un LiveUSB on peut y mettre tout ce qu’on veut…l’essentiel c’est que ce soit léger dans la mémoire vive), peut-être une version de cette base pourvue d’outils GUI pour la config (voir dernier point du 3) ), avec tous les outils pour utiliser un ordinateur personnel normalement constitué dans un réseau normalement constitué (c’est-à-dire en y mettant tout ce qu’on ne voit pas habituellement dans un PC de bureau, c’est-à-dire des serveurs de chat, de noms de domaine, bref, tout ce qu’il faut pour contourner les bridages « commerciaux » (j’entends par là tous ceux qui dépendent d’un service tiers centralisé)).

Cette base servirait à créér une distro qui permettrait d’utiliser n’importe quel ordinateur personnel dans le réseau avec autant de facilité que s’il était normalement constitué (c’est à dire avec tous les outils permettant d’utiliser facilement le chiffrement, les darknets, les proxys, bref, tout ce qu’il faut pour contourner les bridages « politiques »).

Distro sur laquelle on se baserait pour en créer une troisième, adaptée cette fois aux usages (qui permettrait par exemple de lire les vidéos des sites de streaming en flash, voir premier point de 3) ).

Mais il faudrait penser ces distros de façon à ce qu’elles soient libératrices (en plus d’être façonnées pour l’utilisation LiveCD).

On pourrait aussi penser à une distro (qui n’aurait rien à voir avec les trois précédentes, et qui n’aurait plus rien de libérateur) qui corrige le bug n°1 d’Ubuntu (« Microsoft has a majority market share »). À mon avis, si Madame Michu utilise Windows, c’est essentiellement à cause de ses habitudes (j’aime bien citer August Dvorak, l’inventeur de la keymap du même nom :  » I’m tired of trying to do something worthwhile for the human race. They simply don’t want to change ! « ). Connaissant bien Madame Michu, je peux affirmer sans rire que si celle-ci n’a pas son menu « démarrer » en vert sur fond bleu en bas à droite, elle est pau-mée. Vouloir que Madame Michu utilise nunux, ça équivaut à transformer GNU/Linux en Windows, ce qui n’a aucun intérêt : on peut en déduire qu’il n’y aucun intérêt à vouloir faire passer Madame Michu à nunux.

Mais comme tout le monde n’est pas de mon avis, je me suis amusé à imaginer à quoi ressemblerait un OS libre « designed for Madame Michu ».
Le concept est très simple, on transforme tout ce qui ressemble pas à Windows en du « qui ressemble à Windows », dans la mesure du possible (on va pas retirer des fonctionnalités ou rajouter des bugs, ni changer le système de gestion des paquets (on s’adresse à la grande majorité des Madame Michu, celle qui ne sait pas installer de programme, même sous Windows) ou des répertoires, on change juste l’apparence, les boutons, « l’expérience utilisateur » [3]).

Ce que ça donnerait ? Une horreur, certes. Mais également un concept intéressant : un OS que l’on peut utiliser en public sans passer pour un alien. Ce qui nous permet de définir cette distribution comme permettant de contourner le bridage « social » (oui, quand on boote sur un LiveUSB dans un cybercafé, c’est souvent utile de faire croire qu’on utilise Windows…).

5) …je réfléchirais aux opportunités de faire avancer le libre en sensibilisant les gens qui le font reculer…

comme l’a fait la FSFE récemment, demandant aux divers gouvernements d’Europe de retirer des sites web de leurs institutions les mensonges publicitaires du type « You need Adobe Reader to read this PDF ».

Mais en allant plus loin, Adobe Reader n’est pas le seul logiciel injustement promu pas le gouvernement… Mais bon, vous me direz que les sites gouvernementaux utilisant du Flash sont également accessibles sans Flash. Mais à ma connaissance ça n’est pas le cas de tous les sites des services publics.

De même on pourrait étendre ce concept à tous les sites utilisant du Flash sans raison : peut-être pas à coup de lettres et de pétitions, mais peut-être en essayant de sensibiliser certains webmasters sur les problèmes de leurs sites… voire même, plus les plus doués d’entre nous, proposer une version HTML5/Javascript, alternative aux versions flash des sites dont on contacterait les webmasters.

[1] Allez, je vous fais un petit résumé : un blog « full-Internet » (c’est le premier mot qui m’est venu à l’idée, si vous trouvez mieux, je suis preneur), c’est un blog qui respecte le réseau et l’utilisateur. Par exemple en offrant un certain confort et une certaine facilité de lecture, en ne nécessitant aucune technologie propiétaire ou difficile d’accès pour être exploité… (ça c’est le respect de l’utilisateur), et en offrant le maximum de décentralisation et d’accessibilité, via par exemple des mirroirs, des versions darknet, du partage en p2p pour les contenus « lourds »… (ça c’est le respect du réseau). Cette idée de concept de « full-Internet » m’est venue en me promenant sur le blog d’Arkados, que je trouve vraiment bien fait.

[2] Aux petits oignons, oui. Parce que si ça permet de contourner les restrictions réseau on aurait TOR de s’en priver… ^^ … :-| … —->[ ].

[3] [troll] Et puis peut-être que dans la foulée on pourrait faire un desktop environment puissant comparable à Windows en terme de légèreté, parce que les mastodontes Gnome et KDE…hum.[/troll]

Il faut répondre à Bluetouff…

vendredi 5 novembre 2010 à 18:12

[Edit : Bluetouff a eu l'amabilité de répondre à mon troll sur son blog. Désolé pour cet edit tardif.]

…car il écrit beaucoup de bêtises en ce moment.

Quel dommage. Ce blogueur de renom est très bon quand il s’agit de parler de technique, mais quand il s’agit de parler d’éthique, il glisse parfois trop vite sur la pente savonneuse du troll.

Dernièrement, l’ami Bluetouff, particulièrement remonté, a écrit une petite série de posts sur les solutions d’anonymisation et de protection contre les lois stupides en « I », dans lesquels le VPN en prend plein la gueule.

Sur les posts Anonymat – Acte 1 : VPN et HADOPI… et vous vous pensez anonymes ?, Anonymat – Acte 2 : Les solutions d’anonymat tiennent-elles réellement leurs promesses ? et Notre Internet est malade, ne l’achevez pas…, après un titre provocateur et un billet trollesque, Bluetouff se radoucit en général dans les commentaires. C’est en répondant aux plus pertinents d’entre eux qu’il précise sa pensée en donnant les détails nécessaires à la bonne compréhension de son billet. On se rend alors compte qu’une fois muni de ces précisions et après avoir fait abstraction de l’impertinence du style des articles, ceux-ci contiennent finalement plus de raison que de trollitude.

Mais ça n’est pas le fait d’avoir dépassé le piège de la provocation grossière qui va m’empêcher de traquer les quelques bêtises de l’argumentaire de Bluetouff qui ont survécu aux commentaires lucides de ces articles. Non mais.

Plantons le décor :

Auteur : Bluetouff. Sujet : VPN et Anonymat sur le Réseau. Nombre d’articles contestables : trois. Trollomètre : Rouge.

Thèse : Le VPN, Çaylemal.

Les différents points de la thèse défendue par Bluetouff sont formulés plus clairement dans les réponses de celui-ci dans les commentaires que dans les articles eux-mêmes[1]. Récapitulatif :

Les services de solutions de VPN spamment. Et disent des bêtises.

On connaît désormais la principale raison qui a poussé Bluetouff à écrire cette série de posts. Il s’est fait largement spammer et n’a pas apprécié cela, au point de faire deux articles rien que là-dessus. Dans les 4 raisons évoquées ici, les trois dernières concernent les services de VPN spammeurs. Comme Bluetouff se rend compte qu’en disant cela, il se contente de nous expliquer que la publicité c’est du mensonge et ça vous prend pour des imbéciles, il passe à d’autres points moins tautologiques.

Le VPN favorise la généralisation du chiffrement, qui est une mauvaise chose.

*Baff*.<- Ça, c’est le bruit de la claque que prend dans la tronche un cyberrésistant récemment converti au crypto-anarchisme comme moi[2] lorsqu’il lit que la généralisation du du chiffrement est une mauvaise chose.
L’argument généralement utilisé pour défendre ce point est que les solutions de chiffrement (pour les particuliers) étaient autrefois des mesures extrèmes, utilisées notamment par certains cybercriminels. Si on passe au tout chiffré, cela ne facilitera pas le travail de la police pour coincer les cybercriminels noyés dans la mase des crypto-anarchistes lambda.
Il me semble que ce qui dérange Bluetouff, c’est que les VPN ne soient plus réservés aux criminels.
Je suis parfaitement d’accord avec Korben : la démocratisaion du crypto-anarchisme est une réaction normale.
N’oublions pas qu’avec HADOPI et LOPPSI nous sommes tous des criminels
…puisque nous tuons un artiste à chaque fois que nous téléchargeons illégalement une œuvre ou que nous mettons les Français en danger quand nous nous opposons au DPI.
Tout délinquant essaye d’échapper à la répression. Si désormais nous sommes tous des délinquants, il est naturel que nous essayions tous d’échapper à la répression.

Remarque : Bluetouff clarifie sa pensée dans sa réponse à Korben : selon Bluetouff, il ne faudrait pas se cacher pour exercer notre activité illégale. D’ailleurs il ouvre son Wifi. C’est son choix. Mais dans un État en train de virer totalitaire, parmi les êtres véritablement humains travaillant à la sauvegarde de leurs libertés, je donne d’avantage de chances de survie aux « planqués » qu’aux héros contestataires.

Mais je m’arrête là, je déborde un peu trop sur ce post.

Focalisons-nous sur le troisième point de l’argumentaire de Bluetouff :

Les VPN ne garantissent pas, à eux seuls, la sécurité. Et ceci pour trois raisons :

Les VPN ne suppriment pas la principale faille de sécurité du système : l’interface chaise-clavier.

Donc là de deux choses l’une : soit je vous ai meni en disant que Bluetouff en avait fini avec les tautologies, soit le lectorat de Bluetouff’s blog n’est finalement pas aussi élitiste que peuvent le faire croire ses articles très pointus sur la sécurité informatique.
Il est évident que les bases de l’anonymat s’appliquent toujours (et pas que pour les VPN, idem pour les proxys, TOR, darknets, etc…). Ne pas utiliser de programme strictement privateur, mettre ses softs à jour, ne pas mélanger sa « vraie identité » (« Madame Michu, utilisatrice Facebook ») et sa « fausse identité » (« Guy Fawkes, utilisateur 4chan »)…

Les solutions anonymisatrices VPN (que j’appellerai désormais VPN as a Service, pour simplifier) posent un problème de confiance technique, exactement comme n’importe quelle solution SaaS

Face à ce problème, 2 solutions : déminitéliser le net et avoir son propre VPN, comme certains ont leur propre cloud at home (bon le problème c’est qu’il faut s’héberger à l’étranger dans un pays libre, ce qui n’est pas à la portée de tout le monde[3]), ou au minimum valider le VPNaaS contre soi-même (pour reprendre les termes de Gourmet), c’est-à-dire inspecter les logs sur ses propres serveurs (sécurité du contexte) et passer un petit coup de Wireshark sur les flux sortants (sécurité du contenu).

Les VPNaaS posent un problème de confiance éthique

…exactement comme n’importe quelle soluion SaaS, là encore (même si ici le problème est plus grave car on nous vend de la sécurité).

Là encore, 2 solutions : avoir son propre VPN, comme dit précédemment, (ou bien avoir un certain talent dans l’établissement d’une relation de confiance : connaître très bien le proprio du VPN, se servir de son intuition (celui qui par exemple ne propose de payer que par Paypal, qui propose un logiciel proprio pour se connecter et spamme les blogs est peut-être moins fiable que celui qui est soutenu par l’EFF et Amnesty…) ou se tenir au courant des scandales (si un client d’un grand VPNaaS se fait pincer ça se saura sûrement assez vite)…), ou chaîner les VPN pour optimiser la confiance (logique des réseaux TOR ou JonDo). Je suis d’ailleurs assez partisan d’établir une base données collaborative des VPN, avec un indice de fiabilité technique/éthique. Ce sera peut-être l’objet d’un autre billet sur ce blog.

Commentaires intéressants (liste non exhaustive):
Bluetouff
Grysyl
deadalnix
Grysyl
Je termine par moi :
gnuzer (avec une réponse intelligente de Bluetouff)
gnuzer (avec une réponse à la hauteur du pseudo en face, mais pas de réponse de Bluetouff : dommage, on aurait bien voulu savoir ce que c’est, selon lui, « la panacée ».)

Les VPN minitellisent le Net

Ça, c’est de loin le point le plus intéressant de l’argumentaire de Bluetouff. On peut l’interpréter de plusieurs façons :

  • L’apsect SaaS : effectivement, avec un VPNaaS, on met son trafic entre les mains d’un tiers, avec tous les problèmes que cela engendre. Comme quand on souscrit à un FAI commercial au lieu d’être son propre FAI. Pour des solutions (ou des débuts de solutions), voir les deux points précédents.
  • L’aspect NAT : placer sa connexion derrière un gros nœud, c’est très mauvais. Plus d’IP publique -> on quitte la logique du net.
    Mais alors l’usage d’un VPN ne diffère pas de celui d’un proxy : on utilise sa vraie IP pour son serveur web, on utilise le proxy simplement pour surfer.
    Pour le P2P, rien ne change à ce niveau-là (on est toujours à la fois client et serveur, il y a juste un nœud de plus dans le réseau).
    Ceci dit certaines technologies un peu sophistiquées doivent permettre de déminitélieser le net malgré l’utilisation d’une solution anonymisatrice type VPN. Je pense par exemple à The Hidden Tracker, le fameux tracker bittorrent invisible, qui est un véritable serveur anonyme et dont je ne pourrais pas détailler le fonctionnement assez complexe, mais dont je sais que ça n’est pas du Minitel et que ça fonctionne. ;)
  • La logique du Réseau : Si j’ai bien compris les conférences de Benjamin Bayart sur la nature du Réseau, Internet est, dans le modèle TCP/IP simplifié, composé de deux grandes couches :  la couche Transport et la couche Applications. Le génie de la technologie d’Internet repose sur le fait que ces deux couches sont totalement indépendantes, la couche transport étant là pour faire en sorte que la couche applicative fonctionne dans sa globalité, sans en différentier les usages.Dans la couche transport, la logique est d’avoir un réseau de nœuds reliés entre eux qui font passer bêtement les données entre des extrémités intelligentes. Le réseau se débrouille pour faire passer les paquets par le chemin le plus court et le moins encombré.

    Dans la couche applicative, la logique est d’avoir des protocoles fonctionnant de différentes manières pour permettre différents usages.

    La couche applicative n’est pas forcément une copie virtuelle de la couche transport. Par exemple, il existe des applications qui suivent la logique de la couche transport (comme le P2P, où les ordinateurs sont égaux entre eux, ou les réseaux de type ANTS ou MUTE où les ordinateurs font passer les paquets par le chemin le plus court, un peu comme le font les nœuds de routage dans la couche transport) et d’autres qui ne suivent pas cette logique (par exemple les réseaux de type client-serveur comme le web). Certes les applications qui suivent la logique de la couche transport sont « meilleures » d’une certaine façon, puisque la logique du fonctionnement de la couche transport est bonne à la base, mais ce n’est pas pour autant que les autres applications trahissent la logique de l’Internet. La logique du Net, c’est avant tout d’un côté une couche transport qui fonctionne d’une manière bien précise, et de l’autre une couche applicative qui permet de faire à peu près ce que l’on veut, indépendamment du fonctionnement de la couche transport.

    Le reproche fait par Bluetouff au VPN est que celui-ci casse la logique du Réseau en ajoutant un intermédiaire dans la connexion. Ainsi, les paquets ne sont plus routés par le chemin le plus court, mais forcés à passer par un nouvel intermédiaire (souvent éloigné géographiquement), le VPN.

    En réalité ce mode de fonctionnement ne dégrade en rien le bon fonctionnement du Réseau, car les connexions VPN concernent la couche applicative : il faut alors voir le serveur VPN comme une extrémité et non comme un nœud du réseau. Les paquets sont bien routés entre le client et le VPN par le chemin le plus court. Ceux-ci sont renvoyés par le VPN et atteignent leur destination finale par le chemin le plus court. La logique de fonctionnement du Réseau n’est donc pas plus altérée que lorsque deux parisiens utilisent pour chatter un serveur jabber situé à Berlin, au lieu d’utiliser un serveur jabber local sur leur machine. Ça n’est pas la manière la plus intelligente de faire passer des paquets, certes, mais la logique du Réseau n’en est pas remise en cause.

    On peut voir la chose encore d’une autre manière, en se disant que finalement si : la couche applicative, même truffée de VPN, respecte la logique de la couche transport. Il suffit pour cela de considérer un lien entre deux nœuds du réseau non pas comme une liaison physique, mais comme la combinaison d’une liaison physique et d’une liaison sociétale. Si X envoie à Y le fichier « copyrightedblockbusterdvdrip.avi » en peer-to-peer, il existe bien une liaison physique entre X et Y. Cependant comme la loi interdit cet échange, la liaison sociétale est coupée à cet endroit-là. Que fait le réseau lorsque que la liaison la plus courte est coupée ? Il passe par une liaison plus longue. X et Y se connectent donc à un VPN de manière à rétablir leur liaison sociétale. Dans ce cas de figure la société est un réseau qui, d’une certaine manière, suit la logique de la couche transport.

    C’est pourquoi si le fait de faire passer l’information par un intermédiaire supplémentaire est absolument débile dans un pays où on autorise le Net à fonctionner normalement, c’est en revanche parfaitement raisonnable dans un pays où le gouvernement a des tendances orwelliennes.

    À ceci Bluetouff pourra m’objecter que si on ne détruit pas la logique du Réseau en utilisant des VPN, en pratique le Réseau s’en trouve quelque peu modifié. En effet, si je me connecte à un serveur près de chez moi via un VPN situé à Amsterdam, les paquets parcourront une distance beaucoup plus grande que si la connexion était directe. Il s’en suivra des problèmes tels que : consommation supplémentaire de bande passante, consommation supplémentaire d’électricité, facturations supplémentaires entre les opérateurs, etc.

    À cela j’ai envie de répondre que l’optimisation de la consommation n’est pas une fin en soi (si on se focalise sur l’usage du Réseau). Je vois ces surcoûts engendrés plus comme un effet collatéral du système répression + résistance.

    Ceci dit d’autres pistes intéressantes ont été proposées dans les commentaires sur ce point :

    Grunt
    Grysyl
    sebyuku qui parle des seedbox, un autre solution assez proche du VPN, mais sur laquelle je serais curieux de connaître l’avis de Bluetouff. Idem pour les darknets type ANTS ou MUTE.
    Bluetouff

[1] Ça n’est pas un reproche. J’ai moi-même bien plus d’inspiration pour les dialogues que pour les monologues. C’est pourquoi je vous invite volontiers à troller en bas de mes articles.

[2] À prendre avec des pincettes, hein. Je ne pratique pas (encore) réellement le crypto-anarchisme. J’adhère simplement depuis peu à l’idée de chiffrer toute donnée transportée sur un réseau grand public y compris lorsque ce n’est pas nécessaire à l’exercice de ses libertés fondamentales, comme un moyen non-violent de mettre des bâtons dans les roues des charrues qui nous gouvernent.

[3] Encore que… Nos brillants hommes politiques n’ont pas tenu compte de la possibilité d’héberger un VPN chez soi lorsqu’ils ont écrit la loi Hadopi. Dans le cas où j’héberge un VPN chez moi, c’est au juge de trancher s’il y comprend quelque chose. À ce moment-là je pense qu’il est inutile de s’embêter à installer un serveur VPN sur son ordinateur. « J’hébergeais un VPN chez moi au moment des faits : un dissident chinois à qui je proposais un peu de liberté d’expression s’en est servi pour télécharger Les Bronsés 3, le vilain. Mais depuis j’ai formaté mon disque dur et ai perdu les logs, pas de pot. » me semble alors une excuse tout à fait valable.

Les vrais problèmes de la loi Création et Internet

mercredi 13 octobre 2010 à 17:27

La loi Création et Internet aka loi Hadopi est souvent décrite comme idiote, liberticide et inefficace.

On peut assez aisément comprendre la raison du qualificatif « idiote » : en fait il découle des deux autres. Cependant l’utilisation combinée des termes « liberticide » et « inefficace » semble contradictoire : à priori, une loi ne peut être liberticide que si elle est efficace.

Pour tenter de comprendre la raison de ces qualificatifs, concentrons-nous sur l’impact réel (factuel) d’Hadopi sur l’utilisateur final.

Une loi idiote

Hadopi est une loi idiote car inutile, or chère. Le prix excessif (important ou non, il reste excessif, la loi étant inutile) d’Hadopi est un argument que l’on peut opposer à cette loi, mais dans les faits, celui-ci n’est pas vraiment valable : supprimer Hadopi ne diminuerait pas les taxes et les impôts.

À cet argument on pourrait me répondre deux choses :

À la première objection je répondrais que c’est effectivement possible, mais qu’avec le talent dont font continuellement preuve nos politiciens à jeter l’argent par les fenêtres, j’en doute.

À la seconde je répondrais qu’il n’y a pas besoin d’argent pour trouver des solutions, mais de cerveaux. Si l’offre légale respectueuse du travail des artistes ne se développe pas, c’est avant tout parce qu’il n’y a pas de demande. Le jour où le problème de la rémunération des artistes sera significatif pour ces derniers, alors ils se mobiliseront.

Une loi liberticide

Il s’agit d’élucider la contradiction loi liberticide/inefficace.

En fait Hadopi est liberticide parce qu’elle est efficace pour des choses pour lesquelles elle n’a pas été votée. En effet :

(On passe sur les irrégularités de procédure comme la non-consultation de la CNIL, le non-remboursement de FAI, etc… qui ne concernent pas directement la liberté de l’individu.)

Hadopi attaque, semble-t’il, d’autres libertés :

Hadopi attaque-t’elle la liberté de partager sa connexion Internet dans la sphère publique ?
On pourrait penser que oui, car elle impose désormais l’obligation de sécuriser son point d’accès WiFi. Or, des solutions à cette atteinte existent. L’opérateur Free propose par exemple deux IP : une pour le réseau privé (le point d’accès privé de la box), et une pour le réseau public (le hotspot public de la freebox).
[Mais est-ce possible de se passer de la freebox pour exploiter cette possibilité ? Si ce n'est pas possible, notre liberté est effectivement attaquée suite à Hadopi, mais pas à cause d'Hadopi. Le problème est en effet technique : il n'existe pas de solution non-privatrice pour exercer la liberté de partager son accès au Net.]
Edit : La Fonera fonctionne avec du logiciel libre et propose cette fonctionnalité. De plus, il semble que d’autre opérateurs comme Neuf ou SFR proposent cette option IP privée/IP publique.
Hadopi attaque-t’elle la liberté de partager sa connexion dans la sphère privée ?
J’ai du mal à répondre à cette question : je ne laisse jamais mon ordinateur entre les mains d’une autre personne, et je ne sais pas s’il est bon de le faire ou pas.
Par contre, on peut se reporter à la question précédente : est-il possible d’avoir ce système de double IP (privée/publique) dans le cas d’une connexion filaire ?
Hadopi attaque-t’elle la liberté de partager son IP en tant que passerelle ?
C’est la grande question déterminant si cette loi est liberticide ou non. Puis-je héberger un serveur proxy/VPN/nœud final TOR derrière une IP française ?
Certains répondront que le problème est encore une fois technique : il suffit d’utiliser des darknets ou de se satisfaire d’un nœud TOR intermédiaire. Dans la théorie, cette réponse est correcte, mais en pratique on ne trouve pas sur les darknets toute l’information présente sur les réseaux « publics » (bittorrent, emule, world wide web,…). De plus la logique de TOR veut que les nœuds intermédiaires soient présents partout dans le monde[1], et que les nœuds finaux soient l’exclusivité des pays libres. Cependant la faible proportion de pays libres dans le monde remet en cause cette logique : que dirait-on d’un réseau TOR mondial dont tous les nœuds finaux se trouveraient en Islande ?
La loi Hadopi peut alors sembler inquiétante si on la voit comme la cause du fait que le petit groupe des pays libres[2] compte un membre de moins : la France.

[1] En fait je ne suis pas tout à fait sûr de ceci. Peut-on identifier publiquement par son IP un nœud TOR intermédiaire ? Si c’est le cas, il devrait être impossible dans certains pays d’héberger un serveur TOR.

[2] Libre au sens de : « qui offre la liberté de créer un serveur passerelle final pour aider ses pairs ».