PROJET AUTOBLOG


Planet-Libre

source: Planet-Libre

⇐ retour index

Framablog : Rien ne serait arrivé sans la loi de Moore

mardi 30 octobre 2012 à 01:18

La loi de Moore (qui n’est en fait qu’un conjecture) affirme que le nombre de transistors des microprocesseurs sur une puce de silicium double tous les deux ans. Ce qui, par extension, a donné pour le grand public que le rapport entre la puissance d’un ordinateur et son prix double tous les dix-huit mois.

Autrement dit, les machines sont de plus en plus puissantes et de moins en moins chères.

C’est bien ce qu’il s’est produit et se produit encore, pour le plus grand bonheur du logiciel libre et sa culture…

Leonardo Rizzi - CC by-sa

Un allié secret de l’open source : la loi de Moore

Open source’s secret ally: Moore’s Law

Glyn Moody - 10 octobre 2012 - The H
(Traduction : KoS, ProgVal, Sylvain, greygjhart)

Linux est passé du statut de petit bidouillage sympa dans une chambre à celui de logiciel capable de changer le monde il y a un peu plus de 21 ans lorsque Linus a envoyé son fameux message : « Bonjour aux utilisateurs de minix », invitant les gens à le rejoindre. Comme je l’ai remarqué le mois dernier, cette approche ouverte, collaborative était tout à fait nouvelle et s’est avérée décisive dans l’adoption et le développement de Linux.

Cela fut possible car Internet était déjà suffisamment présent pour qu’assez de gens se joignent à l’équipe de volontaires de Linus en faisant jouer à plein l’intelligence distribuée. En d’autres termes, l’émergence du logiciel libre est intimement liée à internet. En effet, le décollage rapide de Linux, comparé aux progrès plutôt lents du projet GNU est probablement dû, au moins en partie, au fait que ce dernier ne pouvait se reposer sur une connectivité globale. C’est grâce à cela que Richard Stallman a pu vivre des ventes de GNU Emacs, qu’il distribuait sur des bandes magnétiques.

La nature symbiotique du logiciel libre et d’internet, le premier utilisant le second, le second étant utilisé par le premier, est maintenant largement reconnue. Mais un autre facteur clé dans l’apparition de l’open source a été sous-estimé, alors que Linus lui-même le mentionne dans ce fameux premier message :

Je programme un système d’exploitation (gratuit, c’est juste un passe-temps, ça ne sera pas un gros projet professionnel comme GNU) pour des clones AT 386(486).

Comme nous vivons à l’ère Intel depuis deux décennies, une ère qui touche peut-être à sa fin, avec la montée en puissance des smartphones et des tablettes et leurs processeurs de familles différentes, il est facile de négliger l’importance du fait que Linus développa Linux pour les processeurs 80386.

Aussi étrange que cela puisse paraître , l’ordinateur principal de Linus avant qu’il n’écrive Linux était un Sinclair QL, un ordinateur typiquement anglais qui utilisait le processeur Motorola 68008 (qui fonctionnait à 7,5 MHz), fourni avec 128K de RAM et utilisait un infâme microdrive comme stockage.

Passer à un PC 386, fonctionnant à 33MHz, avec 8 Mo de RAM et 40Mo de disque dur, était un véritable bond en avant pour Linus, et poussa ses finances à leurs limites. En fait, il n’a pu acheter son premier PC que le 5 janvier 1991 parce qu’il reçut de l’argent pour Noël qu’il ajouta à un prêt étudiant que le gouvernement Finlandais lui avait récemment accordé. Ce dernier était censé payer sa nourriture et son logement pendant qu’il étudiait à l’université d’Helsinki mais comme il vivait toujours avec sa mère pendant cette période, il réussi à le détourner pour un usage plus intéressant.

Le fait qu’il puisse se payer un système aussi performant reposait sur l’amélioration continuelle du matériel, couplée à la diminution régulière des prix. C’est à dire que c’est grâce à la loi de Moore, qui dit que le ratio entre performances et prix double tous les 18 mois environ, que Linus a pu se retrouver avec le système 386 qu’il mentionne dans le premier message sur Linux.

Sans la loi de Moore, il serait sans doute resté avec son Sinclair QL, codant pour un système dont peu de gens se souciaient. Avec le 386, il a pu rentrer dans le courant dominant de l’informatique en même temps que de nombreuses autres personnes. Partout dans le monde (ou en tout cas dans les zones les plus riches) les jeunes gens ont pu s’acheter de vrais ordinateurs basés sur l’Intel 80386 et (plus tard) 80486. Cela signifiait qu’ils pouvaient faire tourner le code de Linux dès ses débuts, et aussi qu’ils pouvaient contribuer.

Encore une fois, sans la loi de Moore mettant des ordinateurs moins chers dans les mains de bidouilleurs, Linus n’aurait pas été en mesure de construire cette communauté mondiale à travers Internet et le rythme de développement en aurait souffert. En effet, comme la loi de Moore continuait de tirer les prix vers le bas tout en augmentant les performances, de plus en plus de gens dans un nombre croissant de pays ont pu acquérir des PCs suffisamment puissants pour rejoindre le projet Linux. Des processeurs plus rapides signifiaient des temps de compilation plus courts pour les programmes ce qui rendait le bidouillage du code plus facile - et plus agréable.

Il y a ici un contraste intéressant avec le développement du logiciel propriétaire. Les avancées dues à la loi de Moore ne profitent que peu aux programmeurs dans les entreprises, puisqu’ils ont généralement du matériel assez bon. Et les entreprises n’en bénéficient guère plus, puisque ce qui coûte le plus dans la programmation est le salaire des programmeurs, pas le prix de leurs PCs. Dans le monde du logiciel libre, les programmeurs volontaires sont bénévoles et le facteur limitant est le prix du matériel. C’est pourquoi la loi de Moore est très avantageuse pour l’open source.

Potentiel futur

Ce n’est pas un effet purement historique des premières heures de Linux. Nous voyons encore aujourd’hui la Loi de Moore tirer les prix vers le bas en accueillant toujours plus d’utilisateurs. Un bon exemple est le mini-ordinateur Raspberry Pi. Il offre les bases de la puissance d’un PC sur une petite carte mère, à un prix minuscule. Cela signifie que non seulement les personnes ordinaires – même des enfants – peuvent l’acheter sans avoir à penser au prix, mais aussi que les écoles peuvent envisager d’en acheter un pour chaque étudiant, ce qui est normalement inenvisageable avec les prix prohibitifs des PC, même ceux bon marché.

L’effet que le Raspberry Pi aura sur l’éducation n’est pas encore clair, mais il semble que celui-ci ou l’un des nombreux systèmes semblables à prix très bas va permettre l’arrivée de nouveaux types de projets avec des nouveaux groupes de contributeurs, dans les pays émergents par exemple.

Et les choses sont déjà en train d’aller plus loin. Voici un projet Kickstarter qui illustre à merveille cette progression continue rendue possible grâce à la loi de Moore. Il s’agit de Parallella. l se décrit comme un « Supercalculateur Grand Public », et ce n’est pas une blague.

Une fois terminé, l’ordinateur Parallella devrait fournir l’équivalent d’un processeur à plus de 45Ghz sur un circuit de la taille d’une carte de crédit tout en consommant moins de 5 Watts en fonctionnement normal. En s’en tenant seulement à la fréquence, c’est plus de puissance qu’un serveur haut de gamme qui coûte des milliers de dollars et consomme 400W.

Important, tout le système sera ouvert :

Oui, c’est un super ordinateur à 45GHz, fourni en standard avec Ubuntu, pour moins de 100$. Si Parallella parvient à sortir cela - et en tant que projet Kickstarter (il y a toujours le risque qu’il ne soit pas totalement financé ou qu’il ne fonctionne pas correctement) il va mettre un nouveau niveau de puissance de calcul entre les mains de tout le monde, y compris les étudiants.

Potentiellement, cela va permettre à des gens qui, jusqu’à présent, ne pouvaient tout simplement pas s’acheter une telle puissance de calcul de démarrer une toute nouvelle génération de projets open source. Encore une fois, le principal bénéficiaire ici est l’open source : si une entreprise a besoin d’un supercalculateur, elle va généralement l’acheter immédiatement, puisqu’elle peut se permettre de payer un prix conséquent pour les modèles actuels. Ce que Parallella apporte, grâce à la loi de Moore, est la démocratisation d’une puissance de calcul de cet ordre, qui ne va plus être réservée à des projets commerciaux disposant de solides fonds.

Il est important de noter que c’est la loi de Moore, agissant sur le matériel qui apporte ces bénéfices, plutôt que n’importe quel changement exponentiel dans le logiciel (qui n’y contribue qu’indirectement). De plus des lois de Moore pour d’autres types de matériel commencent également à prendre forme. Un exemple frappant en est l’impression 3D, où les prix baissent régulièrement. Ou encore le monde du séquençage du génome, démêler les milliards de « lettres » chimiques qui forment la double hélice de l’ADN, qui voit l’arrivée de changements encore plus importants.

Vous savez peut-être que le coût de séquençage du génome baisse mais vous n’avez peut-être pas la moindre idée de la vitesse à laquelle il baisse. Le National Human Genome Research Institute qui fait partie du National Institute of Health américain a compilé des données étendues sur le coût de séquençage de l’ADN au cours de la dernière décennie et a utilisé ces informations pour créer deux graphique à couper le souffle. Les chercheurs du NHGRI montrent que non seulement les coûts de séquençage sont en chute libre mais ils dépassent la courbe exponentielle de la loi de Moore d’une grande marge.

Cela signifie que le coût de séquençage de votre génome, ou de n’importe quel autre organisme, va bientôt devenir à la portée de tout le monde. Cela va-t-il créer une communauté globale de bio-hackers libristes, menée par un nouveau Linus avec un séquenceur de bureau (et peut-être un supercalculateur Parallella) dans sa chambre à coucher ? L’expérience des logiciels libres suggère que oui et nous apprend que nous ne devrions jamais sous-estimer le simple pouvoir de la loi de Moore à conduire des changement inattendus et révolutionnaires.

Crédit photo : Leonardo Rizzi (Creative Commons By-Sa)

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

OLPC France : A Saint-Denis, les XO réinvestissent l’école

lundi 29 octobre 2012 à 23:11

Depuis le 2 octobre, les XO sont de retour à Saint-Denis. 50 XOs, financés par la fondation Lyoness Child and Family, ont été livrés à l’école de façon à ce que 2 classes puissent les utiliser simultanément. Cette année, 7 enseignants participent au projet, les 6 enseignants en charge des classes de cycle 3 (CE2, CM1, CM2), ainsi qu’une enseignante de CP, particulièrement enthousiaste et motivée. 150 enfants vont ainsi utiliser le XO tout au long de l’année.
Depuis la livraison des XOs, 3 enseignants ont déjà utilisé les XOs en classe. La première séance a été une découverte ludique.

En CP, après avoir joué avec le Labyrinthe puis TamTam mini, les élèves étaient débordants d’enthousiasme ! La prise en main de l’ordinateur et de son interface a semblé au premier abord aisée. L’enseignante les a d’abord guidés à travers différentes questions et en utilisant le vidéo-projecteur pour leur montrer l’utilisation de Sugar. Certains élèves ont néanmoins sollicité très régulièrement l’aide de l’enseignante, ne sachant pas dépasser par eux-mêmes les difficultés qu’ils rencontraient (utilisation de la souris, fermeture d’une activité, etc.). Durant la séance, certains élèves ont beaucoup échangé entre eux, principalement pour montrer aux autres leurs réussites.

En CE2, et en CM2, les enseignants avaient déjà une première expérience de l’utilisation du XO l’année précédente. Ils ont d’emblée fait participé les élèves à la mise en place et au rangement des XOs. Ces 2 phases, prennent néanmoins encore du temps…

Durant la première séance, un temps a d’abord été réservé à la découverte de l’environnement Sugar à travers des échanges, et à l’aide du vidéoprojecteur, puis ils ont fait utiliser aux élèves Tuxmath puis d’autres activités ludiques. Les élèves étaient enthousiastes, prêts à s’entre-aider, très attentifs pendant la découverte commune de l’interface puis très engagés dans l’activité proposée. Les différentes séances se sont déroulées dans le calme et la bonne humeur. Les séances suivantes, autour de Tuxmath, étaient plus studieuses, orientées sur la réussite des différents niveaux, ce qui n’était pas toujours si facile.. !

Après les prochaines vacances scolaires, l’ensemble des enseignants et des élèves impliqués dans le projet utiliseront les XOs dans des disciplines plus diversifiées. Les enseignants projettent en effet d’introduire progressivement le XO dans différentes séquence d’apprentissage… à suivre !

Gravatar de OLPC France
Original post of OLPC France.Votez pour ce billet sur Planet Libre.

Artisan Numérique : EXT4 et performances

lundi 29 octobre 2012 à 22:43
Print PDF
EXT4 Performances
EXT4 et performances
Le 29 octobre, 2012 - 23:43 | Ulhume

Il y a quelques mois, je me suis retrouvé confronté à un postreSQL complètement poussif sur une machine pourtant performante et fraichement installée. Alors PostgreSQL fautif ? Pas du tout car le même problème s'est reproduit sur une autre machine, mais cette fois tournant avec MySQL. La source du problème : EXT4.

EXT4 et la barrière d'écriture

En fait le problème apparaît uniquement en écriture. À haut débit, celles-ci peuvent être jusqu'à 30% plus lentes qu'avec un disque formaté sous EXT3. Les répercutions se font donc sentir sur tout système amené à écrire à haute fréquence, bases de données en tête évidemment.

La raison tient en un système ajouté pour garantir l'intégrité des caches lors des écritures. EXT4 va en effet émettre un "write barrier" (barrière d'écriture) à chaque synchronisation des caches (fsync). De la sorte, si un crash complet du système survient (ou si quelqu'un se prend les pieds dans les prises du rack de serveurs), EX4 garanti que je journal est parfaitement à jour. Tout ceci est très bien pour un serveur critique, c'est un peu moins pertinent pour une machine utilisée comme serveur web ou une machine de développement.

La "solution" consiste donc à désactiver la levée des barrières, ce qui se fait à chaud par

$sudo mount /dev/sdaX -o remount,nobarrier
levée des barrières d'écriture sur EXT4

Conclusion

On est bien d'accord que la chose n'est pas à faire sur une machine où l'atomicité des écritures est critique. Mais dans tous les autres cas, c'est un gain de 30% en écriture, ce qui m'a un peu sauvé la vie lors d'une énorme migration d'un PHPBB de 12 ans d'age sous Drupal :).

Gravatar de Artisan Numérique
Original post of Artisan Numérique.Votez pour ce billet sur Planet Libre.

Articles similaires

Geek de France : Utiliser Ruby 1.9 sous Ubuntu 12.04 (et plus)

lundi 29 octobre 2012 à 19:31

Afin d’utiliser WP-Scan, j’ai été confronté à un problème : par défaut Linux Mint 13 (basé sur Ubuntu) utilise Ruby 1.8 quand WP-Scan est optimisé pour Ruby 1.9. Voila comment résoudre simplement ce problème :

Installation de Ruby 1.9 :

sudo apt-get update

sudo apt-get install ruby1.9.1 ruby1.9.1-dev \\
  rubygems1.9.1 irb1.9.1 ri1.9.1 rdoc1.9.1 \\
  build-essential libopenssl-ruby1.9.1 libssl-dev zlib1g-dev

sudo update-alternatives --install /usr/bin/ruby ruby /usr/bin/ruby1.9.1 400 \\
         --slave   /usr/share/man/man1/ruby.1.gz ruby.1.gz \\
                        /usr/share/man/man1/ruby1.9.1.1.gz \\
        --slave   /usr/bin/ri ri /usr/bin/ri1.9.1 \\
        --slave   /usr/bin/irb irb /usr/bin/irb1.9.1 \\
        --slave   /usr/bin/rdoc rdoc /usr/bin/rdoc1.9.1

 

Puis on définit Ruby 1.9 comme version de Ruby à utiliser :

sudo update-alternatives --config ruby
sudo update-alternatives --config gem


Vous pouvez maintenant vérifiez que vous utilisez Ruby 1.9 avec la commande 
ruby --version

[source]

Gravatar de Geek de France
Original post of Geek de France.Votez pour ce billet sur Planet Libre.

Articles similaires

Gilir : UDS-R Jour 1

lundi 29 octobre 2012 à 19:06

Étant à l’UDS cette semaine (merci Canonical pour le sponsoring !), je me suis dit que j’allais faire un petit résumé de mes journées de travail pour ceux qui n’ont pas la chance d’y être. Voici donc un petit résumé de cette première journée.
A noter que Winael a également commencé un post dessus (http://winael.blogspot.com/2012/10/resume-de-lubuntu-developer-summit-r.html). Les sessions couvertes semblent différentes, donc les 2 billets seront parfaitement complémentaires.

0. Participer à l’UDS
Il est toujours possible de participer à l’UDS sans être là en personne. Il suffit d’utiliser IRC, les blueprints, les stream audios et vidéos disponibles. Comme si vous y étiez ! Plus d’information sur http://uds.ubuntu.com/community/remote-participation/ (oui c’est en anglais, mais tout le contenu de l’UDS est en anglais, donc il faut s’y habituer si vous voulez participer …). Le programme est également disponible sur http://summit.ubuntu.com/uds-r/

1. Plénière avec Mark Shuttleworth
Vous trouverez un résumé sur le blog de Christophe qui est aussi présent à l’UDS : http://www.zdnet.fr/blogs/ubuntu-co/mark-shuttleworth-leve-le-voile-sur-la-future-orientation-de-ubuntu-1304-39784018.htm
Pour résumer, Mark a insisté sur le fait que le but est de mettre Ubuntu Desktop (cad, Unity) sur tous les supports : PC, tablettes, téléphones, TV … Il a d’ailleurs fait une démonstration d’Ubuntu sur téléphone. On parle ici du même Ubuntu Desktop sur tous les supports, et non d’une version optimisée pour chaque support (avec donc l’avantage de mutualiser la maintenance sur tous les supports à un seul endroit).
Il a de plus commenté l’arrivée d’Ubuntu sur Nexus 7, et que le but est de rendre utilisable Ubuntu Desktop sur cette tablette qui deviendra la tablette de référence.
Il a aussi annoncé que des PC HP avec Ubuntu installé par défaut serait vendus en Chine prochainement. Cela fait un autre constructeur important (après Dell, Asus (et un autre ?) qui utilisera Ubuntu comme système alternatif à Windows.
Enfin, il a confirmé l’arrivée de Steam sur Ubuntu, et donc l’arrivée de jeux grand public sur Ubuntu, probablement la fonctionnalité la plus demandée depuis la naissance d’Ubuntu.

2. Matinée : Planning et organisation des sorties
La première matinée a été très marquée par des sessions d’organisation des sorties, c’est à dire les gels (freezes), les notes de sorties (releases notes), les outils (générateur d’ISO, iso tracker), que cela soit pour Ubuntu mais aussi pour toutes ses « flavors » (Kubuntu, Edubuntu, Xubuntu, Lubuntu …). Plusieurs éléments structurants ont amené à organiser ces sessions :
1) Le poste de Release Manager n’est plus sponsorisé par Canonical, le point d’entrée unique en cas de discussions/problèmes concernant la sortie disparaît donc.
2) les chargements de paquets dans l’archive ne sont plus automatiques : tout changement est fait dans une zone tampon (Dans la section « proposed »), ce qui permet de tester son état avant de rendre le changement disponible à tous les utilisateurs.

Le 1) a un impact important sur les flavors, car le Release Manager était un lien important entre les flavors et les différentes autres équipes. Du coup (je ne sais pas si c’est une conséquence directe), il a été proposé que les flavors gagnent plus d’indépendance, en terme de planning, de gel, ou d’ISO générées (voir « Empowered flavors » http://summit.ubuntu.com/uds-r/meeting/21406/foundations-r-empowered-flavors/).

Le 2) a permis demettre sur la table la question des « gels », et des version de développements (Alphas). Le but depuis 2 versions est de rendre la version de développement toujours utilisable pendant tout le cycle de développement. L’utilisation de la zone tampon va dans ce sens. Donc, si la version de développement est toujours utilisable, pourquoi as-t-on besoin d’Alphas, vu que n’importe quelle Daily ISO (ISO générée chaque jour) peut-être installée ? De plus, aucun gel ne devrait être nécessaire avant chaque sortie (Alpha, Beta) vu que la zone tampon est utilisée.
En conclusion, il est fort probable que les Alphas en tant que telles disparaissent, et soient transformées en points d’étape mensuels : 1 daily ISO sera déclarée comme tel par mois (voir « Release schedules » http://summit.ubuntu.com/uds-r/meeting/21405/foundations-r-schedule/)

Enfin, une autre session sur les outils de la release team (iso-tracker, notes de sortie, réunion hebdomadaires …) a été organisée pour échanger sur ce qui a marché ou non.

3. Plénières de l’après-midi.
Après le repas, 1h de sessions plénières est organisée tous les jours. Aujourd’hui, les présentations portaient sur :
* le Design avec une présentation de quelques concepts par l’équipe Design
* Une présentation / annonce de Valve sur la disponibilité de Steam sur Ubuntu (et au passage, l’annonce que toutes les personnes présentes à l’UDS auront accès à la beta).
* La promotion des outils pour aider à publier ces applications dans Ubuntu (https://myapps.developer.ubuntu.com/dev/, le concours de création d’applications durant ce cycle …)
* Les tests et comment améliorer Ubuntu en intégrant des tests automatiques à ces paquets (autopkgtest, autopilot …)

4. Sessions de l’après-midi
L’après-midi a continué, avec une session sur la QA en générale, et les initiatives pour faire participer la communauté aux tests en général (https://blueprints.launchpad.net/ubuntu/+spec/qa-r-community).

Une autre session a amorcé le sujet épineux du SDK pour Ubuntu. Rien de concret pour l’instant, la session était juste là pour réunir des idées sur ce que devrait contenir ce SDK. C’est un sujet extrêmement louable (tout développeur qui débarque sur un nouvel environnement s’attends à trouver de la documentation et un SDK), mais il se heurte très vite à la diversité des distributions Linux en général, et d’Ubuntu en particulier. Car, qui dit SDK, dit standardisation, ce qui veut dire par exemple, un seul toolkit utilisé, un seul langage, une API unifiée … Dans un environnement ou cohabite des flavors comme Kubuntu (qui a un environnement de développement assez différent de Ubuntu / Unity), il est difficile de déclarer une telle standardisation. Mais ce projet ne fait que commencer, nous verrons comment il évolue dans les prochaines sorties (Voir http://summit.ubuntu.com/uds-r/meeting/21317/appdev-r-sdk-criteria/)

Enfin, la dernière session de la journée était sur Lubuntu, et les plans pour la version 13.04. Pour faire rapide, nous prévoyons, comme Ubuntu, de ne plus faire d’Alphas officielles, et d’utiliser les ISO générées chaque jour pour les tests. Nous garderons normalement les Alternate ISO. Des test spécifiques sont en cours d’écriture pour mieux tester Lubuntu. Enfin, il se pourrait qu’une nouvelle application voit le jour, permettant de petites configurations avec une interface graphique (Lubuntu tweaks), évitant d’éditer des fichiers de configuration comme celui d’Openbox pour activer ou désactiver des fonctionnalités comme le tiling, la maximisation par défaut des applications etc …

Voilà pour la première journée de travail. Mais la journée n’est pas finie, ce soir c’est la fête ! (voir « Evening programme » on http://uds.ubuntu.com/event/).


Tagged: Lubuntu, Packages, planet-libre, planet-ubuntu-fr, Ubuntu

Gravatar de Gilir
Original post of Gilir.Votez pour ce billet sur Planet Libre.

Articles similaires