PROJET AUTOBLOG


Planet-Libre

source: Planet-Libre

⇐ retour index

Framablog : Guerre sans merci dans le maquis des codecs vidéos

mardi 19 mars 2013 à 13:49

La guerre des formats vidéos sur le Web bat son plein, sans que nous puissions à priori faire grand-chose (c’est dans la cour des grands que cela se passe, avec un Google qui est ici du bon côté de la Force).

Et une fois de plus les brevets sont pointés du doigt…


Seth Anderson - CC by-sa


Codecs vidéo : les sales affaires derrière les belles images

Video codecs: The ugly business behind pretty pictures

Simon Phipps - 15 mars 2013 - InfoWorld.com
(Traduction : audionuma, goofy, KoS + anonymes)

Lorsque Google a annoncé la semaine dernière qu’il avait fait la paix avec le gestionnaire de brevets MPEG-LA à propos de son codec VP8, certains ont déclaré que l’entreprise avait cédé et rejoint le cirque des brevets logiciels. Il n’en est rien.

La vérité est bien plus complexe et pourrait annoncer de grands changements dans la lutte pour le contrôle de nos habitudes de visionnage et d’écoute en ligne. En conséquence, de puissants intérêts sont rapidement intervenus pour tenter de museler les canons du VP8 avant qu’ils ne tonnent.

Le contexte des codecs

Le secteur des codecs vidéo est complexe et truffé d’acronymes et de manœuvres politiques depuis des dizaines d’années. Même ceux qui sont les plus impliqués dans cette situation sont en désaccord, tant sur la réalité que sur l’histoire de cette situation. Voici un résumé :

Lorsque vous téléchargez ou visionnez une vidéo, vous pouvez la considérer comme du QuickTime, du Flash ou même de l’Ogg, mais ce ne sont que des mécanismes de distribution. La vidéo représente une énorme quantité de données, et vous la faire parvenir requiert de la compression de données. Le contenu d’une vidéo est encodé dans un format obtenu par un logiciel de compression de données, et est ensuite affiché sur votre écran après que ce contenu ai été décodé par un logiciel de décodage.

Le codec est le logiciel qui réalise ce processus. Les travaux théoriques sur les codecs sont exceptionnellement complexes, et il y a toujours un compromis entre la compression maximale, le temps nécessaire à compresser les données, et la qualité optimale. C’est ainsi qu’il existe une grande variété de codecs, et le savoir-faire concernant leur implémentation est un bien précieux.

Dès 1993, il devint évident qu’une standardisation des formats de données pris en charge par les codecs était nécessaire. Les institutions internationales de standardisation ISO et IEC constituèrent un groupe d’experts appelé le Motion Picture Expert Group (groupe des experts de l’image animée, MPEG) qui a depuis produit une série de standards destinés à divers usages.

Le secteur est truffé de techniques brevetées. La standardisation des codecs est basée sur le modèle du secteur des télécommunications, dans lequel il est commun de permettre à des techniques brevetées de devenir des standards pour ensuite en dériver des paiements de licences pour chaque implémentation. Pour faciliter la collecte des royalties, une société appelée MPEG-LA, LLC (qui, pour rajouter à la confusion, n’a aucun lien avec avec MPEG) a été constituée pour gérer un portefeuille de brevets au nom de la plupart des détenteurs de brevets qui contribuent aux standards MPEG.

Ce dispositif fonctionnait correctement dans l’ancien monde basé sur des points de passages obligés où les sociétés étaient les créateurs de logiciels. Mais la nouvelle société basée sur le réseau et les techniques qu’il utilise (tel que l’open source) ne fonctionne pas correctement dans un modèle où chaque nouvelle utilisation nécessite d’abord de demander la permission. Les éléments qui nécessitent une autorisation a priori — les points de passage obligés — sont des insultes à Internet. Ils sont considérés comme des nuisances, et les experts cherchent des solutions pour les éviter.

La naissance des codecs ouverts

Lorsqu’il fut clair que le Web ouvert avait besoin de codecs ouverts pour traiter des formats de médias ouverts, de brillants esprits commencèrent à travailler au contournement de ces problèmes. La sciences des codecs est bien documentée, mais l’utilisation de n’importe laquelle des techniques bien connues risquait d’enfreindre des brevets logiciels contrôlés par MPEG-LA. Il ne suffisait pas de simplement modifier un standard dérivé de MPEG pour contourner les brevets. Ces standards avaient créé un tel maquis de brevets que n’importe quel nouveau projet utilisant les mêmes calculs mathématiques était quasiment certain d’enfreindre un portefeuille de brevets quelque part.

La création de codecs ouverts réclamait une nouvelle réflexion. Heureusement, certains intérêts commerciaux travaillaient sur des idées de codecs alternatifs. Une entreprise nommée On2, notamment, avait créé une famille de codecs basée sur des idées hors du champ des brevets MPEG et avait déposé ses propres brevets pour éviter de se faire marcher sur les pieds. En 2001, elle publia une technologie de codecs appellée VP3 en open source, technologie protégée par ses propres brevets. Cette technologie constituait la base de ce qui devint Theora. On2 continua à travailler pour produire une série de codecs dédiés à des niches jusqu’à son acquisition par Google en 2010.

Le VP8 était le codec de On2 à la pointe de la technologie, offrant à la fois une excellente qualité d’image et une bonne compression des données. Peu après l’acquisition de On2 par Google, ce dernier rendit libre l’utilisation de VP8, créant un engagement d’ouverture pour tous les brevets lui étant liés, et déclara que le nouveau projet WebM offrirait un format totalement libre et ouvert pour la lecture de vidéos.

Évidemment, MPEG-LA a senti la menace et a rapidement décidé de contre-attaquer. Il a presque immédiatement annoncé la constitution d’un portefeuille de brevets pour vendre des licences sur des brevets qu’il était certain que WebM et VP8 violaient, et a invité les détenteurs habituels de brevets à lui communiquer toutes informations sur ces brevets.

Une lueur d’espoir

Et puis … plus rien. Il semble que les coups d’épée de MPEG-LA étaient plutôt des bruits de fourreau. L’accord avec MPEG-LA que Google a annoncé était formulé avec beaucoup de soins pour ne pas froisser les parties prenantes, mais il semble indiquer que MPEG-LA avait les mains vides :

Aujourd’hui, Google Inc. et MPEG-LA, LLC ont annoncé qu’ils ont conclu un compromis qui accorde à Google une licence sur les techniques, quelles qu’elles soient, qui pourraient être essentielles à VP8. De plus, MPEG-LA a accepté de mettre fin à ses efforts pour constituer un portefeuille de brevets autour de VP8.

Vous pouvez constater qu’il n’y pas grand-chose de valeur qui soit licencié dans ce cas, puisque Google est apparemment autorisé à :

…rétrocéder les licences à n’importe quel utilisateur de VP8, que l’implémentation de VP8 soit celle de Google ou d’une autre entité : cela signifie que les utilisateurs peuvent développer des implémentations de VP8 indépendantes et bénéficier de la protection accordée par la rétrocession de licence.

Le communiqué continue avec deux déclarations importantes. Premièrement, Google a le projet de soumettre VP8 à MPEG pour standardisation. Cela constituerait un profond changement d’orientation, qui pourrait orienter les futurs efforts hors du maquis des brevets et vers des territoires plus ouverts. Deuxièmement, Google a l’intention de proposer VP8 comme codec « obligatoire à implémenter » dans le groupe RTCWEB de l’IETF qui définit les protocoles permettant les communications en temps-réel dans les navigateurs Web : WebRTC.

Si tout cela réussissait, cela ouvrirait de grandes opportunités pour les logiciels open source et le web ouvert. Libérés de la course à la rente des détenteurs de brevets, les développeurs open source seraient enfin libres d’innover dans le domaine des applications audio et vidéo sans avoir en permanence à surveiller leurs arrières ou à demander la permission.

Naturellement, de puissants groupes d’intérêts continuent à essayer de ralentir, voire interrompre, cette révolution. À peine Google avait-il publié son communiqué à propos de VP8, de l’accord avec MPEG-LA et de son intention de standardiser, que deux messages furent postés sur la liste de discussion de l’IETF-RTCWEB. Le premier, envoyé par le collaborateur de Microsoft Skype Matthew Kaufmann, essayait de ralentir les progrès vers la standardisation et invoquait les règles et le débat pour tenir VP8 hors des prochaines discussions de standardisation. Le deuxième, envoyé par l’ancien spécialiste des brevets de Nokia Stephan Wenger, invoquait aussi les règles mais plus inquiétant, sous-entendait que MPEG-LA n’était pas seul à pouvoir jouer ce jeu là. Cette crainte prit bientôt corps dans un message du collaborateur de Nokia Markus Isomaki annoncant que Nokia — qui n’est pas membre de MPEG-LA — avait l’intention de démontrer que VP8 enfreint un de ses brevets.

C’est la vie de tous les jours dans le monde des codecs et c’est riche d’enseignements sur les dangers des brevets logiciels. Une fois acceptés et institutionnalisés comme processus normaux et légaux, ils contrôlent tout le reste. Bien que VP8 vienne d’un héritage technologique différent, ayant prudemment évité la masse des brevets déposés lors des premiers travaux sur le MPEG, et ayant ainsi été scrupuleusement ouvert par Google (il devait se corriger lors du processus, ce qu’il fit admirablement), le monde oppressant des brevets tente de le faire tomber dans ses griffes et de le contrôler, afin de le soumettre à la taxation sur l’innovation imposée par les vainqueurs de la première course technologique.

Nous ne pouvons pas faire grand-chose à part observer avec anxiété l’initiative de Google pour le Web ouvert. Dans cette histoire, il apparaît plus clairement que jamais que la réforme du système des brevets pour aboutir à une société plus juste et harmonisée se fera encore attendre.

Crédit photo : Seth Anderson (Creative Commons By-Sa)

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Philippe Scoffoni : Comment choisir un logiciel libre ou open source ?

mardi 19 mars 2013 à 11:23

choisir logiciel libreLe choix d’un logiciel libre ou open source repose sur un ensemble de considérations plus ou moins spécifiques. Certaines considérations sont communes aux logiciels propriétaires, comme la couverture fonctionnelle. D’autres sont plus particulières et entraînent souvent bon nombre d’interrogations, voire font reculer les utilisateurs potentiels. Un article qui se positionne dans le contexte de l’entreprise.

Un logiciel libre ou open source est… un logiciel

Commençons par éliminer le questionnement le plus simple. Quoi qu’il arrive, cette famille de logiciels reste un programme que l’on exécute sur un ordinateur ou un serveur. Ce programme doit rendre des services attendus par les utilisateurs. Cette première étude, celle de la couverture fonctionnelle et de l’adéquation aux besoins, reste incontournable.

Cependant, l’ouverture procurée par les licences libres ou open source peut amener à être plus “souple” sur ce point. Souvent, lorsqu’un logiciel propriétaire ne dispose pas d’une fonctionnalité qui vous est indispensable, vous n’avez d’autres choix que de chercher ailleurs. Rares sont les éditeurs qui accepteront d’ajouter juste pour vous une fonction. C’est d’autant plus vrai que l’éditeur est gros.

Avec les logiciels libres, ce n’est pas tout à fait aussi fermé. Noter bien que je n’ai pas dit que c’était simple. Si la licence vous autorise effectivement à modifier le logiciel ou à le faire modifier par un tiers, encore faut-il s’assurer que cette modification soit acceptée par ceux qui gèrent le logiciel. Autrement dit, il faudra qu’ils acceptent d’intégrer votre modification dans le code du logiciel.

Dans le cas contraire, vous vous retrouverez avec votre version modifiée du logiciel. Lors de la sortie d’une nouvelle version, il vous faudra à nouveau intégrer votre modification ce qui peut être problématique. Je referme cette parenthèse, car la capacité à reverser le code modifié à un logiciel libre est un point souvent ignoré par les utilisateurs et pourtant hautement stratégique.

Communauté, intégrateur, éditeur

C’est là que les choses se compliquent quelque peu avec les logiciels libres ou open source. Ils sont portés par une grande diversité d’acteurs. Nous sommes en effet habitués au principe de l’éditeur de logiciel. Une entreprise qui développe et commercialise le logiciel.

Ici, on peut identifier au moins quatre grands types d’acteurs :

Bien sûr il existe des modèles mixtes entre ces différents acteurs où se croisent parfois l’amateur et l’entreprise. Il convient de porter une attention particulière à la façon dont sont organisés le projet et les acteurs.

Difficile de dire sans étudier le contexte et les attentes de chacun quel est le meilleur modèle. Certains  préféreront le logiciel porté par un éditeur pour avoir l’assurance d’obtenir une réponse compétente aux problèmes rencontrés avec le logiciel, tandis que d’autres préféreront les logiciels communautaires, jugés plus pérennes.

Le projet

On s’intéressera à l’historique du projet, s’il est issu d’un “fork” (la séparation d’un même projet en deux projets distincts) ou en passe d’en être victime,  son âge, mais aussi  sa feuille de route si elle existe et est accessible. Comme pour un logiciel classique, la communauté des utilisateurs est un indicateur. Dans le cas des logiciels libres, on recherchera l’existence de références significatives dans le monde de l’entreprise.

On parcourra les forums ou listes de diffusion associées afin d’évaluer l’activité du projet. Un autre critère à étudier est d’essayer d’identifier le nombre de développeurs qui contribuent réellement à un projet. Parfois, il peut exister un très grand déséquilibre entre l’adoption d’un logiciel libre et le nombre de développeurs qui le portent réellement.

Un autre point important est la nature des contributeurs. Dans les communautés industrielles, un projet peut être fortement dépendant d’une entreprise qui poussera les développements dans le sens qui l’arrange et pas forcément dans l’intérêt de l’utilisateur final. En somme : plus le nombre de contributeurs est élevé et leurs origines diverses, plus c’est un gage d’indépendance et de pérennité pour l’évolution du projet.

Les licences de logiciel libre impliquent qu’il y a un détenteur des droits sur le projet. Un point qu’il faut analyser pour savoir si le projet peut facilement ou pas changer de licence. Ce point est assez complexe à étudier. La nature de la licence et sa “permissivité” (capacité à modifier et encapsuler  le logiciel dans un logiciel fermé) sont à prendre en considération également.

Bref, n’hésitez pas à vous faire aider si vous n’y voyez pas assez clair par un spécialiste du logiciel libre ;-) .

Pour en savoir plus

Reportez-vous à ma présentation sur l’économie du logiciel libre.

Crédit Image du domaine public (CC0), Pixabay


Réagir à cet article

Article original écrit par Philippe Scoffoni le 19/03/2013. | Lien direct vers cet article

Cette création est mise à disposition sous un contrat Creative Commons BY à l'exception des images qui l'illustrent (celles-ci demeurent placées sous leur mention légale d'origine).

.

Gravatar de Philippe Scoffoni
Original post of Philippe Scoffoni.Votez pour ce billet sur Planet Libre.

Tigrou Damien : URXVT, my new terminal emulator

mardi 19 mars 2013 à 08:12

A terminal emulator is like a pair of hiking shoes, it takes time to choose it but it's a good sign if you don't pay attention to it after a while. For about 2 years, I have used Terminator on all my machines. Terminator is a very powerful terminal emulator with a lot of features. Among others, it has tabs, it handles true transparency, it detects urls, it allows to split each tab into several embed terminals... On the other hand, Terminator is also quite slow and for a tool you use several hours a day, that's annoying. So I was looking for a faster and lighter alternative with at least tabs, url detections and not too many dependencies.

Some days ago, while trying different plugins for my vim setup, I (re)discovered URXVT (man urxvt) and I realized that you can add plugins to it and through some of them, it supports tabs and URL detection and more! So I switched to URXVT. My configuration (to put in ~/.Xdefaults) is available on Github. To get the tabs, you need to put the tabbedex plugin in the directory ~/.urxvt/. This plugin replaces the default one (called tabbed); it allows to rename tabs, to put the title of the focused tab next to the tab bar, to hide the "new" button...

This gives the following result:

2 URXVT
window

To handle the tabs, the following keyboard shortcuts are available:

For now, the only missing feature is the ability to split vertically or horizontally the terminal. URXVT is not able to do this on its own so I'll have to use an external tool like GNU screen (man screen) or tmux but that will be for another post.

Gravatar de Tigrou Damien
Original post of Tigrou Damien.Votez pour ce billet sur Planet Libre.

Ehvince : Le livre «Facebook, anatomie d’une chimère» : court et complet

mardi 19 mars 2013 à 02:27

Le livre «J’aime pas facebook» du groupe Ippolita convient parfaitement à celles et ceux déjà  rôdés un tant soit peu par les multiples facettes de la question, et passablement motivés de se  taper un ouvrage long et «cher».

Heureusement, les éditions du Collectif des Métiers De l’Édition (CMDE) nous livrent  avec «Facebook, anatomie d’une chimère» un livre court, accessible au profane,  (presque) complet et pas cher : voilà l’heureux élu que vous pourrez acquérir, prêter et  offrir autour de vous.

L’ouvrage de Julien Azam traite de plusieurs points essentiels pour dessiner un contour  complet de la chimère : le modèle économique basé sur la publicité et la collecte des  données personnelles des utilisateurs (et sa vente, son échange ou sa «perte» au bénéfice de  multiples acteurs), le modèle prôné de société hyper-capitaliste, l’apparence de l’amitié et le  rapport au monde que l’on se forge à travers de l’usage de facebook, son pseudo-rôle dans  les révolutions arabe, et enfin facebook comme outil de contrôle social.

Un point fort du livre est qu’il adopte une vision globale, étant donné que «une critique cohérente des réseaux  dits sociaux ne peut pas faire l’économie de la critique plus globale de la société dans  laquelle ils s’inscrivent». Nous croiserons donc de multiples références à «La société du  spectacle» de Debord ou à Marx. Et le langage reste simple. L’auteur a également fait  attention à rendre son ouvrage accessible aux «dépassés, déconnectés et inadaptés au monde  actuel» par un utile rappel en début d’ouvrage, et en ne l’alourdissant jamais de termes  abscons.

Néanmoins, l’auteur tombe de temps en temps dans des facilités et certaines parties  auraient bénéficées d’être plus fournies. Nous avons été gênés par ce que nous qualifions de  «tics de rédaction». Par exemple, dire que «les sites communautaires […] ont rendu familière  jusqu’à la tendance de gérer sa vie sur Internet» (p.28) nous parait une affirmation d’abord  trop généraliste, une phrase qu’on dirait formulée par des critiques n’ayant jamais utilisé de  site communautaire, et elle nous parait trop alarmiste. Ce genre d’affirmation fait croire à une  intelligence propre de la technologie et participe ainsi à la construction de la chimère (de chimère : vaines imaginations (dictionnaire É. Littré)). Autre exemple relevé page 43 :  «les réseaux sociaux promettent un changement majeur dans le fonctionnement social des  années à venir, obligeant à y adhérer,sous peine de se priver de vie sociale ou de ne pouvoir  accéder que de manière marginale à internet». Si de nombreux arguments peuvent aller en ce  sens, et nous lisons des nullités de ce genre sur lemonde.fr (de nombreuses affirmations de  cet article sont tout bonnement fausses), cette phrase souffre des mêmes travers.

Quand l’auteur attaque très justement Suckerberg et sa croisade hyper-capitaliste, nous  avons envie de lui faire lire la partie équivalente de «J’aime pas facebook», autrement plus  complète. Ici, l’auteur s’en tient à Suckerberg et lui impute toutes les responsabilités, sans  parler des investisseurs aux manettes qu’un article du Guardian a pourtant mis en lumière  depuis longtemps. C’est néanmoins le seul manque que nous avons décelé.

Enfin, et vous ne serez pas surpris, nous regrettons plus sincèrement le manque de vision alternative et constructive. Le lecteur se sent bien démuni en sortant de sa lecture (et c’est pareil avec «J’aime pas Facebook»). La notion de réseau centralisé est très bien expliquée. Mais les mots «distribué» ou «décentralisé» n’apparaissent jamais ! Nous ne reprochons pas au texte de ne pas même évoquer des réseaux différents (libres et distribués) qui essaient de faire des choses différemment (n-1 de Loréa, Diaspora dont la notion d’amis n’est pas totalement binaire, …), bien au contraire (si nous aimons les réseaux libres et distribués, nous gagnerons également à lire ce livre). Bien que ce ne soit pas le but du livre, il manque  quand même des pistes pour penser ces technologies (et Internet) autrement.

C’est pourquoi nous vous invitons à acheter ce livre (il vaut bel et bien le coup d’être lu, nous  y apprendrons tous des choses), et à l’offrir en l’accompagnant… de notre brochure :)

«Facebook, anatomie d’une chimère», Julien Azam, éditions CMDE, 11€, 90 pages. Sorti le 7 février 2013, disponible dans toutes les bonnes librairies.

edit : si vous êtes une association, à plus forte raison un GUL, le CMDE peut vous envoyer gratuitement un service de presse du livre contre paiement des frais de port (1,70€ payables par l’envoi d’une vignette de La Poste). Ils peuvent ensuite vous le vendre avec une remise de 40% pour que vous le vendiez auprès de vos adhérents.

Alternatives à Facebook, libres et décentralisées

Penser internet autrement : «Sans médias libres, pas de liberté de penser», Eben Moglen


Classé dans:alternatives à facebook, critique de facebook, critique facebook, enjeux politiques, livre, livre sur facebook, réseaux sociaux, Uncategorized Tagged: critique de facebook, livre, planet-libre

Gravatar de Ehvince
Original post of Ehvince.Votez pour ce billet sur Planet Libre.

Slobberbone : check_file_content : Plugin Nagios tout terrain pour consulter le contenu d'un fichier

lundi 18 mars 2013 à 23:20

Présentation

Ce projet est un projet sous licence GPL v2. Cette commande est un plugin pour Nagios 3.x, développé en PERL et oui, on prend les mêmes et on recommence ;) )

Son objectif est de permettre de consulter un fichier local ou sur le réseau et de retourner des alertes selon la présence ou non d'une suite de mots passés en paramètre. Dans un premier temps, le plugin ne prend en compte que le protocol samba, mais ça ne devrait pas être compliqué d'en intégrer d'autres.

Ce plugin permet de :

Pour le reste, je vous laisse parcourir le fichier, tout doit être dedans ;)  et assez explicite ! Sinon, vous savez où me trouver ;)

Installation

Vous l'aurez compris, pour l'utiliser, il suffit d'un serveur Nagios (Installer Nagios sur CentOS sans RPM) sur lequel vous aurez installé les packages suivant :

# yum install perl perl-Filesys-SmbClient

Une fois fais, il ne vous reste qu'à placer check_file_content.pl dans le répertoire libexec de votre arborescence Nagios :

# chmod +x check_file_content.pl

Et voilà, le tour est joué !

$ perl check_file_content.pl --help

Check_file_content for Nagios, version 1.0
GPL licence, (c)2013 Slobberbone

Site http://www.slobberbone.net

Usage: check_file_content.pl -f -P [-u -p -d ] -s <"search_expression"> -t [-w -c ] -V
-h, --help
print this help message
-f, --filepath=PATHTOFILENAME
full path to file to analyze
-P, --protocol=PROTOCOL
protocol used to acess file :
LOCAL for local file (default),
SMB for CIFS file
-u, --user=USER
user to login
-p, --password=PASSWORD
password
-d, --domain=DOMAIN
domain name
-s, --search="EXPRESSION", if empty looks for lines present in the file
expression to search in the specified file
-t, --check_type=TYPE
Type of search :
INCLUDE for include at least the critical option, then the warning option
EXCLUDE for exclude with a maximum of founded expression smaller than critical option
-w, --warn=INTEGER
number that will cause a warning
-c, --critical=INTEGER
number that will cause an error (Default: 1)
-V, --version
prints version number
Note :
The script will return
* With warn and critical options:
OK if we are able to found expression and the count result respect and depending check_type,
WARNING if we are able to found expression and the count result unrespect and depending check_type,
CRITICAL if we are able to found expression and the count result unrespect and depending check_type,
UNKNOWN if we aren't able to read the file

Configuration

Pour que ce plugin soit opérationnel avec notre serveur de supervision Nagios (ou Shinken), il faut ajouter dans le fichier commands.cfg :

# 'check_file_content' command definition
define command{
    command_name    check_file_content
    command_line    $USER1$/check_file_content.pl -f $ARG1$ -P $ARG2$ -u $ARG3$ -p $ARG4$ -d $ARG5$ -t $ARG6$ -s $ARG7$ -w $ARG8$ -c $ARG9$
    }

Puis, il ne vous reste plus qu'à l'appeler de la manière suivante :

define service{
    use            generic-service
    host_name        my_file_server
    service_description    Include at least 4 instances of "Provider : OK" in mytest.log
    check_command        check_file_content!smb://server/dir/file.log!SMB!user!password!domain!INCLUDE!"Provider : OK"!5!3
    normal_check_interval    10
}

Et voilà, il ne reste plus qu'à modifier ce projet pour vos propres besoins ! Pour ça, direction SourceForge.net !

Si vous avez des questions, les commentaires sont ouverts !

Gravatar de Slobberbone
Original post of Slobberbone.Votez pour ce billet sur Planet Libre.