PROJET AUTOBLOG


Reflets.info

source: Reflets.info

⇐ retour index

Les cassandres du GIEC et le matheux têtu…

jeudi 13 décembre 2012 à 16:43

 

C’est à la suite de la publication de la vidéo d’Arte sur la conférence de Doha (et du pseudo débat qui eut lieu lors de cette émission) que nécessité s’est faite d’interroger le mathématicien « sceptique », Benoît Rittaud alors présent sur le plateau. Il faut savoir qu’il n’y a pas que les climatologues d’impliqués dans la recherche sur le climat : de nombreux corps scientifiques en font partie, et les mathématiciens, comme Benoît Rittaud au premier chef, avec par exemple le calcul de la température moyenne du globe. Posons bien les bases de cet entretien vis à vis du réchauffement climatique anthropique, devenu « changement » puis « dérèglement » climatique en quelques années : il est ici question de permettre à un scientifique qui a écrit un ouvrage très précis, argumenté et référencé sur le sujet, ouvrage qui conteste les discours du GIEC (relayés de façon massive par les médias dominants et les politiques), de s’exprimer librement. Rien d’autre.

Le réchauffement qui a eu lieu lors des années 80 et 90 n’est pas mis en cause par Benoît Rittaud qui se base sur de nombreuses recherches de « sceptiques » sur le climat. Ce qui est mis en cause par le mathématicien est avant toute la démarche scientifique des rapports ainsi que des modèles utilisés par le GIEC. Mais aussi le refus d’admettre des erreurs, des incohérences qui s’accumulent sur la tête des partisans d’un « dérèglement climatique » causé par l’homme et ses rejets de gaz à effet de serre, Co2 en tête. Parce que cette affaire de réchauffement-changement-dérèglement climatique mettant en cause l’humanité dans sa manière de fonctionner n’est absolument pas anodine, touche aux décisions politiques de nombreux domaines, nous enferme dans une vision du monde très particulière, il est intéressant d’entendre quelqu’un qui a étudié longuement le sujet, amène de nombreuses réflexions de fond tout en refusant de se plier à la doxa globale : un amoureux de la science qui rejette les pseudo-sciences, comme l’est la « climatomancie ». Un esprit libre, dont l’ouvrage, « Le mythe climatique » (publié en 2010 au Seuil, collection Science Ouverte), mérite une attention et une audience bien plus large que les discours enflammés et apocalyptiques des « carbocentristes », ces nouveaux écolo-prêtres qui demandent à l’humanité de se repentir, quitte à mentir au delà de l’acceptable…et détourner la science de son objectif unique : décrire la réalité.

Vous avez été comme la plupart d’entre nous un défenseur de la thèse du réchauffement climatique uniquement causé par les rejets de gaz à effets de serre humains : quand avez-vous changé de vision et pourquoi ?

Benoît Rittaud : « Défenseur » est un terme un peu fort : disons que j’adhérais passivement à l’idée, d’autant plus facilement que le climatoscepticisme n’existait pour ainsi dire pas dans les médias. Je ne m’intéressais pas spécialement au sujet, jusqu’au jour où j’ai voulu séparer le bon grain de l’ivraie. Comme beaucoup de monde sans doute, j’ai une méfiance instinctive envers les discours catastrophistes. J’étais persuadé que la source scientifique de l’alarmisme devait être beaucoup plus prudente que les annonces spectaculaires dont nous étions – et sommes encore – bombardés quotidiennement. C’est donc avec beaucoup de surprise que je me suis aperçu que la sphère scientifique était tout autant happée par cette angoisse de fin du monde climatique que les sphères médiatiques ou politiques. Il m’est très vite apparu que, malgré tout, tout cela était loin de reposer sur la seule science, encore très parcellaire et incertaine. C’était fin 2007. J’ai alors estimé que je pouvais jouer un rôle constructif dans le débat, et c’est ce qui a donné mon livre.  

Votre livre, justement, permet de découvrir des éléments très importants pour comprendre que les choses ne sont pas si simples d’un point de vue scientifique. Ces éléments sont publics, et pourtant très peu médiatisés. Il y a par exemple la fameuse courbe de hockey… Pouvez-vous nous expliquer cette histoire de courbe, et en quoi elle est importante pour comprendre la « guerre » scientifique qui fait rage sans que le grand public ne soit mis au courant de celle-ci ?

B.R : La courbe en crosse de hockey est une reconstitution de l’évolution de la température globale au cours du second millénaire, qui montre un léger refroidissement, très régulier, jusqu’au milieu du XIXè siècle, moment qui marque le début d’une spectaculaire croissance des températures, donnant à voir une courbe qui a un peu la forme d’une crosse. Publiée en 1998 dans la prestigieuse revue Nature par trois chercheurs américains, Mann, Bradley et Hughes, elle est devenue l’emblème du réchauffement climatique d’origine humaine : le milieu du XIXè siècle correspond au début de l’ère industrielle et du rejet de gaz à effet de serre, il était tentant d’y voir l’origine de la brusque inflexion dans les températures. Il a fallu cinq ans avant que deux climatosceptiques, McIntyre et McKitrick, aillent regarder de plus près la manière dont cette courbe avait été obtenue. Ils ont établi que celle-ci avait été élaborée à partir de données très lacunaires et souvent fausses, mais aussi avec un traitement statistique incorrect. Cette pièce maîtresse de l’argumentaire carbocentriste, qui fut un puissant symbole utilisé pendant des années comme preuve d’un réchauffement d’origine humaine, s’est ainsi révélée n’être rien de plus qu’un artefact sans valeur.

Il est assez stupéfiant de voir que la remise en cause scientifique incontestable de ce graphique n’a rien changé à l’approche sur le réchauffement climatique. Normalement, en sciences, on se remet en question quand on découvre des erreurs aussi importantes : comment expliquez-vous cette situation incroyable ?

B.R : Il est compréhensible que les carbocentristes n’aient pas renoncé à leur théorie sur la base de ce seul revers, si important qu’il ait été. Malgré l’opinion commune, il est courant et normal qu’une théorie scientifique possède des zones d’ombres et qu’il faille faire avec ; la science n’avancerait guère sans cette liberté de passer outre une difficulté, même grave. Les problèmes ont été ailleurs. Le premier est la manière dont les scientifiques ont réagi, en tentant de disqualifier leurs contradicteurs de façon véhémente, et en refusant de divulguer les détails de leur méthodologie ou les programmes informatiques qu’ils avaient utilisés. Le second, c’est de s’être montrés incapables de tirer des leçons pourtant simples de ce fiasco : la nécessité d’impliquer des statisticiens et des spécialistes des bases de données dans ce genre de travail, le devoir de transparence, la nécessaire modestie face à un système particulièrement complexe comme le climat terrestre, l’ouverture à la critique… à l’heure actuelle, les auteurs de la courbe en crosse de hockey n’ont toujours pas reconnu loyalement leurs erreurs, malgré toutes les évidences. L’enjeu d’amour-propre est devenu tel qu’il est peu probable qu’ils soient capables d’un tel effort avant longtemps.

A vous lire, on est presque dans une sorte de guerre de « religions » et la science n’en sort pas grandie… Dans votre ouvrage, « le Mythe climatique », vous parlez de « science pathologique » : pouvez-vous nous expliquez ce concept ?

B.R : L’expression de science pathologique a été proposée par Irving Langmuir dans un exposé de 1953. Il y mentionnait un certain nombre d’exemples de théories scientifiques fausses qui avaient réussi, un temps, à rallier les suffrages d’un nombre important de scientifiques tout à fait compétents. Il identifiait six symptômes de théorie scientifique susceptible de constituer une science pathologique : (1) un effet maximal produit par une cause de très faible intensité ; (2) la nécessité d’un grand nombre de mesures pour pallier à la faible signification statistique des résultats ; (3) l’affirmation d’une très grande précision dans les résultats ; (4) des théories extraordinaires contraires à l’expérience ; (5) des réponses ad hoc aux critiques, faites sous l’impulsion du moment ; (6) un nombre de partisans qui grimpe jusqu’à environ 50% avant de chuter progressivement à zéro. Le carbocentrisme souffre de la plupart de ces symptômes, plus quelques autres liés à la présence de considérations économiques, politiques et idéologiques.

Si l’on se penche sur  le calcul de la température moyenne à la surface du globe, là aussi c’est assez surprenant : vous indiquez qu’une majorité des stations météorologiques sont aux USA, que l’urbanisation a envahi ces stations (autrefois en pleine nature), avec du bitume et de la pollution locale, et que les statistiques sont assez étranges d’un point de vue méthodologique : a-t-on réellement une température moyenne du globe correcte à votre avis ? Parce que si tout est fait un peu de façon un peu amateur, il est quand même assez ennuyeux de nous parler de hausse ou de baisse de température sans que cela soit scientifiquement correct…sachant que la « moyenne » est un concept que vous mettez lui aussi en doute, d’un point de vue mathématique.

B.R : Un gros problème est que la température de la Terre est calculée à partir d’un réseau de stations météorologiques qui n’a pas été conçu pour cet objectif. On essaye de faire de la climatologie globale à partir d’un outil destiné à la météorologie locale. L’outil étant inadapté, il présente de nombreuses imperfections, la première étant une précision insuffisante pour mesurer ce qu’il faut mesurer. Nous parlons d’une augmentation de la température d’environ 0,7°C sur un siècle et demi : combien de stations météo de par le monde peuvent prétendre à une telle précision, et sur une durée aussi longue ? Extrêmement peu. On a donc recours à des rustines mathématiques. Il faut bien faire avec de qu’on a, mais lorsqu’il s’agit de mesurer une variation de température aussi faible, l’on ne peut que constater la faiblesse de nos moyens. D’un point de vue plus général, en effet, la notion même de température de la Terre est déjà contestable, parce que la Terre n’a pas une température homogène et qu’il n’y a pas de moyen théorique de définir une notion de « moyenne des températures » qui aurait un sens physique réel (il faudrait plutôt considérer des quantités de chaleur et non des températures). L’indicateur utilisé de « température de la Terre » est donc doublement problématique :  de graves lacunes théoriques et de graves défauts dans les observations.

Vous indiquez dans votre ouvrage, à propos des variations de températures au cours du temps (telles qu’elles sont référencées), la chose suivante : « Dans les années 20, le réchauffement marque toutefois de nouveaux points car les températures ont tendance à monter. Las ! Dans les années 70, la température recommence à baisser (une baisse amorcée en fait dès les années 40) ».   Au final, le GIEC n’arrive pas à reconnaître ces variations, alors qu’elles sont dans leurs propres statistiques. Vous allez plus loin en effectuant une courbe de température sur des décennies en jetant une pièce de monnaie, et cette courbe est en gros la même que l’on pourrait avoir aujourd’hui… Vous pouvez nous expliquer ce phénomène de variabilité des températures et des méthodes statistiques employées, les modèles informatiques des observatoires et de leur totale opacité en termes informatiques ?

B.R : Personne ne sait vraiment pourquoi la température a évolué comme elle l’a fait depuis le XXè siècle. Non pas que personne ne reconnaisse la forme de la courbe : personne, je crois, ne conteste que les températures ont stagné au milieu du siècle, qu’elles ont augmenté au début et à la fin à peu près à la même vitesse, et que nous soyons aujourd’hui sur un plateau. L’idée générale pour expliquer la stagnation du milieu du XXè siècle consiste à supposer que les aérosols ont freiné le réchauffement (en faisant en quelque sorte écran à la lumière reçue du soleil). Comme on ne sait pas bien quantifier le phénomène, on peut essayer d’en déterminer les paramètres à partir de la courbe de température elle-même. La bonne adéquation qui en résulte ne prouve donc pas grand chose, seulement qu’il est toujours possible de bien coller à une courbe en adaptant comme il faut les paramètres que l’on se donne. C’est une idée étudiée par Gordon en 1991 que la courbe de température pourrait être plus ou moins aléatoire, c’est-à-dire ne pas dépendre de quelques causes majeures mais d’un grand nombre de causes minuscules. Quoi qu’il en soit, le plateau actuel de la température globale, astucieusement baptisé « pause », marque à l’évidence que, même en ne considérant que les plus importantes, les causes de l’évolution de la température à l’échelle décennale ne sont pas toutes connues ou comprises.

Pour finir, quel est à votre sens le devenir du GIEC et de ses prédictions catastrophiques qui se révèlent de plus en plus décalées  ? Vous parlez dans un chapitre de votre livre de pseudo-sciences et de climatomancie…

B.R : Aux côtés de la science existent beaucoup de disciplines non-scientifiques qui en sont des reflets déformés : l’astrologie (pour l’astronomie), la numérologie (pour les mathématiques), l’alchimie (pour la chimie), les médecines parallèles, etc. Ce qui est remarquable, c’est que l’histoire montre que ces disciplines, regardées aujourd’hui comme de la pseudo-science, ont été initialement fondées, et même longtemps prolongées, par des chercheurs par ailleurs éminents : Ptolémée ou Kepler pour l’astrologie, Pythagore pour la numérologie, Newton pour l’alchimie… Une explication est que les scientifiques, confrontés à un objet nouveau ou complexe, peuvent avoir du mal à en déterminer les parties susceptibles d’une investigation rationnelle. Ainsi, le climat terrestre, qui compte parmi les systèmes physiques les plus complexes que nous connaissons, donne un exemple contemporain d’apparition de pseudo-science : à côte de la climatologie, discipline scientifique, se créé la « climatomancie ». Comme pour les autres pseudo-sciences, elle est d’abord l’oeuvre des scientifiques eux-mêmes.

Billets en relation :

flattr this!

A droite on sécurise l’emploi, à gauche, on voit de la flexibilité… Paradoxal ?

mardi 11 décembre 2012 à 09:06

Pour les vieux qui ont connu la franche guerre de tranchées entre droite et gauche à une époque où les blocs de l’Est et de l’Ouest se déchiraient pour savoir qui de l’un ou de l’autre imposerait à la planète sa vision d’un monde heureux et juste, voir le Medef et les journaux classés à droite parler de sécurisation de l’emploi tandis que ceux étiquetés à gauche parlent de flexibilité de l’emploi, il y a de quoi être désarçonné.

Drôle de réveil avec France Info il y a quelques jours qui évoque le début des négociations sur l’emploi entre partenaires sociaux en parlant de « sécurisation de l’emploi ». L’auditeur un peu averti sait en effet que dans cette négociation, le but recherché par le Medef est avant tout de faciliter les licenciements, ce qui est loin d’une sécurisation de l’emploi pour les salariés. Pourquoi France Info a-t-elle choisi cette appellation pour désigner ces négociations et où l’a-t-elle trouvée ? Le reste de la presse a-t-elle fait de même ? Les journaux marqués à droite évoquent ce sujet avec les mêmes mots, Le Figaro, Le Point, l’Usine Nouvelle et même l’AFP mettent tous en avant la « sécurisation de l’emploi ».

Ce terme est issu du  point de presse de la patronne du Medef le 20 novembre. Laurence Parisot en a fait un point particulier de son speech et même, un « intertitre » du compte rendu présent sur le site du Medef.

Dès les premières lignes qui suivent cet intertitre, Laurence Parisot éclaircit son propos. La sécurité de l’emploi se transforme très vite en flexibilisation du marché du travail :

il est absolument indispensable que le concept de flexibilité soit accepté. Pas simplement vaguement entendu de loin ; pas simplement caché sous d’autres mots – adaptation, souplesse, que sais-je encore.(…) Je crois qu’il est temps de – pardonnez-moi ce néologisme – de « détabouiser » le mot de flexibilité. (…) Il s’agit,  premièrement,  de diminuer l’aléa judiciaire qui pèse sur toutes les procédures – que nous soyions dans une logique de relation individuelle ou de relation collective.

Paradoxalement, l’Humanité parle de flexibilité dans son titre et l’oppose à la « sécurité » qui ne serait pas dans les plans actuels du Medef.

Un peu comme si le Medef et l’Humanité donnaient le même sens au mot « sécurité ». En effet, l’Humanité, pleine d’optimisme, semble voir dans ces négociations, un outil de sécurisation du travail pour les salariés. Pourtant, pour le Medef -et le compte-rendu de son point de presse de novembre le démontre, la « sécurisation de l’emploi » est un simple « intertitre » qui une fois développé, devient « flexibilité » et plus de facilités pour licencier.

Faire en sorte que la presse présente les négociations sur l’emploi entre partenaires sociaux comme un moyen de sécurisation de l’emploi n’est pas neutre. Cela permet de se placer, dans l’esprit des salariés concernés, dans le rôle du « gentil ». Et dans cette configuration, il n’est pas impossible que, si ces négociations devaient échouer, le Medef accuse les syndicats d’avoir fait achopper les fameuses discussion sur la « sécurisation de l’emploi« . Ça passerait mieux que « les syndicats ont fait échouer les discussions sur la facilitation des licenciements« . Pourtant, les mots ont un sens… Dit-on.

Billets en relation :

flattr this!

Reflets ouvre sa boutique de Goodies

vendredi 7 décembre 2012 à 14:54

Nous l’avions annoncé depuis le début, mais par manque de temps, cela n’avait pas été fait. Voici la boutique des goodies de Reflets.info. On démarre lentement, mais cela va s’étoffer au fil du temps.

Vous pouvez dès à présent acheter des T-Shirts, une housse pour i-Pad, une casquette ou un bonnet (c’est l’hiver).

Pourquoi cette boutique ? Parce que pour éditer Reflets, nous avons une entreprise, ./Rebuild.sh qui coûte de l’argent (comptabilité). Il nous faut la faire vivre. Nous espérons aussi un jour pouvoir payer des piges pour les journalistes qui publient gracieusement, jusqu’ici, leurs articles sur Reflets.

Comme nous réalisons Reflets sur notre temps libre, le site fonctionne bien en deçà de ses capacités. Nous pourrions, si nous pouvions vivre de cette activité, publier bien plus d’articles. Ce n’est pas le cas. Notre « business model » qui repose sur le don volontaire des lecteurs n’est pas tout à fait au point. Ça marche aux Etats-Unis, pas en France, visiblement.

Pourtant, tout est là pour que cela marche. Depuis janvier, nous approchons les 2 millions de pages vues (nos stats sont brutes et pas bidonnées). Nos articles plaisent. Avec une moyenne de 75.000 visiteurs uniques par mois, nous pourrions dans l’absolu, atteindre largement le montant nécessaire pour payer les piges. Ce n’est pas le cas. Vous donnez, mais vous n’êtes pas assez nombreux dans ce cas.

Alors avec une petite boutique, on aide Reflets à avancer vers sa maturité…

C’est noël, profitez-en pour faire un cadeau qui sort de l’ordinaire…

Billets en relation :

flattr this!

L’ITU et le DPI : ça va être dur d’expliquer ça à ma grand-mère

jeudi 6 décembre 2012 à 19:23

La vulgarisation est un art difficile. Bien entendu, nombre de lecteurs de Reflets sont bien plus calés que nous sur le Deep Packet Inspection et comprendraient très bien, sans vulgarisation, ce que nous pourrions écrire. Mais dans le cas précis, c’est surtout à nos grand-mères, nos mères, M. et Mme Michu, nos enfants, qu’il faut expliquer ce qui suit. Parce que ce qui se décide aujourd’hui à  Dubaï est peut-être le début d’un système de surveillance globale à l’échelle de la planète.

Donc un peu de vulgarisation s’impose. Le DPI, nous vous en avons parlé en long, en large et en travers. Il s’agit d’une technologie permettant de voir ce qui passe dans les paquets IP qui circulent sur Internet. Pas seulement de voir que vous, Gérard Dupont, envoyez un mail à tata Flo, ça c’est déjà possible facilement, mais plutôt, de voir ce que vous avez écrit dans ce mail. Autre application amusante, lorsque vous vous connectez sur un site en tapant votre identifiant et votre mot de passe, le DPI permet de les récupérer (pour autant qu’ils ne soient pas cryptés ou qu’une technique de Man in the Middle ait été mise en place, comme en Syrie avec l’aide de machines BlueCoat). Mieux, avec des outils comme Eagle, développé par Amesys, vous pouvez retracer toute l’activité en ligne d’une personne et dresser un arbre de ses connaissances, de ses interactions avec d’autres personnes. Le rêve de tout dictateur. Et ce n’est pas pour rien que Eagle est vendu à des Etats policiers notoires ou à des dictateurs. Alors pourquoi revenir sur le DPI aujourd’hui ? Tout simplement parce que l’ITU (International Telecommunication Union), le bras armé de l’ONU en matière de standardisation a adopté un standard sur le DPI. Rassurez-vous, on ne sait rien (ou presque) de ce que l’IUT a décidé parce que ses décisions ne sont pas publiques. Populace des Internets, nous décidons pour vous et vous n’avez pas besoin de savoir quoi, parce que nous le faisons pour votre bien. Ceux qui savent ce qu’est un RFC, ce sur quoi s’est construit le Net apprécieront la méthode.

Comme nous ne sommes pas complètement manchots, chez Reflets, nous avons un peu creusé pour voir quelle direction prenait l’ITU. Quelques points nous ont sauté au visage. Le nouveau standard, joliment prénommé Y.2770 (voir les détails sur ZDNet en faisant clic-clic sur le lien ci-avant) est le fruit de longues recherches, discussions au sein du groupe SG13 qui planche, entre autres choses, sur la sécurité et le QoS au sein de l’ITU.

Les deux personnes qui gèrent les réflexions sur la QoS et la Sécurité pour le groupe SG13 (responsable du standard en question) sont Hui-Lan Lu, qui travaille chez Alcatel-Lucent (ainsi que dans d’autres groupes, le fameux Alcatel Shanghai Bell qui s’est illustré en Birmanie), et Haitham Chedyak, qui travaille en Syrie chez nos amis de STE.

 

Nous avons donc, pour plancher sur un standard de DPI , un salarié d’Alcatel dont on sait la perméabilité aux problématiques de Qosmos ou d’Amesys ainsi que des FAI qui voudraient l’implémenter, qui fabrique les gros routeurs de service pour les câbles sous-marins, dont celui qui a permis à la Libye de se connecter avec un débit plus que nécessaire à Internet, mais aussi un employé de STE, le point entrant et sortant de la belle démocratie Syrienne. Tout un programme. On sent que les utilisateurs et le droit à la confidentialité des échanges va être au centre des discussions.

Ah, non, pardon. Dans l’article pointé plus haut, l’auteur indique que le standard de l’ITU doit permettre une application du DPI même si les échanges sont cryptés. En même temps, bon courage. A moins, bien entendu de mettre de jolies autorités de certification aux bon endroits et qu’elles soient imposées aux utilisateurs. Pas sûr que les fournisseurs de contenus ou de services soient très contents, mais on verra.

Dans un autre document de l’ITU, on trouve une bonne définition des usages du DPI. Si le colonel Kadhafi était encore en vie, il aurait pu témoigner. Grâce à Amesys, il avait pu, par exemple, espionner des opposants et les arrêter avec plus de facilité. Si les membres de l’ITU faisaient leur travail consciencieusement, ils interrogeraient le roi du Maroc qui met en place son petit Eagle personnel avec l’aide d’Amesys et d’Alten. On peut encore l’interroger, il est toujours vivant, lui,  et le projet est en cours. Figurez-vous que cela permet de lutter contre « les contenus dangereux« , c’est à dire « le porno » qu’il faut « supprimer« .

 

Pour l’ITU le DPI, c’est ça :

The  Recommendation is targeted primarily at the service requirements, capability requirements and functional requirements of DPI  and performance requirements identifying and defining (if necessary) , standard interfaces to interconnect with other components, taking into account policy-based networks in both packet-based networks (e.g. IPv4/v6) and NGN environment. These requirements will of the Deep Packet Inspection (DPI), including:  (1) provide real-time service awareness,  and ,control and security by partial or entire packet scanning partial or the whole packet for service awareness and control based on static/dynamic  rules in packet-based networks and NGN environment.    

A l’ITU, il n’y a pas que les auteurs du désormais fameux Y.2770 qui planchent sur le DPI. Leurs camarades spécialisés dans les flux vidéo du SG16 ont aussi tenté une définition, tout en précisant qu’il faudrait sans doute s’aligner sur celle du SG13.

Et lorsqu’ils tentent d’observer un outil de DPI, ils trouvent… SNORT. Un bon vieux truc vaudou du monde libre.

ITU : Can I Haz a Pig PleAz ?

 

Ah, ben non. Voyez-vous, ces barbus du monde libre… ce n’est pas la culture de l’ITU :

Section IV.2 highlights that technically SNORT is a good candidate PSL for H.248.DPI. However an issue is the status of the organisation responsible for open source SNORT PSL. The « Snort Community » open source effort is not recognised as an SDO by the ITU-T. I.e. it would not be possible to reference the work via A.5. This presents problems with normatively referencing their work. The company behind this effort is SourceFire and they are not a member of the ITU-T. There may be copyright/patent issues associated with this organisation. These issues would need to worked through.

Billets en relation :

flattr this!

Altair, Internet et la culture

vendredi 30 novembre 2012 à 19:00

Il y a quelques mois de cela, nous vous parlions du think tank Altair. Ce dernier se proposait d’apporter des réponses aux questions qui animent depuis des années la vie numérique et culturelle dans l’hexagone, dans toute sa singularité. Réunissant des professionnels de la culture et d’Internet, des institutionnels, des associatifs, des acteurs de la société civile,, le Think Tank Altair a finalement accouché de propositions visant à réorienter de manière un peu plus pragmatique les discussions interminables qui débouchèrent sur des textes qui régissent aujourd’hui notre quotidien… comme HADOPI.

Altair livre donc aujourd’hui 7 propositions directement adressées à la commission Lescure. Il s’agit de propositions « offensives » visant à apporter des réponses à des problèmes bien réels, et plus précisément des problèmes que le législateur a toujours évacué, cédant à la simplicité, pour aboutir à des absurdités…

Nous vous proposons donc de découvrir ces propositions, voici le communiqué officiel :

Dans le cadre de son audition,
Altaïr think tank fait 7 propositions à la mission Lescure

30 novembre 2012

Dès sa création, Altaïr Think Tank a placé le numérique au coeur de ses réflexions sur la culture.
Pour lui, le numérique, notamment à travers Internet, est devenu incontournable et indispensable à tous.
Avant même les échéances électorales de 2012, Altaïr Think Tank est passé à l’acte, en organisant, au début de l’année, la première concertation Culture et Numérique qui a réuni pour la première fois durant deux journées de travail en commun une centaine d’acteurs et de personnalités issues de toutes les filières culturelles, des start-up, des représentants associatifs et des utilisateurs.

Cette concertation, élaborée via des méthodes innovantes issues des Barcamps a permis d’aboutir à 27 propositions pour un New Deal Culture et Numérique. Fort de cette expérience qui s’est poursuivie durant les six derniers mois autour d’une plateforme collaborative en ligne, Altaïr Think Tank a exprimé, à la mission Lescure, 7 propositions offensives et d’avant-garde pour qu’enfin l’alliance entre la Culture et le Numérique constitue un pôle de croissance dans les années à venir en France, et en Europe.

Proposition 1 : passer à une méthode de concertation innovante et trans-secteurs, seule manière d’élaborer des idées nouvelles à la mesure des enjeux de compétitivité internationale, de création et de revitalisation du lien social. Réintégrer dans la concertation l’ensemble des acteurs de l’écosystème y compris les associations d’utilisateurs et les internautes, seul moyen de donner force et légitimité à la concertation. Provoquer la création d’une Assemblée constituante Culture et Numérique qui appelle à une loi triennale révisable.

Proposition 2 : une régulation souple par une puissance publique réinvestie qui anime et arbitre le dialogue plutôt que de contraindre les acteurs. Un outil indispensable à créer : l’Agence Nationale du Numérique (ANN), un véritable « CNC » de la Culture et du Numérique.

Proposition 3 : l’expérimentation graduée, un « laboratoire » du numérique à ciel ouvert
L’ANN pourra lancer une série d’expérimentations d’envergure (internet à 5€, plate-forme publique, « cloud » culture, streaming durable,…) qui permettront, comme le font tous les innovateurs du numérique, de «tester pour trouver» en fondant ses décisions sur des données fiables et en investissant progressivement au fur et à mesure des succès.

Proposition 4 : l’accès à un service public minimum du Numérique à 5€ : un FAI public, socialement responsable, et qui permette à tout citoyen l’accès à l’information et à la diffusion du savoir au travers d’internet. Accélérer le déploiement du très haut débit en France tout en garantissant les libertés publiques numériques.

Proposition 5 : faciliter l’accès au contenu culturel par la création d’un « cloud » public : accompagner la distribution de contenu et la diffusion de la culture en France via une plate-forme publique pour valoriser de nouveaux talents et via un soutien aux plates-formes légales à travers une politique de labellisation. Reconnaissance du secteur non marchand.

Proposition 6 : financement et supports : financement croisé des acteurs publics, privés et des utilisateurs (business angels, crowd funding, fonds d’investissement publics). Contributions financières équitables des grands acteurs industriels du web avec des mécanismes de non-répercussion vers les utilisateurs.

Proposition 7 : l’éducation au numérique dans l’enseignement scolaire, associée à l’éducation artistique et culturelle et, en amont, dans la formation des enseignants et professeurs. Le système éducatif a un rôle majeur à jouer dans la lutte contre l’inégalité numérique.

Les querelles entre les industries créatives et le monde du numérique sont sans issue. Nous vivons une crise de civilisation dans laquelle la culture a un rôle central à jouer. Altaïr est convaincu que seule la convergence culture et numérique est à même de construire un avenir qui relève les défis du XXIème siècle.

Premier laboratoire d’idées français consacré à la culture et aux Médias, Altaïr est un think tank indépendant dont l’objectif est d’être une force de propositions d’intérêt général.

ContactAltaïrthinktank:0620348640 /www.altair-thinktank.com/contact@altair-thinktank.com 

Visiter le site web

Billets en relation :

flattr this!