PROJET AUTOBLOG


Framablog

source: Framablog

⇐ retour index

Techno parade

jeudi 14 août 2025 à 08:42

La prétendue « neutralité technologique » est un écran de fumée politique au service d’un discours néolibéral. Face à cela, il ne s’agit pas de rejeter la technologie en bloc, mais de l’aborder selon plusieurs perspectives qu’il faut sans cesse renouveler. Si la technique reconfigure toujours nos rapports sociaux, la bonne approche qui s’impose consiste à résister aux systèmes de pouvoir et de continuer à débattre.


L’arrivée des IA génératives dans le grand public permet d’observer la manière dont s’enchaînent les discours sur les techniques dans la société. Ils s’enchaînent, dis-je, car ils ne naissent pas. Ils se répètent. Et pourtant depuis Marc Bloch et Lucien Febvre, les universitaires ont fait du chemin pour dresser les méthodes et concepts de l’histoire des techniques. À leur tour, l’anthropologie et la sociologie ont spécialisé des branches disciplinaires sur les techniques. Et je pense que depuis les années 1970 il n’y a pas eu un instant où le rapport entre technique et société n’a pas été interrogé. Cela tient sans doute au fait qu’avec les Trente Glorieuses et l’informatisation de la société, les occasions d’identifier de multiples objets d’étude n’ont cessé de se multiplier. Et malgré tout cela, rien n’y semble faire. Une émission de radio (service public) sur l’arrivée des IA génératives (IAg) dans nos usages quotidiens ? elle se terminera invariablement sur le poncif relativiste du « c’est ni bon ni mauvais, tout dépend de comment on s’en sert ».

Je me suis toujours demandé d’où pouvait bien provenir cet indécrottable relativisme qui brouille nos rapports sociaux. Peut-être faut-il en chercher la cause dans le fait qu’on on apprend très tôt que faire usage d’un argument, c’est déjà presque commettre un abus. Dans nos démocraties libérales où, souvent, les égaux sont seulement supposés, parler haut et clair revient à menacer l’autre de le faire apparaître confus — donc à l’opprimer. À moins d’être couvert par le statut d’autorité institutionnelle, ou d’exercer la raison du genre dominant, et donc effectivement exercer un pouvoir, mieux vaut donc se taire ou douter, et retourner bosser. Résultat : une société intellectuellement désarmée, éduquée à la déférence molle au service des « gagnants ».

Alors parlons fort, à défaut parfois d’être clair : ce relativisme est le terreau idéal pour une absorption efficace des discours politiques qui instrumentalisent les idées vaseuses de progrès et de neutralité des techniques. De là vient le pouvoir non des techniques elles-mêmes mais de ceux qui les instrumentalisent. Le débat sur la neutralité des techniques vise deux objectifs : d’une part soutenir la vision instrumentale des groupes d’intérêts économiques, en vue de nous faire croire qu’il faut s’adapter à leur monde, et d’autre part un détournement du cadre de nos libertés qui limite les techniques à leur contrôle hiérarchique. Un autre objectif dont nous ne parlerons qu’à la marge dans ce billet est celui des groupes complotistes : ils concernent des pratiques de déstabilisation politique en vue d’intérêts économiques, mais les étudier revient à partir sur d’autres considérations que celles développées ici.

Ce billet est expérimental. Je vais tâcher d’aligner quelques arguments à partir d’une analyse du relativisme technologique et de son instrumentalisation politique. Je déconstruirai ensuite le mythe de la neutralité de la technique en explorant différentes perspectives entre Marx et Langdon Winner, en envisageant plusieurs postures. Enfin, je tâcherai de trouver une porte de sortie vers une décentralisation des techniques.

Le symptôme idéologique

Il faut l’affirmer ici avec, peut-être, une certaine condescendance envers ceux qui se torturent les méninges à ce sujet : la technique n’est pas neutre, et nous le savons depuis très longtemps que ce soit d’un point de vue purement intuitif ou d’un point de vue épistémologique ou philosophique. Il faut être sérieux sur ce point. La question formulée « La technique est-elle neutre ? » est un artifice dissertatif visant à poser un cadre conceptuel sur le rapport entre technique et société. Et c’est d’ailleurs ce que nous allons faire ici.

Si je précise cela, c’est parce les discours politiques sur la neutralité technologique sont souvent caricaturés : on les réduit à des prises de position légères, comme s’ils ignoraient ou négligeaient les responsabilités liées aux impacts sociaux des techniques. Nous avons nous mêmes pratiqué cet artifice sur le Framablog, par souci de concision (et aussi à cause d’un esprit quelque peu revanchard, mais justifié) lorsque nous avons parlé des mots de la ministre de l’Éducation Najat Vallaud-Belkacem à l’époque de la signature d’un partenariat avec Microsoft. Mais caricaturer amène parfois à ignorer naïvement combien la posture en question est en réalité retorse et malsaine. Les responsabilités ne sont ni négligées ni ignorées, elles sont évacuées par la trame néolibérale à laquelle adhèrent les acteurs politiques. C’est d’autant plus grave.

Il s’agit bien ici de technologie et non de technique. La technique, c’est le savoir-faire, le métier, l’outil, le dispositif. La technologie est un mot plus récent, il décrit l’ensemble du système qui va des connaissances à la mise en œuvre technicienne. Pour faire vite, le clavier est un objet technique, la frappe est une technique, là où il y a une foule de technologies qui font qu’Internet existe. Dans le monde de la décision publique, ce qu’on appelle les politiques technologiques sont les décisions stratégiques (négociations, lois, contrats et accords) qui sont censées donner les orientations technologiques d’un pays.

Dans ce contexte, la plupart des discours politiques, et même des lois promulguées par les élus, postulent une « neutralité technologique » des institutions, des fonctions représentatives, ou plus généralement des organes de l’État. Pour donner un exemple récent, on peut citer l’examen au Sénat Français de la proposition de loi Programmation et simplification dans le secteur économique de l’énergie, dans la séance du 8 juillet 2025. Un amendement (num. 19 rectifié bis) portait sur l’ajout de la mention « neutralité technologique » en complément à la question de la maîtrise des coût. Le rapporteur arguait sur le fond que « la neutralité technologique est un bon principe en matière de politique énergétique, dans la mesure où il permet de ne pas opposer les différentes énergies décarbonées entre elles – il ne faut surtout pas le faire ! –, qu’elles soient d’origine nucléaire ou renouvelables ». L’amendement fut adopté.

Ce principe de « neutralité technologique » se retrouve à de multiples échelons des politiques internationales. Ainsi, les politiques européennes prônent depuis longtemps ce principe au risque parfois de quelques pirouettes rhétoriques. Par exemple au lieu de persister à affirmer que l’objectif consiste à ne plus vendre de voitures thermiques en 2035, la Commission Européenne invoque le principe de neutralité technologique : l’objectif est que les voitures n’émettent plus de CO2, mais comme la Commission est « neutre technologiquement », elle n’imposerait rien d’autre et encore moins les voitures électriques, or il se trouve que les voitures thermiques émettent du CO2…

Qu’il s’agisse de la Commission Européenne ou de ce débat au Sénat Français, ils révèlent tous deux la manière dont le pouvoir de l’État est pensé, c’est-à-dire une tartufferie néolibérale qui impose d’un côté un contrôle effectif à l’encontre de tout favoritisme pour une technologie dont seules certaines entreprises pourraient se prévaloir d’un monopole ou d’une hégémonie, et d’un autre côté une logique de diminution de l’autorité publique sur les équilibres en jeu entre technologie, société et environnement. C’est à la société de se réguler toute seule, « yaka proposer » (pour reprendre les termes de Najat Vallaud-Belkacem). C’est évidemment faire fi de toutes les questions liées à la propriété des techniques (la propriété intellectuelle, entre autre), aux pouvoirs financiers qui fixent les prix et imposent à la société des modèles la plupart du temps insupportables (pour les humains comme la planète en général).

Au sommet de cette tartufferie, on retrouve notre cher président E. Macron affirmant en novembre 2024 :

« Et moi, je me fiche de savoir que l’électron qui m’aide à faire l’électrolyse pour produire de l’hydrogène vert soit un électron qui est fait à base d’éoliens offshore au Danemark, de solaire en Espagne ou de nucléaire en France. Ce que je veux, c’est que ce soit de l’hydrogène européenne compétitive décarbonée. »

Pourvu que ce soit compétitif et que cela satisfasse les accords Européens, la messe est dite. Et pour les conséquences, on repassera.

Terminal de contrôle de la centrale électrique du Fort de Mutzig (1893)

Terminal de contrôle de la centrale électrique de la forteresse Kaiser Wilhelm II (Fort de Mutzig, 1893), produite par l’entreprise Siemens-Schuckert. Ce fort rassemble une foule d’innovations de la fin du XIXe siècle mises au service de la logique de guerre (électricité, télécommunications, armement…). Photographie : Thomas Bresson , CC-By 3.0 (Wikimédia), 2010.

L’injonction néolibérale

C’est pas sans arrière-pensée que j’aborde le sujet de la neutralité technologique par le prisme des postures politiques. Habituellement, on s’interroge sur la manière dont le politique s’empare de la question après avoir analysé le cadre. Or, comme je l’ai dit, nous avons déjà la réponse : la technique n’est pas neutre, on le sait depuis Platon (cf. Le Gorgias). Ce qui est étonnant en revanche, c’est de voir comment le principe de neutralité technologique est en fait un instrument de régulation (ou de non-régulation, justement). C’est ce qui fait par exemple que la souveraineté numérique d’un pays Européen est un objectif géostratégique rendu impossible à cause de l’entrisme permanent des géants multinationaux comme Microsoft qui, au nom de cette neutralité technologique des institutions, ont réussi à imposer leurs systèmes techniques au détriment de solutions alternatives qui ne sont justement pas choisies par la décision publique, toujours au nom de cette neutralité.

C’est là que se fait la jonction. La neutralité technologique des institutions est elle-même un instrument (un sophisme dirait Socrate à Gorgias) car elle trouve sa justification sur deux plans. Le premier : laisser le marché déterminer les coûts tout en garantissant les équilibres concurrentiels sans que les enjeux sociétaux (les externalités négatives) viennent susciter un contrôle intempestif (i.e. : vous pouvez chopper des cancers, les exportations agricoles sont plus importantes que votre santé). Le second : si c’est à la société de s’auto-équilibrer en composant avec l’état du marché qui est lui-même une émanation de la société (vision simpliste du monde entrepreneurial), c’est à elle de proposer des alternatives technologiques et par conséquent toutes les techniques sont en soi neutres puisque c’est la manière dont elles sont employées qui a des conséquences, pas la manière dont elles se répartissent sur le marché.

Pour les institutions dans un monde capitaliste, il importe donc, devant toutes les innovations, de s’interroger sur leurs rentabilités et leur viabilité sur le marché avant que de s’interroger sur les valeurs que leur accorde la société. Si on voit bien que le néolibéralisme n’y accorde aucune importance, c’est justement parce que pour une telle politique, la neutralité de la technique n’est pas un sujet. Le sujet, c’est la libéralisation du marché. On considérera donc qu’une bonne politique sociale, obligée de naviguer dans ce même cadre néolibéral, aura tout intérêt à se soucier de ces valeurs, de la manière dont les technologies sont reçues et incorporées dans la société, afin que les institutions puissent apporter des réponses, des recours (i.e. soigner les cancéreux atteints par la pollution agricole, par exemple). Or, dans la mesure où, comme nous l’avons vu, une politique technologique ne peut ni ne doit favoriser qui que ce soit (par exemple favoriser des entreprises de logiciels libres ou open source au détriment de Microsoft au nom de la concurrence), elle ne peut pas émettre d’avis en faveur d’une technologie ou d’une autre, sauf si cela entre dans une stratégie économique donnée (une orientation générale industrielle, par exemple). Et si une bonne politique sociale ne peut pas changer les institutions du néolibéralisme, elle ne peut que se réfugier derrière la neutralité de la technique et émettre une bonne vieille réponse de normand : c’est à la société de voir comment réceptionner les techniques, pas au politique d’imposer un cadre qui relèverait de la société et non du marché.

Et c’est pourquoi on retrouve un Mitterrand expliquant tranquillement en novembre 1981 que la technique est neutre, que les innovations techniques s’imposent à nous et que c’est une question de maîtrise et de volonté que de faire en sorte qu’on puisse s’en arranger : en somme, il faut s’adapter (maîtriser les techniques, les introduire intelligemment…) :

« (… L)’informatique, parmi d’autres innovations majeures, aujourd’hui, est, me semble-t-il, capable de démultiplier considérablement les moyens de créer et de travailler de chacun. Cela certes, si elle était mal maîtrisée, si elle ne s’inscrivait pas dans un projet d’ensemble, l’informatique pourrait n’être, comme tant d’autres sciences et techniques, qu’une agression supplémentaire des individus, la source d’une aggravation de l’insécurité et du chômage, des inégalités, des oppressions. Elle pourrait conduire à une solitude croissante de l’homme, abandonné à un face à face tragique avec des objets de plus en plus sophistiqués, de plus en plus capables de raisonner et de communiquer entre eux.
Mais, au contraire, si elle est introduite intelligemment, dans le contexte d’un projet global de société, elle pourra transformer la nature du travail, créer des emplois, favoriser la décentralisation, la démocratisation des institutions, donner au commerce, au travail de bureau, à la poste, à la banque, aux entreprises petites et moyennes, des outils efficaces pour se développer. Enfin, et peut-être et surtout, elle apportera à la santé des hommes, à leur formation, à leur culture des moyens sans comparaison avec ceux dont ils disposent maintenant pour s’exprimer, leur permettant de multiplier, à un échelon considérable, leurs moyens d’apprendre, de créer et de communiquer. »

C’est ce genre de réflexion qui eut des conséquences tout à fait concrètes dans la société française. Par exemple : le plan Informatique Pour Tous lancé en 1985. Avant de devenir l’échec que l’on connaît, il eu un intérêt certain pour les élèves (dont moi) qui en ont bénéficié et qui ont pu se frotter à l’informatique et à la programmation très tôt. Mais, au fond, ce Plan ne disait pas autre chose que c’est à chacun de s’adapter à l’informatisation de la société, une « Révolution » qui n’est autre que la révolution des entreprises qui se lançaient toutes dans la grande aventure de l’optimisation de la production grâce à l’économie des données informatiques (c’est ce que j’ai montré dans mon bouquin). Message reçu par les enfants : l’informatique change le monde, si vous ne vous y mettez pas, c’est le chômage qui vous guette. Injonction néolibérale par excellence.

Le néolibéralisme a mit un demi-siècle pour imposer au monde ses principes. Alors que le libéralisme pensait à un « homme économique », le néolibéralisme pense l’homme en situation de concurrence permanente, c’est un humain « entrepreneur de lui-même », un mélange de volontarisme individuel et d’abdication des valeurs collectives et de commun. M. Foucault l’analysait ainsi dès 1979 : « Il s’agit de démultiplier le modèle économique, le modèle offre et demande, le modèle investissement-coût-profit, pour en faire un modèle des rapports sociaux, un modèle de l’existence même, une forme de rapport de l’individu à lui-même, au temps, à son entourage, à l’avenir, au groupe, à la famille. » (Foucault 2004, p. 247)

Dans nos subjectivités à tout instant l’injonction néolibérale résonne. C’est l’objet du livre de Barbara Stiegler (Stiegler 2019) qui résume la conception de Walter Lippmann, selon laquelle l’homme est incapable de s’adapter par nature à un état du monde qui s’impose et ne négocie pas (l’état économique industriel et productiviste du monde) et que c’est à l’État d’impulser la transformation de l’humain par l’éducation ou l’hygiénisme. Il en résulte cette injonction permanente, soit par des techniques comme le nudge et le jeu de l’influence-surveillance des individus, soit par l’autorité parfois brutale qui nous soumet aux dogmes néolibéraux.

Pour le discours politique de la « neutralité technologique », les innovations sont inéluctables, peut importe qui les produit et pourquoi. Que les plateformes aient créé un capitalisme de surveillance qui produit de la haute rentabilité sur la marchandisation de nos intimités numériques est un sujet qui n’est finalement pas interrogé par la décision publique sauf sur un mode réactif après moult plaidoyers et recours juridiques. Il faut s’y faire, c’est tout, parce que c’est ainsi que fonctionne l’économie numérique. On ira faire des courbettes à Zuckerberg et Musk pour leur demander de bien vouloir respecter le RGPD et verser quelques miettes pour toute indemnité.

C’est ce qui défini le « progrès technologique » : dans le cadre néolibéral, l’émergence des innovations et leur rôle dans la sphère économique sont conçus par le politique, de droite comme de gauche, comme une logique de marché à laquelle la société doit s’adapter. En matière d’économie numérique, par exemple, on sort de l’équation toute idée d’autogouvernance (pour ne pas dire autogestion) des outils numériques, ainsi que toute possibilité de réflexion collective qui irait à l’encontre des logiques de marché au profit des valeurs de justice ou de bien-être portées dans la société.

Dans un livre co-écrit par l’ex-syndicaliste (viré bien à droite dans ses vieux jours) Jacques Juillard et le philosophe Jean-Claude Michéa, les deux auteurs s’échangent des lettres (Michéa, Julliard 2018). Pour le premier, « Le progrès technique est axiologiquement neutre, (…) et le mauvais usage qui en a été fait par le capitalisme sous sa forme sauvage et prédatrice ne le condamne pas ». Dans sa lettre-réponse, le second lui rétorque, à raison, de prendre en compte niveau de complexité d’un système technique et d’interroger l’« usage émancipateur et humainement positif » des innovations. J.-C. Michéa souligne : « Or à partir du moment où l’accumulation du capital (…) ne repose pas sur la production de valeurs d’usage mais uniquement sur celle de valeurs d’échange (…), il est inévitable que le système libéral en vienne peu à peu à soumettre le pouvoir d’inventer lui-même au seuls impératifs de la rentabilité à tout prix. »

Se demander si les techniques sont émancipatrices et en faire un principe d’action et de décision, c’est éclater le carcan néolibéral dans lequel le politique s’est fourvoyé depuis tant d’années.

Un contrôle autoritaire

Mais il y a d’autres choix. Avant d’engager plus loin la réflexion, arrêtons-nous un instant sur les libertariens comme Peter Thiel (on se pincera le nez). Si nous nous interrogeons sur les « usages émancipateurs » des techniques, c’est que la conjoncture actuelle n’y est pas favorable. Une autre solution pourrait donc, comme le fait P. Thiel, consister à comparer les périodes et regretter que le rythme des innovations et de leur imprégnations dans la société soit fortement ralenti ces dernières années (Thiel 2025).

Une analyse économique pourrait nous montrer qu’il en va ainsi des cycles des innovations. Par exemple l’informatisation de la société a atteint un point d’inflexion, un ralentissement de croissance, une phase asymptotique où, bien que des nouveautés apparaissent, leur diffusion ne joue pas un grand rôle dans l’économie globale. Par exemple l’arrivée des IA génératives fait certes beaucoup parler, mais les équilibres économiques ne changent guère si ce n’est du point de vue des valeurs spéculatives (les « gros » restent les mêmes) créant une bulle technologique en manque de rentabilité. En pratique, si de nouveaux usages apparaissent, on est encore loin du bouleversement structurel de l’informatique d’entreprise des années 1970 ou de l’arrivée d’Internet dans les foyers. N’ayant pas de boule de cristal, je suppose qu’il est possible qu’un renversement se produise, néanmoins, pour l’instant, rien de semblable et on se préoccupe plutôt d’une économie de guerre, ce qui n’est pas plus réjouissant.

Or, P. Thiel propose un autre point de vue. Selon lui, si les techniques nous opposent des risques existentiels, comme la bombe atomique, nous avons tout fait pour ralentir leurs rythmes d’innovation, de création, et de changements sociaux. La raison plus profonde, c’est que les gouvernements au pouvoir on laissé (selon le cadre néolibéral) se développer des contraintes qui, aux yeux de P. Thiel, sont bien trop importantes pour que le « progrès » technique puisse se développer correctement et « augmenter » l’humanité. Les structures institutionnelles ont satisfait les revendications sociales et la politique fait bien trop appel à l’expertise scientifique, réputée contradictoire et laissant trop de place au doute. Telles seraient les causes de ce ralentissement. Il faudrait donc sortir de ce cadre, et effectuer des choix stratégiques qui accélèrent les techniques « bénéfiques » et contrôlent celles que l’on jugerait dangereuses. Reprenant les idées du philosophe transhumaniste Nick Bostrom, P. Thiel affirme que la solution pourrait consister en…

« un gouvernement mondial efficace, avec une police extrêmement efficace, pour empêcher le développement de technologies dangereuses et forcer les gens à ne pas avoir des opinions trop diverses — car c’est cette diversité qui pousserait certains scientifiques à pousser des technologies qu’ils ne devraient pas développer. »

En somme une dictature bienveillante en faveur du transhumanisme, qui ne prendrait pas en compte l’axiologie, trop complexe pour définir une unique ligne conductrice autoritaire. En d’autres termes, débarrassons-nous de la morale et de l’éthique qui ne font que nous embrouiller. Quant à savoir qui seront les dépositaires de l’autorité : ceux qui produisent ces techniques, bien entendu, et qui prennent l’engagement que l’humanité ne tombera pas dans la catastrophe qui nous attend si nous continuons à développer les techniques de manière erratique (Slobodian 2025 ; Prévost 2024).

On voit ici que ce monde sans démocratie que voudrait nous imposer ce type de libertarien remet assez radicalement en cause la prétendue « neutralité technologique » des institutions. Il affirme d’autant moins que la technique serait neutre. C’est au contraire une position assumée que de dire que, la technique n’étant pas neutre, il nous faut une structure de gouvernement capable de la contrôler tout en contrôlant les intérêts des novateurs. Nous reviendrons plus loin sur la question du contrôle car elle implique assez directement celle des conditions de nos libertés. Toujours est-il que cet exemple de P. Thiel montre que le plus important est de définir le cadre épistémique et axiologique dans lequel on se place pour parler de la prétendue neutralité des techniques et que, justement, c’est parce que nous remettons sans cesse en jeu cette problématique que nous faisons évoluer le rapport entre technique et société. C’est là tout l’intérêt de s’interroger sur cette neutralité (depuis Platon).

Humains et machines

Extrait du film d’animation Wall-E réalisé par Andrew Stanton (Disney/Pixar), 2008.

On ressort le vieux Marx

Le premier réflexe que nous pourrions avoir face à ce qui précède, consisterait à établir une opposition stricte entre les structures de domination du capitalisme, les possédants de l’outil de production, et les autres, travailleurs, utilisateurs. Les dispositifs techniques seraient des instruments d’aliénation et non d’émancipation. De là émerge une conception économique de la situation qui voit dans le développement des technologies un horizon de libération de la condition humaine à condition de se libérer de la domination capitaliste. C’est une vision du rapport social à la technique qui s’oriente vers une certaine idée de la neutralité de la technique en tant que simple instrument : dans les mains des capitalistes (ou des libertariens aujourd’hui) la technique est un instrument de domination.

Dans ce cas, le pivot est Marx et l’épouvantail serait le luddisme. En effet, une lecture un peu rapide de Marx ferait de notre ami à barbe grise l’un des tenants de la neutralité de la technique. Que nous dit-il, après avoir raconté quelques épisodes où, dans l’Angleterre des XVIIe et XVIIIe siècles, des ouvriers privés d’emploi à cause des innovations qui automatisaient une grande partie de leurs tâches finirent par y mettre le feu ?

« Il faut du temps et de l’expérience avant que l’ouvrier apprenne à distinguer la machinerie de son utilisation capitaliste, et donc à transférer ses attaques du moyen matériel de production lui-même, à la forme sociale d’exploita­tion de celui-ci. » – (Marx 1993, p. 481)

Partant d’un certain bon sens, ce n’est évidemment pas par un acte de destruction sans revendication claire qu’on gagne une cause… Rien ne nous dit non plus que ces ouvriers des siècles passés n’avaient pas de revendication autre que celle de retrouver leur emploi. Mais c’est aussi la thèse de Marx que de montrer que ces révoltes sont un préalable à un mouvement ouvrier de prise de conscience de sa propre classe (et pour certains historiens aussi, c’est un peu ce que montre E. P. Thompson, dans La formation de la classe ouvrière anglaise). Cependant, à partir de cette citation, on conclu généralement que selon Marx, les machines et plus généralement les techniques de production sont neutres, elles ne seraient que des instruments qui, dans certaines mains seraient des instruments de domination, dans d’autres, seraient des instruments de libération de classe.

En réalité, Marx adopte une approche articulée autour de deux aspects. Le premier consiste en une analyse des rapports sociaux, qu’il considère comme fondamentalement différents selon qu’il s’agit de l’usage d’un simple instrument ou de celui d’une machine, un dispositif technique élémentaire ou une technologie plus complexe : « Dans la manufacture et le métier, l’ouvrier se sert de son outil ; dans la fabrique il sert la machine » (Marx 1993, p. 474). C’est-à-dire que la machine non seulement inverse le rapport de l’ouvrier à l’outil de production (il sert la machine), mais en plus elle modifie la structure même du modèle économique de la production (l’atelier devient la fabrique). Sur un second aspect, Marx nous dit aussi : « Les rapports sociaux sont intimement liés aux forces productives. En acquérant de nouvelles forces productives, les hommes changent leur mode de production, et en changeant le mode de production, la manière de gagner leur vie, ils changent tous leurs rapports sociaux. Le moulin à bras vous donnera la société avec le suzerain ; le moulin à vapeur, la société avec le capitaliste industriel » (Marx 2019, chap. 2). Il y aurait donc un certain déterminisme technique qui influe sur les conditions historiques d’émergence du capitalisme et avec lui toute une culture technique. Si les conditions sociales changent avec le capitalisme, c’est parce que celui-ci procède d’un auto-engendrement : il modifie et « révolutionne » les structures (et le progrès technique est un facteur déterminant) pour pouvoir s’installer. L’innovation technique qui a lieu « dans » le capitalisme est capitaliste, elle est là pour satisfaire ses exigences de productivité et de rentabilité. Pire encore, pour Marx, le développement technologique du capital a pour conséquence (et réciproquement) que le gain de productivité doit s’accomplir dans une dynamique toujours plus rapide (par exemple éviter que le stockage ne soit un manque à gagner sur la vente des produits) ce qui impose une exigence de rentabilité où l’ouvrier est englouti par la machinerie et le capital devient son propre « sujet automate » (Marx 2011, pp. 652-653).

Comme je l’ai dit plus haut, nous savons que la technique n’est pas neutre, et il n’y a aucune raison pour que Marx puisse défendre un autre point de vue sur cette question précise. En revanche, Marx est aussi l’héritier d’une conception civilisationnelle du progrès technique, héritée des Lumières, même s’il s’en montre critique. Il reconnaît ainsi au capital une force destructive qui cesse d’être productive uniquement « lorsque le développement de ces forces productives elles-mêmes rencontre un obstacle, dans le capital lui-même » (Marx 2011, p. 286). Et c’est bien là le reproche qu’on pourrait lui faire, à savoir que la critique de la technique ne s’élabore qu’au regard du développement du capitalisme et dans l’attente d’une révolution prolétariennne, une attente d’où les luddites ne sont jamais sortis. En ce sens (et uniquement : n’allez pas me faire dire ce que je ne dis pas) la conception de Marx et celle de P. Thiel aujourd’hui se rejoignent sur un point : les tergiversations de la société quant à son aliénation par la technique ont tendance à péricliter. Pour l’un la sortie est une révolution de la base, pour l’autre c’est une révolution par le haut, dans les deux cas, un accaparement des techniques-moyen de production, soit par les prolétaires en créant un État autoritaire de transition (et on aura assez reproché, à raison, cette conception marxiste), soit par les bourgeois en créant un État autoritaire… pour toujours. L’enjeu est toujours le même : le contrôle du système technicien.

Capture d'écran de la vidéo YouTube de l'INA sur Pierre Dac

Intervention lors du dernier séminaire d’expression scientifique d’avant-garde : le Biglotron. Par Pierre Dac, 1965. Archives INA

Technique moderne et déterminisme

Il faut donc changer de braquet. Le problème est le mode formel du capitalisme duquel il faut sortir en opposant une axiologie et un principe de vie. L’analyse économique seule ne peut pas nous aider davantage.

Si on pense la technique en termes instrumentariens, et que le capitalisme est le cadre auto-reproductif de notre rapport à la technologie, alors, que nous soyons conscients ou pas de nos classes sociales, nos rapports sociaux sont déterminés par la dynamique des innovations. Sortir de ce déterminisme suppose une révolution. Cependant, bien qu’assez longtemps après Marx, il a été largement démontré que l’électronicisation de la société, c’est-à-dire l’apparition des micro-conducteurs puis l’informatisation à tous les échelons du travail et du quotidien, impose dans nos vies la logique formelle du capitalisme. Le travail s’est de plus en plus taylorisé pour devenir un ensemble de traitements séquentiels (si le métier ne s’y prête pas, on aura tout de même des indicateurs de mesure, des systèmes d’évaluation pour rendre calculable ce qui ne l’est pas) et avec la surveillance, nos vies intimes ont intégré la sphère marchande grâce à l’extractivisme des plateformes et l’exploitation des données de profilage comportemental.

Cela implique un raisonnement plus ontologique. On peut le trouver chez Martin Heidegger qui, dans les années 1950, anticipait avec assez de clairvoyance le changement technique et proposait le terme d’arraisonnement pour décrire la manière dont, par la technique, se dévoile un mode où l’être n’est plus conçu que comme quelque chose d’exploitable (Heidegger 1958). Pour lui, la technique moderne n’est plus l’art, mais un rapport paradoxal. Elle résulte d’une volonté qui soumet l’homme à son propre destin technologique. Devenu lui-même un être technique, l’homme instrumentalise et « arraisonne » le monde, le réduisant à une simple ressource, incapable de le percevoir autrement. Par la suite, les Guy Debord ou Jacques Ellul ont en réalité cherché à montrer que l’homme pouvait encore échapper à ce destin funeste en prenant conscience ici de la prégnance de l’idéologie capitaliste et là d’une autonomie de la technique (hors de l’homme). Cependant, on ne peut s’empêcher de penser que l’extraction de données à partir de la vie privée comme à partir des performance individuelles dans le travail taylorisé est bien une forme d’arraisonnement poussé à l’extrême, sur l’homme lui même, désormais objet de la technique.

Le discours du déterminisme technologique qui implique que la société doit s’adapter à la technique prend une dimension tout à fait nouvelle dans le contexte de l’informatisation de la société. À travers l’histoire de la « Révolution Informatique », ce cauchemar heideggerien est né d’un discours aliénant, où l’ordinateur devient l’artefact central, et contre lequel la simple accusation d’aliénation technologique n’est plus suffisante pour se prémunir des dangers potentiels de cette désormais profonde acculturation informatique. Les combats pour la vie privée, loin d’être technophobes, sont autant de manifestations de l’inquiétude de l’homme à ne pouvoir se réapproprier la logique technicienne.

Dans ce contexte, voilà qu’arrive une autre idée encore de la neutralité de la technique : la technique ne serait que l’application de nos connaissances scientifiques. Elle n’aurait aucune sociologie propre (des gens comme Bruno Latour auraient travaillé pour rien). Cela implique des visions simplistes de « la » science et de « la » technique : la science nous dit le réel, la technique est l’application de la science, donc la technique est une nécessité par laquelle nous agissons sur le monde et le comprenons. Et comme la science ne serait que l’explication des chaînes de causalité du réel, alors la technique nous détermine comme une partie des chaînes causales (notre action sur le monde) : nous n’avons pas le choix, nous devons changer le monde ou nous y adapter ou nous mourrons (il faut bien nourrir nos datacenter avec de l’eau, tout est une question de choix). Si on s’en tient à ce formalisme, on rejoint ce que disait Detlef Hartmann (Hartmann 1981) à propos du capitalisme : le capitalisme nous rêve sur un mode formel (si… alors… et/ou). Pour reprendre les parenthèses de la phrase précédente, cela veut dire que nous devons croire en la technique : si nous avons besoin des datacenter pour vivre dans un monde numérisé qui nous apporte tout le confort nécessaire ( !), alors nous avons besoin de beaucoup d’eau pour refroidir nos data center, quitte à pomper dans les nappes et priver les terres agricoles… mais pas d’inquiétude, tout se fera toujours à l’équilibre car nous savons ce que nous faisons, nous maîtrisons les techniques. On pourrait construire la même logique pour tout, l’essentiel serait de s’en remettre à ceux qui maîtrisent les techniques : ce n’est ni un choix politique ni un choix moral, c’est neutre, et nous y sommes poussés par la nécessité technique.

Si on ne pense qu’avec des machines et dans la mesure où tout ce qu’on donne à une machine et tout ce qu’on attend d’elle est une somme d’informations computables, le résultat sera uniquement un résultat quantitatif. D’un autre côté, ce qui est incomputable n’est pas pour autant non-déterminé. Pour s’en sortir, la théorie algorithmique de l’information (voir notamment les travaux de Kolmogorov) montre que la complexité d’un objet dépend de la taille de l’algorithme qui rend possible cet objet. Par exemple la sélection naturelle ne suppose pas une nécessité absolue de chaque forme (un déterminisme causal absolu), mais un jeu de contraintes. Ce jeu de contrainte peut être décrit de manière algorithmique mais cette description serait d’une longueur telle qu’elle relève d’un niveau de complexité inatteignable. Mais cela ne signifie pas qu’il ne sera jamais atteignable (ça, c’est pour les positivistes optimistes). Il y aurait donc du déterminisme partout, tout le temps ? Dans le déterminisme classique, l’action est expliquée comme l’effet d’une chaîne causale mécanique. L’homme agit parce qu’il y est poussé par des causes antérieures, comme une bille roule parce qu’on l’a poussée. Il y a cependant une autre manière de voir les choses : le déterminisme n’est pas une limitation de notre liberté ou de notre créativité, mais un ordre immanent au réel. Les sciences cherchent à découvrir ce déterminisme, ses causalités, mais on sait, contrairement à ce que soutenait Spinoza, que tout n’est pas déterminé (que dit la théorie quantique sur l’imprédictibilité ?). Pour autant, la spontanéité dans le processus créatif n’est pas une négation du déterminisme, mais un phénomène émergent dans un système trop complexe pour être calculé (à l’échelle macroscopique, quelles longueurs d’algorithmes faut-il pour décrire le monde ? l’arrivée des nouvelles IA aujourd’hui pourrait nous surprendre)1.

Une posture démiurgique considérerait que la liberté humaine influence le réel et son déterminisme immanent. C’est la posture de Peter Thiel : les sciences se contredisent trop et distillent trop de doutes, il nous faut une science uniforme dont la technique serait l’application pure, et cette conception performative de la connaissance (au besoin sous la coupe d’un pouvoir autoritaire) permettrait de redynamiser la croissance technicienne. Sauf qu’il y a des lois causales immanentes au réel, sur lesquelles la liberté humaine ne peut rien : les sciences explorent le réel mais ne l’engendrent pas. Cette impuissance est souvent vue comme une contrainte à laquelle nous devrions nous adapter (néolibéralisme) ou contre laquelle nous devrions lutter (libertariannisme néo-fascisant).

En fait, il y a au moins deux niveaux de nécessité : celle du réel et celle des valeurs. La nécessité axiologique selon laquelle nous exerçons notre liberté est celle qui répond, par exemple, aux exigences de justice. C’est une nécessité parce que ce n’est pas un monde d’où les causes sont absentes, au contraire, il s’agit d’un ensemble de causes que nous classons et arrangeons en fonction de leurs valeurs. Il n’y a pas d’un côté un déterminisme mécanique et de l’autre la contingence de nos sociétés, mais il y a le plan des valeurs. Et ce plan n’échappe pas pour autant à la connaissance scientifique (voir par exemple la longue introduction épistémologique de Bernard Lahire dans Les structures fondamentales des sociétés humaines). Nous n’agissons donc pas malgré le réel ou contre lui, mais dans un monde emprunt de causalités et à un autre niveau de nécessité. Soulignons en passant qu’une autre tendance radicale consiste à faire passer l’axiologique au rang de principe premier qui transcende toutes les causalités, je veux parler de la plaie de la religion qui amène invariablement à une lutte de pouvoir sur le contrôle des techniques et à empêcher tout rapport rationnel entre éthique et technique2. Je ne m’étendrai pas davantage sur le sujet, ce texte est déjà assez long.

Une approche non-réactionnaire

Dans d’autres textes, j’ai eu l’occasion de me rapporter à la pensée de Detlef Hartmann. Selon lui, dans le monde capitaliste, la technologie exerce une violence. Elle échoue à transformer en logique formelle ce qui échappe par essence au contrôle formel (l’intuition, le savoir-être, le pressentiment, etc.). Dès lors, d’après D. Hartmannn, l’application d’une logique formelle aux comportements est toujours une violence car elle vise à restreindre la liberté d’action, mais aussi l’imagination, la prise de conscience que d’autres possibilités sont envisageables. Pour moi, cette approche a au moins un avantage, celui de mettre fin à l’idée d’une « force » ou d’une « intelligence » technique qui produirait une conscience de classe qui se retournerait contre le capital. C’était la thèse de Rudolf Bahro qui cherchait une alternative concrète au communisme dont il critiquait l’appareillage (technique lui aussi) d’État écrasant. Il s’agissait de croire que l’intelligence technologique (le progrès, les sciences, l’éducation) pouvait permettre de se libérer des mécanismes de domination et permettre aux groupes (autogestionaires) de prendre le contrôle de tous les processus de décision. Or, l’autogestion appliquée à l’échelle d’un État, même si elle se compose de multiples autogestions locales, finit par devenir une sorte de mégamachine centralisée. En réalité, l’autogestion authentique est celle qui fédère les initiatives tout en offrant la plus grande diversité possible d’alternatives. En somme, c’est celle qui préserve et nourrit un imaginaire libre et foisonnant. C’est ce que D. Hartmannn appelle un principe vital, un principe qui échappe au contrôle formel du capital comme à tout pouvoir centralisé.

Même si D. Hartmann n’est pas un penseur anarchiste, il y a tout de même quelque chose d’intéressant là-dedans. Cependant, les anarchistes « classiques » sont bien souvent tombés dans le piège positiviste qui perçoit la technologie comme intrinsèquement positive. C’est vieux comme les écrits de Proudhon, bercés par le positivisme de Comte bien qu’il s’en montrait extrêmement critique du point de vue de sa sociologie dont il disait qu’elle ne faisait que substituer la sociabilité à l’individualisme et faisait disparaître le droit. Chez Proudhon, avec la critique de la division technique du travail, qui serait le reflet de la division sociale, il y a aussi l’opposition entre l’état de nature et l’état social, où l’homme est par la technique en perpétuelle recherche d’augmentation de sa puissance d’agir. Si Proudhon se montre critique vis-à-vis de la technique, c’est pourtant par l’apprentissage polytechnique que passe l’émancipation du travailleur. La pensée de Proudhon ne permet pas (pas encore) de penser le système technicien dans ce qu’il pourrait avoir d’aliénant en dehors de la productivité.

Cherchons encore. Un penseur comme Murray Bookchin a très tôt dans ses écrits considéré la technique comme un instrument de domination : c’est dans la mesure où la technique est assimilée à un instrument de production qu’elle est instrument de domination. Il ne peut alors y avoir de porte de sortie qu’à partir du moment où l’on prend en compte que cette domination représente en fait les deux faces d’une même pièce : l’extractivisme capitaliste sur l’homme et l’instrument qui déséquilibre et la société et la nature.

Il ne faut pas dénoncer à la légère l’attitude schizoïde du public à l’égard de la technologie, attitude qui associe la terreur et l’espoir. Elle exprime en effet instinctivement une vérité fondamentale : cette même technologie, qui pourrait libérer l’être humain dans une société organisée en vue de satisfaire ses besoins, ne peut que le détruire dans une société visant uniquement « la production pour la production ». Il est bien certain que l’ambivalence manichéenne imputée à la technologie n’est pas un trait de la technologie comme telle. La capacité de créer et celle de détruire que recèle la technologie moderne ne sont que les deux faces de la dialectique sociale, le reflet de la positivité et de la négativité de la société hiérarchique. S’il y a quelque vérité à soutenir, comme Marx, que la société hiérarchique fut « historiquement nécessaire » afin de « dominer » la nature, on ne doit pas oublier pour autant que cette notion de « domination de la nature » est elle-même issue de la domination de l’humain par l’humain. L’être humain et la nature ont toujours été associés en tant que victimes de la société hiérarchique. Que l’un comme l’autre soient aujourd’hui menacés d’un cataclysme écologique est la preuve que les instruments de production ont fini par devenir trop puissants pour servir d’instruments de domination. – (Bookchin 2016, p. 32)

Ce qui est important pour M. Bookchin, c’est le mode d’organisation sociale qui contrôle les moyens de production et plus largement la technique. L’émancipation s’appuie donc sur la technique. Pour autant, n’est-ce pas un point de vue trop idéaliste qui revient à promouvoir une croyance dans une « bonne » intelligence technique ? Car après tout, le problème est là : si nous rejetons la thèse de la neutralité de la technique, c’est parce qu’elle n’envisage à aucun moment la manière dont la technique reconfigure sans cesse les rapports entre les humains entre eux et avec leur environnement. Mais envisager une « bonne » intelligence technique contre une « mauvaise » revient à se précipiter tout aussi bien dans une impasse.

C’est le choix des anarcho-primitivistes, du moins ceux qui se réclament d’une posture aussi radicale que John Zerzan, par exemple. La lecture civilisationnelle qu’ils ont de la technique revient à la réduire à une question de besoin et d’adéquation comportementale. Avec une certaine lecture de l’anthropologie, on peut effectivement prétendre assimiler le « progrès » technique à un productivisme aliénant et redéfinir l’abondance comme une simple adéquation à des besoins limités, plus ou moins fantasmée à partir de ce que l’on sait effectivement des sociétés de chasseurs-cueilleur d’autrefois (et l’archéologie récente a fait des découvertes qui remettent largement en cause ces conceptions certes utopistes mais faussées). S’opposer à cela ne réduit pas à savoir si on veut revenir à l’âge de pierre ou à la bougie. Ce serait réduire le débat. Il s’agit de savoir ce qui distingue le radicalisme d’une posture purement réactionnaire qui revient finalement à faire de la technique une émanation en soi négative sans en considérer les conditions d’existence mais en vouant une haine à des pseudo-représentants du monde économique ou politique. Une chasse aux sorcières dont le but est avant tout moral que réellement constructif. On retrouve aujourd’hui même des résurgences de ce type dans des globiboulgas malfaisants comme le montrait récemment le groupe Technopolice.

Le refus catégorique d’une ou plusieurs technologies représente une impasse conceptuelle et pratique, car toute technique s’inscrit dans un processus cumulatif d’innovations successives et dans un réseaux de systèmes techniques dont certains point de convergence peuvent être fort éloignés les uns des autres. Prenez par exemple la physique nucléaire et la médecine et voyez-en le développement en ingénierie d’imagerie ou de génétique. L’histoire des sciences et des techniques montre que les avancées techniques ne sont jamais isolées, mais s’insèrent dans des chaînes complexes de savoirs et d’applications. Par exemple, l’intelligence artificielle regroupe un ensemble très diversifié de technologies — apprentissage automatique, réseaux neuronaux, traitement du langage naturel — qui interagissent et évoluent continuellement depuis… 50 ans. Ainsi, un rejet global de l’IA comme phénomène homogène est conceptuellement inexact et socialement problématique.

La solution n’est pas dans le rejet mais dans le questionnement. Plus haut, je faisais référence au machinisme. On peut se demander effectivement comment l’introduction de l’automatisation dans la fabrique redéfini le rapport de l’ouvrier au travail et en conclure une dépossession, une prolétarisation. Mais en augmentant la productivité, l’automatisation — par exemple la robotique — redéfini assez radicalement ce qu’est le travail en soi. Sur ce point, dans La baleine et le réacteur, Langdon Winner a proposé l’idée de « somnambulisme technologique » pour décrire comment les sociétés adoptent de vastes transformations technologiques sans en examiner les implications profondes3. L. Winner argumente que le développement technologique est un processus de construction du monde, où en modifiant les choses matérielles, nous nous changeons nous-mêmes. La question centrale n’est pas seulement « comment les choses fonctionnent », mais « quel genre de monde sommes-nous en train de créer ? » Les technologies ne sont pas de simples aides, mais de puissantes forces qui remodèlent l’activité humaine et sa signification. Elles structurent notre quotidien, créant de nouvelles « formes de vie ».

À mesure que les technologies sont développées et mises en œuvre, des changements importants dans les modes d’activité humaine et les institutions humaines sont déjà en cours. De nouveaux mondes sont en train de voir le jour. Ce phénomène n’a rien de « secondaire ». Il s’agit en fait de la réalisation la plus importante de toute nouvelle technologie. La construction d’un système technique qui implique les êtres humains comme éléments opérationnels entraîne une reconstruction des rôles et des relations sociales. Cela résulte souvent des exigences de fonctionnement du nouveau système : celui-ci ne peut tout simplement pas fonctionner si le comportement humain ne s’adapte pas à sa forme et à son processus. Ainsi, le simple fait d’utiliser les machines, les techniques et les systèmes à notre disposition génère des modèles d’activités et des attentes qui deviennent rapidement une « seconde nature ». Nous « utilisons » effectivement les téléphones, les automobiles, l’éclairage électrique et les ordinateurs au sens conventionnel du terme, c’est-à-dire en les prenant et en les reposant. Mais notre monde devient rapidement un monde dans lequel la téléphonie, l’automobilité, l’éclairage électrique et l’informatique sont des formes de vie au sens le plus fort du terme : la vie serait difficilement concevable sans eux. – (Winner 2020, chap. 1)

Un peu comme Jacques Ellul, nous devrions non plus tellement nous interroger sur les techniques elles-mêmes mais sur le système technicien. Pour J. Ellul la technique est déterminante dans les transformations sociales même si tout fait social ne se détermine pas par la technique. Mais ce qui alarmait J. Ellul, c’est que la technicisation de la société est un mouvement apparemment inéluctable, et la technologie moderne adopte une logique autonome, engendre son propre principe de perpétuation et d’accroissement au détriment de l’axiologie. C’est le somnambulisme auquel fait référence L. Winner et c’est en même temps la situation avec laquelle nous devons perpétuellement nous arranger : d’un côté les critiques à l’encontre des innovations sont souvent perçues comme des discours anti-technologiques voire anti-sociaux, d’un autre côté l’innovation s’inscrit dans un contexte politico-économique dont il ne serait que très difficile de sortir (le capitalisme, le néolibéralisme) sans une révolution. Dans les deux cas, nous ne sortirons pas de notre condition d’êtres appartenant à un système technicien.

Pour terminer cette section sur un exemple clivant actuellement : devons-nous adopter les IA génératives (IAg) dans nos pratiques quotidiennes ? On pourra toujours accuser les firmes qui produisent les services d’IAg de satisfaire le modèle oppressif du capitalisme de plateformes. La question ne devrait pas être posée en ces termes (pour ou contre l’IAg ?). La question est de savoir ce qui a fait que dans le développent du système technicien nous soyons arrivés à ces inventions, pourquoi se sont-elles si rapidement intégrées dans les pratiques et qu’est-ce que cela produit comme changements sociaux, quelles « formes de vie » ? On peut certes craindre, pour reprendre les mots de L. Winner, qu’« une fois de plus, on dit à ceux qui poussent la charrue qu’ils conduisent un char d’or ».

My Human Kit

Capture d’une illustration du site de l’association My Human Kit. « En utilisant la force combinée de la solidarité, du fait maison et de la fabrication numérique, My Human Kit démontre que la diversité et l’intelligence collective sont essentielles à une société inclusive. ». myhumankit.org

Pour une politique anarchiste des techniques

Cela ne nous dit toujours rien des principes que nous devrions adopter. Cela ne dit rien non plus sur ce qu’il faudrait sacrifier en adoptant quels principes que ce soit. Le développement technologique est un processus cumulatif qui incorpore les relations sociales dans la réalité matérielle. À chaque point d’inflexion, il faut reposer la question, sans cesse ! Je terminerai alors sur ce point : il faudra toujours tenter d’échapper aux logiques de pouvoir qui se servent des techniques pour arriver à leurs fin dans la situation de choix politique qui s’avance devant nous.

Nous vivons un instant clé où le changement climatique, l’effondrement écologique et la crise démocratique font que le capitalisme atteint une aporie. Si P. Thiel nous parle de la fin des temps (et il n’est pas le seul) c’est bien parce que ce genre de libertarien voudrait s’assurer d’être du « bon » côté des inégalités qui s’annoncent à une échelle mondiale, avec les guerres qui s’ensuivront. Pourra-t-on l’éviter ? je n’en sais rien. Mais il est toujours possible de s’interroger sur l’ordre social que nous pourrions établir dans le but, justement, de limiter les effets des erreurs passées et envisager l’avenir de manière plus sereine.

Si nous souhaitons conserver le système actuel, la manière dont nous produisons nos technologies ne peut qu’être centralisée autour de structures d’État, plus ou moins au service des groupes d’intérêts. Cette centralisation a du bon car elle permet de faire des choix politiques au nom d’une neutralité technologique du pouvoir : les technologies militaires ont besoin d’un contrôle hiérarchique, le marché de l’énergie a besoin d’être compétitif au prix des inégalités, les biotechnologies doivent pouvoir rendre l’agriculture toujours plus rentable, etc.

Si en revanche nous prenons conscience que nous ne pouvons continuer à croître indéfiniment dans un monde fini, que ce fait s’impose à nous ou que nous anticipions tant qu’il est encore possible de le faire, c’est d’une décentralisation des institutions et de la production de technologies dont nous avons besoin. Je reprends alors à mon compte la proposition d’Uri Gordon (Gordon 2009) pour une politique anarchiste de la technologie en trois points. Chacun de ces points renvoie à une posture utopiste (mais concrète) de décision collective, démocratique, car, finalement, c’est bien la clé de l’affaire :

  1. La résistance abolitionniste : s’opposer fermement à tout système technique qui renforce la centralisation du pouvoir, détruit l’environnement ou sert principalement les intérêts des États autoritaires et des grandes entreprises. Par exemple : les technologies militaires, la surveillance, l’exploitation des énergies fossiles. Ce n’est pas du primitivisme ou du luddisme, c’est « reconnaître que certaines formes d’abolitionnisme technologique sont essentielles à la politique anarchiste ». C’est un principe d’action qui cherche à identifier et contester les technologies qui, loin d’améliorer la vie collective, aggravent les inégalités et menacent les plus vulnérables en consolidant le pouvoir économique et politique d’une minorité.
  2. L’adoption désabusée : certaines technologies, comme Internet, peuvent être utilisées stratégiquement malgré leurs infrastructures bien trop centralisées (par exemple les câbles sous-marins aux enjeux géostratégiques). Du côté des utilisateurs, des alternatives existent et proposent d’une part des pratiques non capitalistes (prenons l’exemple du Fediverse), et d’autre part la création de communs en opposition frontale avec l’économie classique. De manière générale, c’est bien la création de communs dans tous les interstices où le pouvoir est faible qui permet d’utiliser des techniques de manière décentralisée. D’autres exemples existent, par exemple dans le monde agricole les semences paysannes contre les multinationales, ou encore les coopératives de réparation ou d’invention de matériels agricoles.
  3. La promotion active : il s’agit d’œuvrer en ayant conscience des limites matérielles, tout en gardant la part de subversion nécessaire à la créativité et à la réappropriation de la production. En ingénierie, il s’agit d’encourager les innovations « low-tech », la valorisation des savoirs traditionnels et de l’artisanat, le recyclage, la réparation et la reconstruction de matériel open-source, voire de redonner vie à d’anciennes technologies pour une utilisation à plus petite échelle et plus durable. Pour reprendre l’expression qu’emprunte lui-même Uri Gordon, cette approche vise une « micropolitique subversive d’autonomisation techno-sociale » pour construire des espaces alternatifs matériels et sociaux.

Ces principes doivent cependant être critiqués. La résistance aux techniques de surveillance en vue de les abolir nécessite des efforts considérables de plaidoyer si et seulement si nous nous imaginons être dans un État démocratique dont les organes sont effectivement à l’écoute des citoyens. Dans une dictature, faut-il même en parler ? On voit bien ici que ce principe est d’emblée soumis aux conditions politiques de l’usage des techniques.

Concernant les technologies militaires, pour faire simple, nous pouvons prendre l’exemple de l’armement atomique. Un contrôle hiérarchique strict est nécessaire pour encadrer l’usage : compte-tenu de l’enjeu géostratégique, nous devons nous résoudre à ce que l’usage de l’arme nucléaire soit soumis aux jeux de pouvoir en politique extérieure (la dissuasion) comme en politique intérieure (prémunir l’arrivée au pouvoir d’un parti belliqueux). L’arme nucléaire existe et ce simple fait ne peut que nous cantonner à un plaidoyer en faveur du désarmement nucléaire mondial.

Concernant l’arrivée de nouvelles technologies, l’étude de cas des IA génératives (IAg) pourrait servir d’illustration. Comme je l’ai dit plus haut, nous devons sans cesse interroger le cadre axiologique par lequel nous élaborons une critique des techniques. Quelle est la dynamique des dispositifs socio-techniques et leurs points de jonction qui font que les IAg sont apparues et aient, de manière aussi spectaculaire, intégré nos pratiques quotidiennes ? Il faudrait en faire des études et elles sont encore loin d’être rédigées. Quelques éléments nous mettent sur la voie, par exemple les positions hégémoniques des entreprises qui fournissent des services d’IAg. Parmi les trois principes ci-dessus, lequel adopter ? sans doute un mixte. Mais c’est là l’un des points critiques que de définir ex ante trois attitudes possibles : si l’on veut rester honnête, elles ne sont pas exclusives entre elles et, dans cette mesure, elles aboutissent invariablement à des positions mitigées. Mais peut-être est-ce là la leçon de l’histoire des techniques : l’ambivalence des techniques nous pousse nous-mêmes à nous positionner de manière ambivalente, en acceptant nos contradictions et pourvu qu’on puisse en débattre sans relativisme. La manière dont nous conduisons nos systèmes techniques est le reflet de notre humanité.

Notes

  1. Il y a peu de références dans ce paragraphe car il serait laborieux d’expliquer dans le détail la construction de cet argumentaire. J’ai été l’un des étudiants en philosophie à Strasbourg de Miguel Espinoza qui nous a alors expliqué (avec plus ou moins de réussite) ses travaux remarquables sur l’intelligibilité de la nature. Prolonger la discussion ici nous amènerait bien trop loin.↩︎
  2. Oui, je sais bien que la religion n’a jamais empêché la rationalité, il y a assez de textes critiques théologiques pour le démontrer. Ce n’est pas mon sujet. C’est simplement qu’il est impossible de positionner un curseur fiable entre une simple approche critique religieuse des techniques et la volonté d’influence sociale qu’imposent les religieux sur le prétexte des techniques. Un exemple au hasard : les campagnes anti-avortement. Lorsque les religieux en auront fini avec ça, je commencerai peut-être éventuellement à leur tendre une oreille distraite si j’ai du temps à perdre.↩︎
  3. Sur ce point j’ajouterai une nuance car nous sommes aussi passés maîtres dans l’art de l’évaluation des risques, mais la question du principe de précaution se pose toujours dans un mouchoir de poche, par exemple lorsque le risque est à des années lumières de l’état des connaissances.↩︎

Références

BOOKCHIN, Murray, 2016. Au-delà de la rareté : l’anarchisme dans une société d’abondance. Montréal Québec, Canada : Éditions Écosociété. ISBN 978-2-89719-239-6.

FOUCAULT, Michel, 2004. Naissance de la biopolitique : cours au Collège de France, 1978-1979. Paris, France : EHESS : Gallimard : Seuil. ISBN 978-2-02-032401-4.

GORDON, Uri, 2009. Anarchism and The Politics of Technology. WorkingUSA [en ligne]. 5/1/2009. Vol. 12, n° 3, pp. 489‑503. [Consulté le 27/7/2025]. DOI 10.1163/17434580-01203010. Disponible à l’adresse : https://brill.com/view/journals/wusa/12/3/article-p489_10.xml

HARTMANN, Detlef, 1981. Die Alternative : Leben als Sabotage. Iva-Verlag Polke. Tübingen.

HEIDEGGER, Martin, 1958. La question de la technique. In : Essais et Conférences. Paris : Gallimard. pp. 9‑48.

MARX, Karl, 1993. Le Capital. Critique de l’économie politique. Livre premier. Paris : PUF. Quadrige.

MARX, Karl, 2011. Manuscrits de 1857-1858 dits « Grundrisse ». Paris : Éditions sociales.

MARX, Karl, 2019. Misère de la philosophie. Paris : Payot.

MICHÉA, Jean-Claude et JULLIARD, Jacques, 2018. La Gauche et le peuple : lettres croisées. Paris, France : Flammarion.

PRÉVOST, Thibault, 2024. Les prophètes de l’IA : pourquoi la Silicon Valley nous vend l’apocalypse. Montréal, Canada : Lux Éditeur. ISBN 978-2-89833-161-9.

SLOBODIAN, Quinn, 2025. Le capitalisme de l’apocalypse : ou le rêve d’un monde sans démocratie. Paris, France : Éditions du Seuil. ISBN 978-2-02-145140-5.

STIEGLER, Barbara, 2019. « Il faut s’adapter » : sur un nouvel impératif politique. Paris, France : Gallimard. ISBN 978-2-07-275749-5.

THIEL, Peter, 2025. Peter Thiel et la fin des temps (parties 1 et 2) [en ligne]. [Le Grand Continent]. 20/4/2025. [Consulté le 26/4/2025]. Disponible à l’adresse : https://legrandcontinent.eu/fr/2025/04/20/peter-thiel-apocalypse-1/

WINNER, Langdon, 2020. The Whale and the Reactor. A Search for Limits in an Age of High Technology. Chicago : University of Chicago Press.

FramIActu – Le bilan après six mois de veille

lundi 11 août 2025 à 16:13

Peut-être l’attendiez-vous impatiemment, et pourtant, la FramIActu de juillet n’a pas vu le jour.
Nous l’annoncions à demi-mot en juin : nous ne publierons plus la FramIActu sur un rythme mensuel. Les raisons à cela sont multiples et c’est pourquoi nous vous proposons un article « bilan », qui fait le point sur des mois (voire des années) de veille sur l’intelligence artificielle.

 

Différents termes techniques liés au champ de recherche de l’Intelligence Artificielle ont été utilisés dans cet article.
Si certains termes vous échappent, nous vous invitons à consulter le site FramamIA où nous avons cherché à expliquer la plupart d’entre eux.

Les évolutions techniques des derniers mois

De meilleures performances

Au cours des derniers mois, les entreprises et start-ups du domaine n’ont cessé d’améliorer les grands modèles de langage (LLMs) et autres systèmes d’IA, afin que ceux-ci puissent accomplir des tâches plus variées, être plus efficaces, et soient moins chers à produire et à déployer.

L’institut sur l’intelligence artificielle centré sur l’humain de l’université de Standford a récemment publié un index analysant ces états et évolutions sous différents aspects.
Dans ce rapport, nous constatons une forte amélioration des performances des IA sur les tests de référence servant à évaluer leurs capacités.
L’écart de performances entre les différents modèles est d’ailleurs largement réduit en comparaison de l’année dernière.
En revanche, de nouveaux tests comparatifs, bien plus exigeants, ont été développés (comme le fameux « Dernier examen de l’humanité ») et les IA y réalisent, pour le moment, des scores très faibles.

Autre amélioration : alors qu’en 2022 le plus petit modèle (PaLM) réalisait un score de 60 % à un un test comparatif spécifique (MMLU) avait besoin de 540 milliards de paramètres, le modèle Phi-3-mini de Microsoft accompli aujourd’hui les mêmes performances avec 3,8 milliards de paramètres. Il est donc aujourd’hui possible de construire des modèles qui nécessitent bien moins de ressources.

Vous avez dit six doigts ?

Les améliorations des performances et des capacités des différents modèles d’IA génératives (IAg) sont particulièrement visibles pour les IAg spécialisées dans la génération d’images et de vidéo.
Si à leurs débuts les IAg comme Dall-E ou Midjourney étaient moquées par le public en raison des absurdités qu’elles généraient, leurs résultats sont aujourd’hui bien plus difficiles à différencier de la réalité. Finies les mains à six doigts !

Les IAg permettant de créer des vidéos sont d’autant plus impressionnantes (techniquement), notamment Veo 3, de Google, récemment sortie et permettant de créer des vidéos en tout genre avec une cohérence sans précédent. Il est désormais extrêmement difficile de discerner une vidéo générée par Veo 3 d’une vidéo filmée par des humain·es.

Voici de nombreux exemples de vidéos générées par Veo 3.

Mistral, de son côté, a publié un nouveau modèle de compréhension audio nommé Voxtral. Celui-ci aurait de meilleures performances que Whisper, le modèle d’OpenAI, jusqu’alors considéré comme le meilleur en terme de rapport qualité/prix.
Voxtral propose des performances similaires ou supérieures à ses concurrents pour un coût bien plus bas.

Toutes ces améliorations sont déjà utilisées par de nombreuses entités à travers le monde.

Comme Netflix, qui a utilisé l’IAg pour créer une scène d’effondrement d’immeuble dans une de ses séries1, ou Disney, ayant utilisé ChatGPT pour écrire les paroles d’une des chansons de sa série indienne Save the Tigers2.

Netflix, d’ailleurs, souhaite mettre en place des coupures publicitaires générées par IA pendant le visionnage des vidéos3.

L’arrivée d’un nouveau paradigme : les modèles de raisonnement

Les modèles d’IAg traditionnels sont basés sur un paradigme consistant à « entraîner » les IA à partir du plus grand nombre de données possible afin de créer les millions (voire les milliards) de paramètres qui composeront le modèle. Le coût de ce type de modèle est principalement concentré sur cette phase d’entraînement.

Par exemple, le première modèle GPT d’OpenAI, GPT-1, sorti en juin 2018, contenait 117 millions de paramètres4. Un an plus tard, le modèle GPT-2 en comportait 1,5 milliards5. Quelques mois plus tard, GPT-3 en comportait 175 milliards6. Enfin, le modèle GPT-4.5, en comporterait, d’après les rumeurs7 (car nous n’avons pas de donnée officielle)… entre 5 et 10 billions (10 000 milliards) !

Ce paradigme, s’il fonctionnait très bien au cours des années précédentes, semble atteindre aujourd’hui un plafond de verre. Malgré l’augmentation massive du nombre de paramètres, les résultats obtenus ne sont pas aussi impressionnants que l’on pourrait s’y attendre, mais surtout, le coût pour exploiter de tels modèles devient difficile à assumer pour des entreprises comme OpenAI.

L’entreprise a d’ailleurs rapidement retiré GPT-4.5 de son offre8, au profit d’un nouveau modèle nommé GPT-4.1, bien moins cher pour la compagnie. (On est d’accord, c’est un peu n’importe quoi les noms de modèle chez OpenAI !)

Pour faire face aux limites qui semblent se dessiner, un nouveau paradigme a vu le jour : celui des modèles de raisonnement.

L’idée est qu’au lieu de se concentrer principalement sur l’entraînement du modèle, les modèles de raisonnement sont conçus pour accomplir des étapes supplémentaires (par rapport aux modèles classiques) afin d’achever des résultats similaires voire meilleurs sans avoir à augmenter la taille du modèle.

Contrairement à un modèle classique qui cherchera à donner directement une réponse lors de l’étape d’inférence, les modèles de raisonnement découpent cette étape en différents processus plus petits, cohérents les uns vis-à-vis des autres.

Comparaison d'un LLM classique avec un LLM de raisonnement.Trois étapes pour le LLM classique :
Une question est posée, le LLM la traite puis donne une réponse.

Pour un LLM de raisonnement, plusieurs étapes s'ajoutent avant de donner une réponse : ces étapes peuvent être potentiellement illimitées et constituent le raisonnement.
Comparaison d’un LLM classique avec un LLM de raisonnement.
Source : Maarten Grootendorst – A visual guide to reasoning LLMs

Le nombre d’étapes qu’un modèle de raisonnement va effectuer est configurable, et peut aussi bien varier d’une étape unique à des dizaines ou des milliers. En revanche, plus le nombre d’étapes est conséquent, plus le coût (en temps, en énergie, en puissance de calcul) est élevé.

Ce dernier point représente un changement majeur : les modèles de raisonnement peuvent potentiellement être bien plus coûteux en termes de ressources que les modèles classiques car le nombre d’étapes de raisonnement revient à multiplier — souvent de façon cachée à l’utilisateurice — la quantité de calculs nécessaires pour fournir une réponse.

Or, face au succès de modèles comme Open-o1 ou DeepSeek-R1, les modèles de raisonnement ont le vent en poupe et sont souvent ceux privilégiés, aujourd’hui.

L’émergence des IA agentiques

Les IA agentiques sont des IA conçues pour être capables d’interagir avec leur environnement.

Là où les IAg classiques s’appuient sur un jeu de données figé et apportent une réponse « simple » en fonction de la demande qu’on leur fournit, les IA agentiques ont pour objectif de pouvoir accéder à d’autres applications afin d’accomplir la tâche demandée en toute autonomie. De plus, l’IA agentique est capable d’exécuter une série de sous-tâches jusqu’à l’accomplissement de la demande.

En théorie, vous pouvez demander à une IA agentique de créer votre site vitrine. Celle-ci va alors concevoir la structure du site, établir une charte graphique et l’appliquer. Elle le testera ensuite pour s’assurer qu’il fonctionne. Enfin, l’agent pourra très bien pousser le code sur une forge logiciel (comme Github, Gitlab, ou autre) et exécuter des actions sur la forge afin de créer un site accessible au public. Dans tout ce processus, votre seule action aurait été de demander à l’IA agentique de vous réaliser ce site.

Dans la pratique, les IA agentiques sont encore largement peu efficaces, les plus performantes ne réussissent pour le moment que 30 % des tâches en totale autonomie9. Cependant, comme pour les IAg auparavant, on peut assez facilement imaginer, au regard de la vitesse d’évolution des techniques d’IA, que des progrès fulgurants arriveront d’ici un an ou deux.

On peut d’ailleurs noter l’émergence d’un protocole nommé MCP, initié par Anthropic, pour standardiser la manière dont les IA se connectent à d’autres applications.

À noter que’OpenAI vient de sortir ChatGPT Agent10 prétendant pouvoir presque tout réaliser et Google a annoncé différentes applications d’IA agentiques11.

Il est probable que l’utilisation d’IA agentiques se démocratise à mesure que leurs capacités s’améliorent et que les géants comme Google les intègrent aux applications de notre quotidien.

Une accumulation de problèmes sociétaux

Nous l’avons vu, les IAg ne cessent de s’améliorer techniquement. Cependant, nombre des problèmes soulevés lors de l’apparition de ChatGPT n’ont pas été traités et de nouveaux apparaissent.

Les robots indexeurs d’IA attaquent le Web

Pour collecter les données nécessaires à l’entraînement des IA génératives, les acteurs de l’IA parcourent l’ensemble du Web pour en extraire le contenu. Aujourd’hui, de nombreux acteurs ont déployé leur propre robot pour y parvenir.

Le problème est que ces robots mettent à mal l’ensemble de l’infrastructure faisant tourner le Web et ne respectent pas les sites précisant ne pas souhaiter être indexés par ces robots.

Comme nous en parlions dans la FramIActu d’avril certains sites ont constaté que plus de 90 % de leur trafic proviennent désormais des robots d’IA. Pour Wikipédia, cela représente 50 % de trafic supplémentaire depuis 202412.

Afin de palier ce pillage des ressources et garantir l’accès de leurs sites internet aux humain·es, des organisations comme l’ONU ont opté pour la mise en place d’un logiciel « barrière » à l’entrée de leurs site13. Nommé Anubis, ce logiciel permet d’empêcher les robots d’IA d’accéder au site web. Cependant, cette barrière n’est pas sans coût : les utilisateurices doivent parfois patienter quelques fractions de seconde (voire, parfois, quelques secondes) avant de pouvoir accéder à un site internet, le temps qu’Anubis s’assure que la demande d’accès provient bien d’un·e humain·e.

À Framasoft, nous avons aussi été confronté à cette situation et certains de nos services sont désormais protégés par Anubis.

D’autres acteurs se tournent vers Cloudflare puisque cette entreprise a mis en place un outil permettant de bloquer les robots d’IA par défaut14. Cloudflare est utilisé par environs 1/5 des sites web15. Cela signifie que l’entreprise se place dans une position privilégiée pour décider de qui a le droit d’accéder au contenu de ces sites web.

À l’avenir, il est possible que les acteurs d’IA les plus riches doivent finir par payer Cloudflare pour accéder au contenu des sites protégés par l’entreprise.

Si cela se produit, un des risques possibles est qu’au lieu d’empêcher l’essor de l’IA, la situation accentue plutôt l’écart entre les géants du numérique et les autres acteurs, plus modestes.

Le Web est pollué

Depuis l’arrivée de l’IA générative, un changement majeur dans l’histoire de l’humanité a eu lieu : il est désormais plus rapide de « créer » du contenu que d’en lire.
Ce simple fait semble totalement transfigurer notre rapport au Web puisque celui-ci se rempli à une vitesse vertigineuse de contenus générés par IA, dont une bonne partie se fait passer pour du contenu rédigé par des humain·es.

Aussi, les IAg sont très fortes pour créer du contenu adapté aux règles de Google Search, permettant à des entités peu scrupuleuses de faire apparaître leur contenu en tête des résultats du moteur de recherche. Cette pratique, nommée IA Slop, représente un véritable fléau. Le contenu diffusé n’a pas besoin d’exprimer un propos en rapport avec le réel, il est généré et publié automatiquement à l’aide d’IAg afin d’attirer du public en espérant générer du trafic et des revenus publicitaires.
À ce sujet, nous republiions il y a quelques mois sur le Framablog un article passionnant d’Hubert Guillaud.

De plus, le média Next publiait, il y a quelques mois, une enquête sur le millier de médias générés par IA mis en avant par Google Actualités, la principale plateforme d’accès aux médias16.

L’IAg est aussi utilisée pour concevoir des articles et messages de médias sociaux promouvant des discours complotistes ou climato-sceptiques à une échelle presque industrielle17,18.
Les promoteurs de ces théories peuvent plus facilement que jamais trouver de nouvelles adhésions à leur discours. Cette facilité pour générer du contenu vraisemblable contribue fortement à l’accroissement des discours visant à désinformer.

À mesure que le Web se rempli de contre-vérités, celles-ci risquent de prendre de plus en plus de poids dans les réponses des futurs modèles d’IAg. On parle d’une forme d’autophagie, où les IAg se nourrissent d’éléments générés par d’autres IAg19.

C’est à cause de ce phénomène d’autophagie que des entreprises comme Reddit (un média social très populaire dans le monde anglo-saxon) peuvent se permettre de revendre à prix d’or leurs données : du texte rédigé par des humain·es et facilement identifiable comme tel20,21.

La pollution du Web ne s’arrête cependant pas aux contenus textuels… désormais, avec la facilité d’accès aux IAg d’images et de vidéos, des millions de contenus générés par l’IA pullulent sur internet.
À la sortie de Veo3, Tiktok s’est retrouvé noyé sous la quantité de vidéos généré par l’IAg, dont un certain nombre contenant des propos racistes22. Certain·es artistes ont même cherché à profiter de la tendance en prétendant que leurs vidéos étaient générée par l’IAg, alors que celles-ci étaient réalisées par des humain·es23.

Certaines entreprises se spécialisent aussi dans la génération de DeepFake pornographiques. Ces outils permettent alors à des harceleurs de nuire à leurs ex petites-amies24 et à des adolescents de nuire leurs camarades25.
Les principales victimes de ces DeepFakes sont des femmes26.

Ces contenus générés par IA et la difficulté à les différencier des contenus « humains » participent à un sentiment d’abandon du réel. Il devient tellement difficile et exigeant de différencier le contenu généré par IA des autres que l’on peut être tenté·e de se dire « À quoi bon ? ».

À la manière de ce que décrit Clément Viktorovitch vis-à-vis de la perception des discours politiques27, il est possible que nous entrons ici aussi dans une ère de post-vérité : qu’importe si le contenu est vrai ou faux, tant qu’il nous plaît.

Un rapport au savoir bouleversé

En construisant une encyclopédie collaborative, gérée comme un commun et disponible mondialement, Wikipédia a révolutionné l’accès au savoir.
Non seulement la plus grande bibliothèque de l’histoire de l’humanité est à portée de clics, mais nous pouvons désormais participer aussi à son élaboration.

Wikipédia a permis de renverser un paradigme ancré depuis longtemps qui consistait à réserver la rédaction d’une encyclopédie aux experts du sujet. Grâce à quelques règles permettant d’assurer la qualité des contributions, l’encyclopédie en ligne permet un effort d’intelligence collective inédit dans l’histoire.

Or, si Wikipédia est accessible librement dans la plupart des pays du monde, la majorité des personnes accèdent à son contenu… via le moteur de recherche Google.

En effet, le réflexe commun pour accéder à Wikipédia est de chercher un terme sur son moteur de recherche préféré (Google pour l’immense majorité de la planète) et d’espérer que celui-ci nous présente un court résumé de la page Wikipédia correspondante et nous pointe vers celle-ci.

Google sert donc aujourd’hui d’intermédiaire, de porte d’accès principale, entre une personne et la plus grande encyclopédie de l’humanité.
Le problème, c’est que Google est bien plus qu’un simple moteur de recherche.

Google possède un système éditorial complexe, « personnalisant » les résultats en fonction de l’identité d’un individu, sa culture, son pays28, et poussant les éditeurs des sites Web à se plier à la vision que l’entreprise a du Web. Ne pas respecter cette vision nuit à notre bon référencement sur le moteur de recherche et donc, fait encourir le risque de ne jamais être trouvé·e dans la masse des sites existants.
Cette vision se confond avec le but lucratif de l’entreprise, dont le profit prévaut sur le reste. C’est pourquoi les liens sponsorisés prennent une place importante (principale, presque) dans l’interface du moteur. Il est ainsi nécessaire de payer Google pour s’assurer que notre site Web soit vu.

Cette éditorialisation du contenu chez Google a encore évolué récemment avec la mise en place d’AI Overviews. Cette fonctionnalité (pas encore activée en France), s’appuyant sur l’IA de l’entreprise, résume automatiquement les contenus des différents sites Web. Certes, la fonctionnalité semble pratique, mais elle pourrait encourager une tendance à ne jamais réellement visiter les sites.
Avec l’AI Overviews, nous ne quittons plus de Google.

À travers cette fonctionnalité, Google apporte d’autres briques pour transformer notre rapport au Web29 et asseoir sa position dominante dans l’accès au savoir.

Cependant, Google n’est pas le seul acteur à transformer notre rapport au Web et à l’accès au savoir. Les IA conversationnelles prennent de plus en plus de place et récemment ChatGPT est même devenu plus utilisé que Wikipédia aux États-Unis30.
Sans que cela n’indique pour le moment une diminution dans l’usage de Wikipédia par les humain·es, il est possible que celui-ci se raréfie à mesure que la qualité des réponses des IAg s’améliorent ou recrachent directement le contenu de Wikipédia.

Les acteurs de l’IA risquent donc de devenir les nouvelles portes principales pour accéder à l’encyclopédie. Nous pouvons imaginer différents risques à cela, semblables à ceux déjà existants avec Google, comme lorsque l’entreprise a volontairement dégradé la qualité des résultats des recherches pour que les utilisateurices consultent davantage de publicités31.

Le rapport au savoir évolue aussi dans le monde de la recherche, où l’IA est aussi en train de bousculer des lignes, car de plus en plus de projets scientifiques s’appuient désormais sur ces outils32. Une étude estime que 13.5 % des recherches bio-médicales réalisées en 2024 étaient co-rédigé·es à l’aide d’une IAg33.

Les auteurices de l’étude indiquent :

Si les chercheurs peuvent remarquer et corriger les erreurs factuelles dans les résumés générés par IA de leurs propres travaux, il peut être plus difficile de trouver les erreurs de bibliographies ou de sections de discussions d’articles scientifiques générés par des LLM

et ajoutent que les LLMs peuvent répliquer les biais et autres carences qui se trouvent dans leurs données d’entraînement « ou même carrément plagier ».

De plus, l’IA n’est pas utilisée que pour la rédaction des papiers scientifiques. De plus en plus de chercheureuses basent leurs études sur des modélisations faites par IA34, entraînant parfois des résultats erronés et des difficultés à reproduire les résultats des études… voire même rendre la reproduction impossible.

Il est difficile de mettre en lumière tous les impacts sociétaux de l’IA (et particulièrement l’IAg) dans un article de blog. Nous avons simplement sélectionné quelques points qui nous semblaient intéressants mais si vous souhaitez approfondir le sujet, le site FramamIA peut vous fournir des clés de compréhension sur l’IA et ses enjeux.

L’Intelligence Artificielle n’est pas un simple outil

Depuis le tsunami provoqué par l’arrivée de ChatGPT, nous entendons souvent que l’Intelligence Artificielle n’est qu’un « simple outil », sous-entendant que son impact sur nos vies et nos sociétés dépend avant tout de notre manière de l’utiliser.

Illustration CC-By David Revoy.

Ce discours s’appuie sur le postulat que l’outil — et la technique en général —, quel qu’il soit, est foncièrement neutre.

Or, si on reconnaît l’ambivalence de la technique, c’est-à-dire qu’elle puisse avoir à la fois des effets positifs et négatifs, cela ne signifie pas pour autant que les conséquences de ces effets s’équilibrent les unes les autres et encore moins que la technique est neutre d’un point de vue idéologique, politique, social ou économique.

Au contraire, tout outil porte forcément les intentions de ses créateurices et s’intègre dans un système économico-historico-social qui en fait un objet fondamentalement politique, éliminant toute possibilité de neutralité. De plus, les conditions d’existence d’un outil et son intégration dans nos sociétés l’intègrent de fait dans un système qui lui est propre, occultant ici l’idée de « simple outil ». Un outil est forcément plus complexe qu’il n’y paraît.

Dans son blog, reprenant un billet d’Olivier Lefebvre paru sur Terrestre.org, Christophe Masutti écrivait récemment qu’« on peut aisément comprendre que comparer une IAg et un marteau pose au moins un problème d’échelle. Il s’agit de deux systèmes techniques dont les conditions d’existence n’ont rien de commun. Si on compare des systèmes techniques, il faut en déterminer les éléments matériels et humains qui forment chaque système. »

Si le système technique du marteau du menuisier peut se réduire à des conditions matérielles et sociales relativement faciles à identifier dans un contexte restreint, il en va tout autre des IAg « dont l’envergure et les implications sociales sont gigantesques et à l’échelle mondiale ». On peut reprendre ainsi l’inventaire des conditions que dresse Olivier Lefebvre :

L’Intelligence Artificielle est une bulle économique mais…

… mais cela signifie pas que lorsque celle-ci éclatera, l’IA (et particulièrement les IA génératives) disparaîtra. Les changements apportés à la société semblent indiquer tout le contraire. L’IA a déjà commencé à transformer drastiquement notre société.

Alors que de nombreux pays du monde et d’entreprises s’étaient engagés à atteindre une neutralité carbone d’ici 2050, ces engagements semblent aujourd’hui ne plus intéresser personne. Google a augmenté de 65 % ses émissions de gaz à effet de serre en 5 ans47, Microsoft de 29 % en 4 ans48, Trump relance la filière charbon aux États-Unis49

Au nom des sacro-saintes compétitions et productivités, les engagements climatiques reculent alors même que nous constatons qu’il est désormais impossible de limiter le réchauffement climatique à +1,5°C par rapport à l’ère pré-industrielle50.

Les conséquences du recul de ces engagements et l’amplification du réchauffement climatique liée aux effets directs (construction de nouveaux centre de données, de nouvelles sources d’énergie, etc.) et indirects (encouragement du climato-scepticisme, report des engagements climatiques, etc.) sont des effets dont les conséquences nous affectent déjà et qui s’accentueront très certainement à l’avenir.

Cependant, les bouleversements climatiques ne sont pas les seuls sujets sur lesquels s’exerce l’influence de l’IAg dans notre société. L’IAg est aussi un système poussant à la prolétarisation des sociétés.

Aujourd’hui, 93 % des 18-25 ans ont utilisé une IAg ces six derniers mois, et 42 % les utilisent au quotidien, soit deux fois plus que l’année dernière51.

Il est probable que des milliers (voire des millions) d’étudiant·es ont déjà développé une dépendance à l’IAg dans le cadre de leurs études et ne peuvent aujourd’hui plus s’en passer pour accomplir les tâches que la société et ses institutions attendent d’elles et eux.

Alors qu’un tiers des PME (Petites et Moyennes Entreprises) l’utilisent déjà, la France souhaite que 80 % des PME et ETI (Entreprises de Taille Intermédiaire) adoptent l’IA dans leurs pratiques de travail d’ici 203052.

ChatGPT est aujourd’hui utilisé par 400 millions d’utilisateurices hebdomadaires53… et nous parlons uniquement de ChatGPT, pas de Gemini, Claude, ou autre concurrent.

Dans leur excellente étude sur le « forcing de l’IA », le collectif Limites Numérique décortiquait la manière dont les géants du numérique imposent l’utilisation de l’IA à leurs utilisateurices en l’intégrant absolument partout.

WhatsApp et ses 2,4 milliards d’utilisateurices ? Meta AI est intégré par défaut.

Android et ses 3,3 milliards d’utilisateurices ? Gemini est désormais activé par défaut.
Google Search et ses 190 000 recherches par seconde ? Intégration d’AI Overviews pour 200 pays, permettant de résumer automatiquement les contenus des sites.

En trois ans, l’IA générative s’est imposée absolument partout dans notre environnement numérique et même si de nombreuses start-ups tomberont lors de l’explosion de la bulle financière54, il est probable que les géants du secteur restent en place.

Par contre, nos habitudes, nos pratiques de travail, notre rapport au monde et au savoir… eux, auront bel et bien changé.

Conclusion

Nous l’avons dit en introduction de cet article, cela fait des années que nous observons et cherchons à comprendre ce que représente l’IA et ses enjeux. Pour être honnête, ce n’est clairement pas chose aisée.

Comme nous avons essayé de le faire comprendre à travers le site FramamIA, l’IA est bien plus qu’un « simple outil ». C’est d’abord un champ de recherche mais aussi un système complexe, similaire au système numérique (dans lequel il s’intègre).

Depuis ChatGPT, notre temps de veille pour suivre l’actualité du numérique, déjà conséquent à l’époque, a presque doublé. Nous avons passé littéralement des centaines d’heures à lire des articles, à réfléchir à leur propos, à en discuter en interne. À chercher à comprendre comment techniquement fonctionne une IA générative et ses différences avec une IA spécialisée ou un algorithme n’étant pas considéré comme une IA. À chercher à comprendre, aussi, si l’adoption de cette technique n’est qu’une simple mode ou si celle-ci est bel et bien en train de révolutionner notre environnement.

Nous continuerons, à l’avenir, d’accomplir cette veille même si le rythme de publication de la FramIActu sera moins dense. Malgré tout, nous continuerons de partager notre veille sur notre site de curation dédié.

Aussi, comme nous sommes une association « qui fait », nous explorons d’autres pistes pour accomplir notre objet associatif (l’éducation populaire aux enjeux du numérique) autour de ce sujet. Nous souhaitons aider la société à subir le moins possible les conséquences négatives de l’imposition de l’IA dans nos vies.

Nous avons des pistes d’action, nous vous les partagerons quand nous seront prêt·es !

Belle fin d’été à toutes et tous !

À bientôt sur le Framablog !

  1. L’IA générative utilisée par Netflix dans “L’Éternaute” génère surtout… des économies — Télérama ↩︎
  2. Disney a crédité ChatGPT au générique de l’une de ses séries — BFMTV ↩︎
  3. Netflix will show generative AI ads midway through streams in 2026 — ArsTechnica ↩︎
  4. GPT-1 ­— Wikipédia ↩︎
  5. GPT-2 — Wikipédia ↩︎
  6. GPT-3 — Wikipédia ↩︎
  7. How Big Is GPT-4.5 and Why ? — Github ↩︎
  8. OpenAI lance GPT-4.1 et met déjà GPT-4.5 à la retraite — Next ↩︎
  9. TheAgentCompany : Benchmarking LLM Agents on Consequential Real World Tasks — arXiv ↩︎
  10. OpenAI dégaine son ChatGPT Agent, qui prétend pouvoir presque tout faire — Next ↩︎
  11. IA chez Google : des annonces, des annonces, mais quelle stratégie ? ­— Next ↩︎
  12. Comment les robots d’exploration impactent les opérations des projets Wikimedia — Wikimédia ↩︎
  13. Anubis works — Xe Iaso ↩︎
  14. Cloudflare va bloquer les crawlers des IA par défaut — Next ↩︎
  15. Usage statistics and market share of Cloudflare — W3Techs ↩︎
  16. [Enquête] Plus de 1 000 médias en français, générés par IA, polluent le web (et Google) — Next ↩︎
  17. The ABCs of AI and Environmental Misinformation — DeSmog ↩︎
  18. Anatomy of an AI-powered malicious social botnet — arXiv ↩︎
  19. Self-Consuming Generative Models Go MAD — arXiv ↩︎
  20. Exclusive : Reddit in AI content licensing deal with Google — Reuters ↩︎
  21. Reddit says it’s made $203M so far licensing its data — TechCrunch ↩︎
  22. TikTok is being flooded with racist AI videos generated by Google’s Veo 3 — ArsTechnica ↩︎
  23. Real TikTokers are pretending to be Veo 3 AI creations for fun, attention — ArsTechnica ↩︎
  24. A Deepfake Nightmare : Stalker Allegedly Made Sexual AI Images of Ex-Girlfriends and Their Families — 404 Media ↩︎
  25. Enquête ouverte en Normandie après la diffusion de deepfakes d’une douzaine de collégiennes — Next ↩︎
  26. Photos intimes, deepnudes : 13 femmes en colère s’organisent — Next ↩︎
  27. Clément Viktorovitch : « Le discours politique a perdu pied et s’est affranchi du réel » — L’est éclair ↩︎
  28. Ce site montre à quel point les moteurs de recherche ne sont pas neutres et impartiaux — Numerama ↩︎
  29. Pour la première fois, un géant de la tech affirme que l’IA va tuer le web — Numerama ↩︎
  30. Aux États-Unis, ChatGPT est plus utilisé que Wikipédia — Le Grand Continent ↩︎
  31. The Man Who Killed Google Search — Where’s your Ed at ? ↩︎
  32. Intégrité scientifique à l’heure de l’intelligence artificielle générative : ChatGPT et consorts, poison et antidote ? — Cairn.info ↩︎
  33. En 2024, 13,5 % des résumés d’articles de recherche biomédicale étaient co-rédigés par IA — Next ↩︎
  34. Why an overreliance on AI-driven modelling is bad for science — Nature ↩︎
  35. Intelligence artificielle : Stargate, le projet fou américain à 500 milliards de dollars — Next ↩︎
  36. Après Microsoft et Google, Amazon annonce aussi des investissements dans le nucléaire — Next ↩︎
  37. Nvidia dépense 500 milliards de dollars pour des usines dédiées à l’IA aux États-Unis — Frandroid ↩︎
  38. IA : une nouvelle impulsion pour la stratégie nationale — info.gouv.fr ↩︎
  39. Sharing : The Growing Influence of Industry in AI Research — Medium ↩︎
  40. ACL 2023 The Elephant in the Room : Analyzing the Presence of Big Tech in Natural Language Processing Research — arXiv ↩︎
  41. NVIDIA a franchi les 4 000 milliards de dollars de capitalisation — Next ↩︎
  42. Les sacrifiés de l’IA — France TV ↩︎
  43. Vidéos sur les travailleurs du clic — DataGueule ↩︎
  44. Meta poaches 28-year-old Scale AI CEO after taking multibillion dollar stake in startup — Reuters ↩︎
  45. « Vous ne pouvez plus faire sans nous » : les acteurs culturels cherchent l’accord juste avec les sociétés d’IA — Libération ↩︎
  46. Intelligence artificielle : Open AI copie Ghibli sans l’accord de Miyazaki — Libération ↩︎
  47. Google undercounts its carbon emissions, report finds — The Guardian ↩︎
  48. Depuis 2020, les émissions de Microsoft ont augmenté de 29 % — Next ↩︎
  49. Trump relance le charbon américain pour alimenter les datacenters d’IA — Datacenter Magazine ↩︎
  50. Limiter le réchauffement climatique à 1,5 °C est désormais impossible — Le Monde ↩︎
  51. Étude : 93 % des 18-25 ans utilisent l’IA en 2025 — Blog du Modérateur ↩︎
  52. Avec « Osez l’IA », le gouvernement veut accélérer l’adoption de l’IA en entreprise — Next ↩︎
  53. OpenAI’s weekly active users surpass 400 million — Reuters ↩︎
  54. Generative AI experiences rapid adoption, but with mixed outcomes – Highlights from VotE : AI & Machine Learning — S&P Global ↩︎

Khrys’presso du lundi 11 août 2025

lundi 11 août 2025 à 07:42

 

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

RIP

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

Khrys’presso du lundi 4 août 2025

lundi 4 août 2025 à 07:42

 

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

Khrys’presso du lundi 28 juillet 2025

lundi 28 juillet 2025 à 07:42

 

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

RIP ?

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

I'm richer than you! infinity loop