PROJET AUTOBLOG


La Quadrature du Net

source: La Quadrature du Net

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Qu’est-ce que la vidéosurveillance algorithmique ?

mercredi 23 mars 2022 à 14:01

La semaine dernière, La Quadrature du Net a transmis à la CNIL sa position relative à la vidéosurveillance dite « algorithmique », ainsi que plus de 170 contributions de personnes nous ayant mandatées dans le cadre d’une contre-consultation populaire. Nous allons revenir prochainement sur le détail des arguments qui conduisent, selon nous, à combattre toute légitimation de ces dispositifs. En attendant, il est essentiel de revenir sur ce que signifie ce terme et sur la nature exacte de ces technologies déployées depuis plusieurs années en France. Alors, de quoi parle t-on ?

Définitions

Selon la CNIL, la « vidéo augmentée désigne ici des dispositifs vidéo auxquels sont associés des traitements algorithmiques mis en œuvre par des logiciels, permettant une analyse automatique, en temps réel et en continu, des images captées par la caméra. »

Vidéosurveillance/Vidéoprotection « augmentée » ou « intelligente », comme l’écrivent les institutions et les industriels ou encore vidéosurveillance « algorithmique » ou « automatisée » (VSA) comme nous préférons la nommer. Tous ces termes recouvrent une même réalité aux contours plus ou moins flous et aux promesses plus ou moins concrétisées. Il s’agit de l’ajout d’une couche d’algorithme aux caméras de vidéosurveillance dites « classiques ». Et ce, dans le but de rendre automatique l’analyse des images captées par caméras, jusqu’à présent réalisée par des humains, les opérateurs vidéos aux sein des centres de supervision urbains (CSU). Alors pourquoi ces différences de langage ?

Parce que les mots ont un poids fort, nous préférons « automatisation » – ce terme déconstruit la notion d’intelligence qu’apporterait soit-disant la technologie. L’automatisation n’est pas un procédé neutre et en dehors du monde social mais qui transporte 1Florent Castagnino « Rendre « intelligentes » les caméras : déplacement du travail des opérateurs de vidéosurveillance et redéfinition du soupçon », Sciences Po, 2019<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_1').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_1', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); avec lui les représentations et normes de celui-ci. Et « algorithmique » pour rendre visible l’ajout de ces logiciels fabriqués par des start-up et multinationales dont on ne sait pas grand chose.

Cette surcouche algorithmique vise à faire de l’analyse vidéo, que ce soit en temps réel ou après coup, et à repérer… ce que la police a envie de repérer. Cela va de la « détection de comportement suspect », au « maraudage » (entendre être statique dans l’espace public), en passant par le « dépassement d’une ligne », le suivi de personne, la détection d’objet abandonné, d’une bagarre, d’un vol etc.

Le déploiement de la VSA dans les villes

Que ce soit à Toulouse en 2016 avec IBM (projet abandonné en 2019), à Nîmes depuis 2015 avec Briefcam, à Marseille dès 2018 avec la SNEF, à Paris avec la RATP qui autorise des entreprises à tester leur algos sur les utilisateur.ices des métros, ou encore avec la municipalité de Suresnes qui met à disposition sa population en tant que cobaye pour la start-up parisienne XXII, la vidéosurveillance algorithmique se déploie aux quatre coins de la France. S’il reste compliqué de quantifier le nombre de villes qui utilisent la VSA, dû au manque criant de transparence de ces dernières, il est possible d’en repérer au moins une cinquantaine, le vrai nombre devant malheureusement dépasser la centaine, rien qu’en France.

Depuis plusieurs années, nous suivons ce déploiement, souvent très opaque (toutes les municipalités ne sont pas aussi loquaces que celle d’Estrosi). Alors que la VSA faisait l’objet jusqu’il y a peu de très nombreuses expérimentations sauvages, la CNIL a explicitement demandé en janvier 2022 aux industriels du secteur de lui faire des retours sur l’usage de ces technologies « afin d’accompagner leur déploiement », prenant clairement un parti : celui des industriels de la sécurité. La VSA semble en passe d’inonder le marché de la sécurité urbaine numérique.

Et ce marché de la VSA prend forme : si des acteurs comme IBM à Toulouse n’ont pas réussi à rendre efficace leur produit et semblent s’être retirés, l’entreprise israélienne Briefcam (entité du groupe Canon) prétend dominer le marché en France tandis que des villes signent des partenariats avec des start-up ou firmes françaises, soutenues par les décideurs politiques, afin de rendre les industries françaises concurrentielles sur le marché international de la sécurité urbaine numérique.

Les exemples de Briefcam et Two-I

Briefcam est une entreprise qui produit des logiciels de vidéosurveillance algorithmique très bien implantée en France, aux États-Unis et dans une quarantaine de pays. En 2020, déjà plus de 35 villes françaises utilisaient son logiciel, dont voici une démonstration assez révélatrice.

Dans cette vidéo, l’entreprise affirme être capable de condenser des heures de vidéos en quelques minutes, de pouvoir faire du suivi de personnes en fonction d’attributs (femme, homme, sac, chapeaux, couleurs d’habits…). On sait aussi que le logiciel de Briefcam est doté d’une option de reconnaissance faciale, que les élus à la sécurité sont très impatients d’enclencher.

Two-I de son côté est une start-up française, basée du côté de Metz. Ayant d’abord tenté de se faire une place dans la détection d’émotions (notamment l’expérimentation avortée à Nice de détection d’émotions dans les tramways), elle s’est finalement lancée dans la vidéosurveillance algorithmique et la conception de ce que les industriels appellent une « plateforme d’hypervision ». Ces plateformes mettent en carte et traduisent les nombreuses données collectées par les caméras et les algorithmes, dans le but « d’optimiser la gestion de la ville ». En somme, ces plateformes permettent de rendre utilisable la vidéosurveillance algorithmique, via une mise en carte des données et alertes captées par les caméras et algorithmes.

Hyperviseur de Two-I, voir la vidéo de présentation <a href=

Hyperviseur de Two-I, voir la vidéo de présentation ici.

L’exemple des logiciels de Briefcam ou encore de Two-I (qui ne sont que deux exemples parmi une dizaine d’autres entreprises sécuritaires du même type) est révélateur de ce nouveau marché de la sécurité mais aussi d’un basculement dans le concept de sécurité. Dorénavant, ce sont des entreprises privées qui, concevant les algorithmes vendus aux collectivités territoriales, décident ce qu’il y a derrière une alerte pour « comportement anormal ou suspect ». À travers l’automatisation, les entreprises acquièrent un pouvoir de police et d’édiction de normes et comportements dans l’espace public, s’inscrivant parfaitement dans l’expansion des politiques sécuritaires.

Les effets de la vidéosurveillance algorithmique

L’ajout d’algorithme à la vidéosurveillance « classique » n’est pas anodin. Cela témoigne d’un changement d’échelle dans la surveillance par les caméras qui, jusqu’à présent, comme le décrit Tanguy Le Goff2Le Goff, Tanguy. « Dans les « coulisses » du métier d’opérateur de vidéosurveillance ». Criminologie, vol. 46, n o 2, 2013, p. 91-108.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_2').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_2', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });, était un « travail de surveillance […] jugé ennuyeux et monotone » au sein duquel les opérateurs vidéos mettaient en place des stratégie pour réaliser ce travail de manière partielle.

L’automatisation de cette surveillance est censée décupler les yeux derrière l’écran des caméras. Et cela se traduit notamment par la criminalisation de comportements jusqu’alors anodins ou presque comme le dépôt d’ordures sauvage, le non port du masque ou encore les déjections canines. L’automatisation permet à la police d’étendre sa capacité d’action à de nouveaux champs sur lesquels elle a maintenant un pouvoir de répression. La police peut décupler sa capacité à normaliser l’espace public : si le maraudage, c’est-à-dire le fait de rester statique plus de 300 secondes, alerte les forces de l’ordre, on peut craindre pour les personnes qui ne peuvent pas voir la rue comme un « simple endroit de passage », car ils y vivent ou en font un repère social nécessaire. Nous reviendrons dans un prochain article sur le fait que les algorithmes sur les caméras augmentent la répression policière sur les populations déjà particulièrement ciblée par les forces de l’ordre.

Un autre aspect de la VSA est la tendance croissante à être mis en données. Au-delà de la surveillance de l’espace public et de la normalisation des comportements qu’accentue la VSA, c’est tout un marché économique de la data qui se frotte les mains. Le prétendu « encadrement » des dispositifs promis par la CNIL permettrait aux entreprises de la Technopolice d’utiliser les espaces publics et les personnes qui les traversent ou y vivent comme des « données sur pattes ». Et aux industries de la sécurité de se faire de l’argent sur nous, d’améliorer leurs algorithmes de répression et ensuite de les vendre sur le marché international. C’est ce que fait la multinationale française Idémia, qui affine ses dispositifs de reconnaissance faciale aux aéroports français avec les dispositifs PARAFE ou MONA pour ensuite vendre des équipements de reconnaissance faciale à la Chine et ainsi participer à la surveillance de masse et au génocide Ouïghour, ou encore pour remporter les appels d’offres de l’Union Européenne en vue de réaliser de la biométrie aux frontières de l’UE.

De quoi la VSA est-elle le nom ?

Vidéosurveillance automatisée et Smart City nourrissent la même fiction : celle d’une ville dont les capteurs mettent en données, où les algorithmes trient et détectent et où une plateforme centrale permettrait à la police de gérer la ville à distance.

La vidéosurveillance algorithmique, c’est un marché de la sécurité qui tente de s’accroître en devenant « numérique » c’est-à-dire avec de l’IA et des algorithmes. Et comme le montre Myrtille Picaud 3 Myrtille Picaud. Peur sur la ville. La sécurité numérique pour l’espace urbain en France. [Rapport de recherche] 01/2021, Chaire ”Villes et numérique”, École urbaine de Sciences Po. 2021.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_3').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_3', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });, les industriels et décideurs politiques français font pression pour structurer une filière industrielle sécuritaire forte afin d’être concurrentielle sur le marché international, qui représente un marché économique énorme. Les grands événements sportifs comme les Jeux Olympiques de Paris en 2024 ou encore la coupe du monde de Rugby en 2023 représentent une aubaine pour accélérer le développement de technologies sécuritaires, offrir une vitrine aux industriels français et normaliser ces dispositifs.

Pour les industriels, la VSA représente la possibilité de justifier le déploiement de centaines de milliers de caméras en France. Déploiement largement décrié 4 Voir ces trois études : Celle de Guillaume Gormand commandée par le CREOGN https://www.aefinfo.fr/depeche/663759-pour-le-chercheur-guillaume-gormand-critiquer-la-videosurveillance-c-est-s-attaquer-a-une-religion, l’étude sur la vidéosurveillance dans les villages, novembre 2021 https://linc.cnil.fr/fr/comment-la-videosurveillance-se-developpe-t-elle-dans-les-villages et le rapport sur les polices municipales, octobre 2020 disponible sur https://www.ccomptes.fr/system/files/2020-11/20201020-rapport-polices-municipales_0.pdf<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_4').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_4', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); même par les institutions publiques, mais qui, par un tour de magie, prendrait tout son sens avec l’ajout d’algorithmes (argument absurde, nous y reviendrons dans un prochain article). La VSA permettrait d’utiliser les caméras à leur plein potentiel et même d’accélérer leur déploiement : il en faudra plus et il faudra aussi remplacer les anciennes qui ne seraient pas d’assez bonne qualité pour les algorithmes ; et surtout s’assurer de poursuivre l’installation démesurée de caméras qui continueront à rapporter beaucoup d’argent aux entreprises du secteur.

En plus de constituer une justification à la multiplication des caméras de vidéosurveillance, la VSA forme une ressource rentable 5Laurent Mucchielli Vous êtes filmés, Armand Colin, 2018, page 80<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_5').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_5', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); politiquement, expliquant l’engouement immodéré des élus locaux pour la vidéosurveillance. La VSA est une mesure de court terme que les élus locaux peuvent mobiliser pour montrer qu’ils agissent. La sécurité numérique constitue 6Guillaume Faburel Les métropoles barbares, Paris, Le passager clandestin, 2020 [2018], page 46<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_6').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_6', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); également une source d’attractivité et de distinction dans la concurrence territoriale, dans la recherche de capital symbolique pour attirer tourisme et classe créative.

La vidéosurveillance algorithmique, c’est un renouveau dans la croyance en la « prophétie technologique 7Ibid<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18493_2_7').tooltip({ tip: '#footnote_plugin_tooltip_text_18493_2_7', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); » intégrée dans les Smart City. Cette croyance permet de continuer à déployer des caméras et, surtout, de trouver toujours plus de débouchés économiques.

Pour conclure :

En somme, la vidéosurveillance algorithmique est une technologie en passe d’être largement déployée en France et qui l’est peut être déjà beaucoup plus que ce que nous pouvons en douter, qui sert à justifier l’existence de l’immense parc de vidéosurveillance français, en tentant de les rendre plus performantes, via l’automatisation de la détection d’infractions. Cette technologie s’intègre dans la fiction plus large de la Smart City, qui base la gestion de la ville sur l’IA et représente un énorme marché économique. Ces technologies d’automatisation réduisent encore les espaces de libertés dans les rues et sur les places des villes, augmentant la répression sur les populations les plus visées déjà par la police. Nous reviendrons plus en détail sur ce pour quoi nous sommes contre cette technologie et comment il est possible de lutter contre son déploiement.

References

References
1 Florent Castagnino « Rendre « intelligentes » les caméras : déplacement du travail des opérateurs de vidéosurveillance et redéfinition du soupçon », Sciences Po, 2019
2 Le Goff, Tanguy. « Dans les « coulisses » du métier d’opérateur de vidéosurveillance ». Criminologie, vol. 46, n o 2, 2013, p. 91-108.
3 Myrtille Picaud. Peur sur la ville. La sécurité numérique pour l’espace urbain en France. [Rapport de recherche] 01/2021, Chaire ”Villes et numérique”, École urbaine de Sciences Po. 2021.
4 Voir ces trois études : Celle de Guillaume Gormand commandée par le CREOGN https://www.aefinfo.fr/depeche/663759-pour-le-chercheur-guillaume-gormand-critiquer-la-videosurveillance-c-est-s-attaquer-a-une-religion, l’étude sur la vidéosurveillance dans les villages, novembre 2021 https://linc.cnil.fr/fr/comment-la-videosurveillance-se-developpe-t-elle-dans-les-villages et le rapport sur les polices municipales, octobre 2020 disponible sur https://www.ccomptes.fr/system/files/2020-11/20201020-rapport-polices-municipales_0.pdf
5 Laurent Mucchielli Vous êtes filmés, Armand Colin, 2018, page 80
6 Guillaume Faburel Les métropoles barbares, Paris, Le passager clandestin, 2020 [2018], page 46
7 Ibid
<script type="text/javascript"> function footnote_expand_reference_container_18493_2() { jQuery('#footnote_references_container_18493_2').show(); jQuery('#footnote_reference_container_collapse_button_18493_2').text('−'); } function footnote_collapse_reference_container_18493_2() { jQuery('#footnote_references_container_18493_2').hide(); jQuery('#footnote_reference_container_collapse_button_18493_2').text('+'); } function footnote_expand_collapse_reference_container_18493_2() { if (jQuery('#footnote_references_container_18493_2').is(':hidden')) { footnote_expand_reference_container_18493_2(); } else { footnote_collapse_reference_container_18493_2(); } } function footnote_moveToReference_18493_2(p_str_TargetID) { footnote_expand_reference_container_18493_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } } function footnote_moveToAnchor_18493_2(p_str_TargetID) { footnote_expand_reference_container_18493_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } }

Données de connexion : une victoire en retard

vendredi 25 février 2022 à 17:06

Dans sa décision de ce matin, le Conseil constitutionnel vient de censurer, comme Franciliens.net et La Quadrature le lui demandaient, une partie de l’obligation de conservation généralisée et indifférenciée des données de connexion, c’est-à-dire la surveillance de masse des télécommunications. Cette censure est une bonne nouvelle, mais ne va pas, en pratique, mettre tout de suite fin à cette surveillance illégale.

Depuis sept ans, La Quadrature du Net et d’autres associations se battent contre cette surveillance des réseaux de télécommunications. Celle-ci permet aux services de police, de renseignement et à la Hadopi/Arcom d’accéder, pendant une année, à toutes les traces numériques que nous laissons en utilisant un téléphone ou un ordinateur. Pourtant, l’obligation imposée aux opérateurs et hébergeurs de conserver toutes ces données pour les besoins de la police était jugée illégale et disproportionnée depuis 2014 par la Cour de justice de l’Union européenne.

En sept ans de procédure, nous avons essuyé mépris et échec devant les juridictions françaises. Mépris de l’État de droit, d’abord, mis à mal par le gouvernement. Celui-ci ne veut pas respecter cette jurisprudence européenne confirmée par la victoire obtenue difficilement par La Quadrature, FDN, FFDN et igwan.net devant la Cour de Justice de l’Union européenne en 2020. En invoquant des inepties juridiques, la France demandait au Conseil d’État de ne pas appliquer une décision de justice qui, pourtant, s’impose sans discussion à elle.

Échec, ensuite, parce qu’en 2021, prétextant un état d’urgence permanent qui justifierait les pires mesures de surveillance, le Conseil d’État préféra finalement donner raison aux velléités sécuritaires du gouvernement.

Aujourd’hui, le Conseil constitutionnel vient toutefois de prendre un autre chemin. Il avait à se prononcer sur la question de la constitutionnalité d’une précédente version de la loi encadrant cette obligation de conservation généralisée et indifférenciée. En considérant que celle-ci est disproportionnée, le Conseil constitutionnel s’aligne donc avec la ligne jurisprudentielle européenne que nous défendons depuis le début de cette bataille. Après toute cette résistance de la part du gouvernement et du Conseil d’État, ce sursaut est une bonne nouvelle.

Cette censure arrive toute fois un peu tard. Déjà, le Conseil constitutionnel n’était saisi que de l’ancienne version de l’article L. 34-1 du code des postes et des communications électroniques. Celle-ci constituait la base juridique de l’affaire pénale à l’occasion de laquelle la question avait été posée. Mais, entre-temps, cet article a été réécrit à l’été 2021 par l’adoption de la loi renseignement. Si la conservation des données est toujours prévue par les nouvelles dispositions, la manière dont elle est encadrée est plus complexe et suit l’interprétation opportuniste du Conseil d’État. Nous ne pouvons donc pas affirmer que la décision d’aujourd’hui amène forcément à une inconstitutionnalité de la nouvelle version de cet article.

Ensuite, le Conseil constitutionnel a décidé de se limiter au champ pénal seulement, ce qui veut dire que ni la surveillance à des fins de lutte contre le piratage, ni celle à des fins de renseignement ne sont concernées par la décision d’aujourd’hui. Or, comme on le voit depuis 2015, et plus récemment avec la question du partage de renseignements, le Conseil constitutionnel n’a jamais voulu entraver le travail de ces services de renseignement, quitte à nier les droits fondamentaux.

Nous accueillons donc positivement la décision du Conseil constitutionnel qui permet de poser une nouvelle pierre à l’édifice de protection de la vie privée mais nous devons garder à l’esprit ses limites pratiques. L’effet et le coût politique sont à relativiser : il est facile pour le Conseil constitutionnel de censurer des dispositions qui ne sont plus en vigueur. De fait, cette victoire juridique arrive trop tard puisque les pratiques de surveillance ont été validées par les initiatives du Conseil d’État, du gouvernement et de sa majorité au Parlement. Nous allons suivre de près les suites qui pourraient être données à cette décision, ce travail n’étant possible que grâce à votre aide.

IA et réforme de l’État : vers des bureaucraties sans humains ?

vendredi 18 février 2022 à 10:32

Texte publié en novembre 2021 sur AOC media.
Depuis quelques années, à grand renfort d’un vocable issu du monde des « start-ups », on assiste à la consolidation d’un nouvel avatar de la réforme néo-libérale de l’État. À travers les concepts d’« État plateforme » ou de « start-up d’État »1Voir par exemple : Algan, Yann et Cazenave, Thomas, 2016. L’Etat en mode start-up. Paris : Eyrolles. Bertholet, Clément et Létourneau, Laura, 2017. Ubérisons l’État ! Avant que d’autres ne s’en chargent. Malakoff : Armand Colin. Pezziardi, Pierre et Verdier, Henri, 2017. Des startups d’État à l’État plateforme. CreateSpace Independent Publishing Platform.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_1').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_1', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });, les nouveaux réformateurs comptent sur les « corporate hackers » et l’innovation disruptive pour transformer de l’intérieur les bureaucraties publiques, laisser libre cours à la créativité, renouer avec la transparence, déployer des méthodes « agiles » et s’adapter à un environnement en perpétuelle transformation, le tout à moindre coût. L’« État digital » – concept vanté en juin 2017 par Emmanuel Macron lors d’une ode à la « startup nation » restée célèbre – est aussi et surtout un État en voie d’automatisation : pour accompagner l’horizon du non-remplacement de près de 50 000 fonctionnaires d’ici à 2022, le plan Action Publique 2022 lancé en octobre 2018 misait sur des « technologies telles que l’intelligence artificielle et les RPA (‘‘robotic process automation’’ »), et ce afin de « d’automatiser les tâches répétitives et à faible valeur ajoutée »2Action Publique 2022 : Notre stratégie pour la transformation de l’action publique. Octobre 2018. Paris: Gouvernement français.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_2').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_2', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });.

Le contexte est en effet propice à l’automatisation de nombreuses fonctions administratives. Outre la conversion d’une partie des élites politiques et administratives au concept de « gouvernance par les données », l’offre technologique des prestataires privés s’est aussi structurée, grâce notamment au développement rapide des techniques dites d’« intelligence artificielle » (IA). Du côté des « administrés », ce projet rencontre une plus grande acculturation de la population française au numérique 3Près de 10 millions de résidents français ne bénéficient toutefois pas d’accès à Internet (soit parce qu’ils ne disposent pas d’abonnement, soit qu’il ne disposent pas d’équipements adéquats). Voir le baromètre du numérique réalisé par l’Arcep, juillet 2021, p. 308 : https://www.arcep.fr/uploads/tx_gspublication/rapport-barometre-numerique-edition-2021-infographie.pdf. Trois français sur dix s’estiment incompétent pour réaliser des démarches administratives en ligne. Charrel, Marie, et Zeliha Chaffin. 7 septembre 2021. « Illectronisme : les laissés-pour-compte du tout-numérique ». Le Monde. https://www.lemonde.fr/economie/article/2021/09/07/illectronisme-les-laisses-pour-compte-du-tout-numerique_6093657_3234.html. <script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_3').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_3', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });, avec un taux d’équipement important et de nombreux programmes pour la « former » aux outils numériques, que ce soit à l’initiative des pouvoirs publics ou d’entreprises comme Google (entreprise accueillie à bras ouverts par plusieurs villes françaises pour installer ses « ateliers numériques »).

Ces différents facteurs poussent à une multiplication des « assemblages algorithmiques » dans les administrations4Sur la notion d’« assemblage algorithmique », voir Ananny, Mike, et Kate Crawford. 2018. « Seeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability ». New Media & Society 20(3): 973‑89.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_4').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_4', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. Que ce soit la dématérialisation de nombreuses démarches administratives, l’automatisation partielle de l’affectation post-Bac avec Parcoursup, l’automatisation de l’accompagnement des demandeurs d’emploi avec le projet « Mon Assistant Personnel » expérimenté par Pôle Emploi, l’automatisation de la lutte contre la fraude sociale par les caisses d’allocation familiale ou de la lutte contre la fraude sociale par le fisc, l’automatisation du contrôle d’identité via la reconnaissance faciale des bornes PARAFE installées dans plusieurs aéroports, ou encore l’automatisation des communications ou comportements suspects au sein des services de police ou de renseignement, nombre de pratiques administratives sont aujourd’hui de plus en plus articulées à des algorithmes semi-autonomes.

Face à ce processus, des craintes s’expriment dans certains segments de la société. Sont notamment évoqués les risques pour la vie privée, l’avènement d’une « société de contrôle » appuyée sur l’informatique, l’opacité des assemblages algorithmiques, les formes aggravées de déshumanisation induites par l’automatisation ou encore l’accentuation des inégalités structurelles. Au sein même des bureaucraties concernées par ces transformations, la peur du déclassement de l’humain par la machine, le surcroît de procédures, le risque de bugs techniques ou le phénomène rampant de privatisation suscitent également leur lot de résistances parmi les agents.
Dans le même temps, les avancées dans le domaine de l’IA ont conduit à la multiplication de travaux dédiés aux enjeux sociaux, éthiques et juridiques de ces technologies de plus en plus intégrées au fonctionnement des grandes organisations. L’objectif consiste à poser les règles minimales garantes de l’« acceptabilité sociale » de cette nouvelle étape du processus d’informatisation. Au travers d’un certain nombre de procédures, il s’agit par exemple de formaliser les choix éthiques réalisés dans le cadre du développement d’algorithmes, de garantir leur transparence, leur « explicabilité » ou leur « auditabilité », ou encore de réduire autant que faire se peut les risques pour les droits fondamentaux au travers d’approches dites de « privacy-by-design  » et autres « chartes éthiques ».

L’échec de l’approche procédurale

Ces réflexions ont conduit à la multiplication de rapports, de livres blancs ou de textes de soft-law émanant du secteur privé, d’organismes de protection des données comme la CNIL, d’institutions comme le Parlement européen mais aussi d’organisations internationales comme le Conseil de l’Europe ou le Conseil des droits de l’Homme des Nations Unies. Au niveau international, entre 2016 et 2019, plus de soixante-dix chartes éthiques dédiées à l’intelligence artificielle ont ainsi été publiées par divers organismes, adoptant souvent une approche probabiliste et quantifiable des risques associés à l’IA5Renn, Ortwin, Andreas Klinke, et Marjolein van Asselt. 2011. « Coping with Complexity, Uncertainty and Ambiguity in Risk Governance: A Synthesis ». AMBIO 40(2): 231‑46. Budish, Ryan. 2020. « AI & the European Commission’s Risky Business ». Berkman Klein Center for Internet and Society. https://medium.com/berkman-klein-center/ai-the-european-commissions-risky-business-a6b84f3acee0.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_5').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_5', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. Du côté des administrations publiques, ces travaux ont parfois débouché sur des dispositions législatives ou réglementaires ad hoc, à l’image de l’évaluation de l’« incidence algorithmique » désormais imposée aux administrations fédérales canadiennes6Voir la présentation de l’« outil d’évaluation de l’incidence algorithmique » sur le site Web du gouvernement canadien, https://archive.md/wip/uJuZ7.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_6').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_6', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });, mais aussi de la loi française qui, depuis 2016, garantit un principe de transparence des algorithmes publics servant à fonder des décisions administratives individuelles7Article 4 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_7').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_7', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });.

En dépit de l’impression qui domine généralement d’avoir à faire à des défis tout à fait inédits, il est frappant d’observer la similitude des controverses actuelles avec celles ayant marqué le premier cycle d’informatisation de la société, dans les années 1970. Or, qu’il s’agisse des premières lois sur la protection des données personnelles face au fichage informatique ou les progrès de la transparence administrative pour compenser le surcroît d’opacité induite par l’informatisation de l’État, ces aménagements procéduraux ont passablement échoué à atteindre les objectifs qu’on leur avait assignés.

Cet échec s’est produit dans un contexte politique et technologique plutôt favorable : une période où, en réponse aux contestations d’alors, les États adoptaient de grandes législations libérales censées étendre les droits et libertés, et où la mise sur le marché des micro-ordinateurs et l’avènement de réseaux télécoms décentralisés conduisaient de nombreux commentateurs à prédire une avancée historique dans le processus de démocratisation. Quarante ans plus tard, à l’heure où le Big Data ou l’intelligence artificielle s’accompagnent d’une recentralisation phénoménale des capacités de calcul, à l’heure où l’accumulation des crises et des législations d’exception conduit à l’hypertrophie du pouvoir exécutif et à la consolidation d’un contrôle policier de plus en plus polycentrique, un tel découplage entre pouvoir et informatique paraît moins probable que jamais.

Malgré ce contexte peu engageant, les controverses contemporaines continuent de miser sur les mêmes remèdes, faits de garde-fous pour les droits et libertés et d’obligations de transparence. Récemment, l’un des rapporteurs au Parlement de la proposition de loi dite « sécurité globale » résumait bien la situation en évoquant sa conviction qu’en dépit de leurs dangers, l’usage des drones de surveillance par la police pourrait être encadré par des garanties appropriées : « J’essaie de trouver », expliquait-il alors, « des accommodements raisonnables, c’est-à-dire ‘‘oui, mais’’ ». C’est ainsi qu’à chaque débat parlementaire sur l’informatisation bureaucratique, on choisit de « prendre le risque », en tentant d’y parer par l’éternel retour des « accommodements raisonnables ». À tel point qu’on aimerait opposer à la logique du « oui, mais » le vieux dicton latin : « Errare humanum est, perseverare diabolicum » (« l’erreur est humaine, persévérer [dans son erreur] est diabolique »).
L’histoire n’est pourtant pas la seule discipline riche d’enseignement quant à l’inadéquation de ces « accommodements » pour la défense des valeurs démocratiques. Certains travaux en sociologie des sciences et des techniques ont également montré la faible portée pratique de ces approches procédurales, les règles ainsi posées étant souvent inapplicables, contournées, ou privées de leurs effets. Sur le plan juridique enfin, l’expérience montre également que les « gardes-fou » adoptés par le législateur ou les juges s’avèrent très fragiles. Compte tenu des logiques bureaucratiques d’optimisation (fonctionnelle, budgétaire, etc.) des tâches administratives, l’innovation technologique (dans le contrôle d’identité, le placement des bacheliers, etc.) tend systématiquement à créer un besoin, lequel se traduit tôt ou tard par des réformes visant à légaliser des usages qui paraissaient auparavant inenvisageables techniquement ou inacceptables socialement.

Des fonctionnaires dispensables

En réduisant les enjeux à des questions de procédures – donc à des questions souvent techniques sur la manière dont réguler l’usage d’un dispositif – et en se focalisant sur les artefacts technologiques en négligeant leur environnement institutionnel, les controverses actuelles tendent également à éluder certains problèmes politiques soulevés par l’automatisation bureaucratique. Par exemple, il est une question fondamentale dont il est rarement débattu : quelle serait la signification politique d’une bureaucratie presque entièrement automatisée ? La critique des tendances anti-démocratiques du pouvoir bureaucratique a occupé une place importante dans la théorie politique depuis le XIXè siècle. Mais sans minimiser les formes de violences associées aux bureaucraties passées et présentes, il n’en demeure pas moins qu’en pratique, leur potentiel dystopique peut être en partie contenu par les femmes et les hommes en leur sein.

C’est ce que soulignent de nombreux travaux en sociologie politique. Pour Michael Mann par exemple, la critique de Max Weber à l’encontre des bureaucraties exagère l’ampleur du pouvoir qu’elles peuvent imprimer sur la société : selon lui, puisque l’État doit procéder au recrutement massif de fonctionnaires pour garnir les rangs de bureaucraties toujours plus tentaculaires, le « pouvoir infrastructurel » de l’État sur la « société civile » se développe au prix d’une pénétration de ses propres structures administratives par cette même société civile, qui aux travers de ces fonctionnaires toujours plus nombreux est en mesure d’influencer l’État8Mann, Michael. 2012. The Sources of Social Power: Volume 2, The Rise of Classes and Nation-States, 1760-1914. Cambridge University Press, p. 59.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_8').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_8', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. Dans une approche qui a le mérite d’éviter une opposition trop binaire entre État et « société civile », Timothy Mitchell évoque lui aussi les formes de résistance internes nourries par des « sujets politiques […] formés au sein de la sphère organisationnelle dénommée État »9Mitchell, Timothy. 2018. « Les limites de l’État : Au-delà des approches étatistes et de leurs critiques ». In Etat et société politique : Approches sociologiques et philosophiques, éd. Bruno Karsenti et Dominique Linhardt. Paris: Editions de l’Ecole des Hautes Etudes en Sciences Sociales, p. 372.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_9').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_9', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });

De manière plus empirique, la sociologie de l’action publique a largement souligné le rôle joué par les « street-level bureaucrats » – c’est-à-dire les agents placés au contact direct des administrés – dans le travail d’interprétation et d’adaptation des règles aux réalités des publics et des terrains10Voir par exemple : Dubois, Vincent. 2013. « Le rôle des street-level bureaucrats dans la conduite de l’action publique en France ». In La France et ses administrations. Un état des savoirs, éd. Jean-Michel Eymeri–Douzans et Geert Bouckaert. Bruxelles: Bruylant, 169‑77<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_10').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_10', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. Au sein de la discipline, un débat a cours depuis une vingtaine d’années pour élucider les effets de l’introduction des technologies informatiques vis-à-vis de ce travail d’interprétation11Snellen, Ignace. 2002. « Electronic Governance: Implications for Citizens, Politicians and Public Servants ». International Review of Administrative Sciences 68(2): 183‑98. Buffat, Aurélien. 2015. « Street-Level Bureaucracy and e-Government ». Public Management Review 17(1): 149‑61.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_11').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_11', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. Si ces effets apparaissent ambivalents, il reste que, dans un certain nombre de contextes, la technologie rend d’ores et déjà quasiment impossible une telle herméneutique. Et quand bien même davantage d’études de terrain seraient nécessaires pour l’évaluer précisément, on peut s’attendre à ce que l’automatisation croissante de certaines tâches administratives en lien avec les dernières innovations technologiques rognent encore davantage sur les marges de manœuvre laissées aux « street-level bureaucrats ».

Ce pourrait d’ailleurs être là l’un des ressorts tacites du mouvement d’automatisation bureaucratique. Si, comme le suggère l’anthropologue David Graeber, la bureaucratie est « faite, d’abord et avant tout, d’agressions contre ceux qui persistent à défendre d’autres schémas ou des interprétations différentes » 12Graeber, David. 2015. Bureaucratie: L’utopie des règles. Les Liens qui libèrent, chapitre 2.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_12').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_12', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });, il n’est guère surprenant qu’elle appréhende la subjectivité de ses agents comme un aléas dispensable, en abordant le fonctionnaire et ses dilemmes moraux comme un bug à corriger13On retrouve ce parti pris dans la doctrine juridique. Voir par exemple Michoud, Léon. 1914. « Étude sur le pouvoir discrétionnaire de l’administration », Rev. gén. adm., sept.-déc. 1914, p. 11 : « En théorie, il n’existe qu’une seule solution exacte ; toute autre repose sur une erreur d’appréciation. Il s’agit seulement de dégager la véritable règle de droit et de l’appliquer à un fait. La divergence possible des solutions a pour cause unique l’insuffisance, l’incertitude des jugements humains ».<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_13').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_13', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. Dans une bureaucratie automatisée, aucune désobéissance possible dans l’application de la règle inscrite dans le dispositif, plus aucun lanceur d’alerte dont la conscience pourra être à ce point heurtée par la violence bureaucratique qu’il ou elle se décidera à porter l’affaire à la connaissance du public. En évinçant l’élément humain dans l’application des règles rationnelles et impersonnelles, l’automatisation bureaucratique a le potentiel de faire advenir le gouvernement totalement déshumanisé que décrivait Hannah Arendt au tournant des années 1960 : « dans une bureaucratie pleinement développée, il ne reste plus personne avec qui l’on puisse discuter, à qui l’on puisse présenter des griefs (…) »14Arendt, Hannah. 2003. Du mensonge à la violence. Paris : Presses Pocket<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_14').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_14', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });.

Cette analyse conduit à une autre interrogation : le fait d’accepter d’être administré par des machines ne conduit-il par à rompre avec l’horizon politique de l’humanisme, en acceptant de nous concevoir nous-mêmes – personnes administrées – comme des machines, c’est-à-dire comme les objets d’un gouvernement plutôt que des sujets politiques ? Dans un colloque récent auquel je participais et où certains s’inquiétaient de l’impossibilité d’accorder une responsabilité juridique à un dispositif autonome (par exemple une voiture « intelligente »), un directeur de recherche au CNRS, spécialiste de l’aide à la décision, estimait que de telles inquiétudes étaient infondées. Selon lui, on ne peut pas non plus – en tout cas pas toujours – expliquer les motivations, le raisonnement et les décisions d’un individu. Or, cela n’empêche pas, en l’état actuel du droit, de considérer ces mêmes individus comme des sujets de droit. De son point de vue, il n’y aurait donc pas de problème particulier à appréhender un ordinateur comme une personne juridiquement responsable.

Gouvernés comme des machines

Si innocent qu’il puisse paraître, ce genre d’assertion assume en réalité une rupture avec les principes humanistes au fondement du droit libéral15Delmas-Marty, Mireille. 2010. Libertés et sûretés dans un monde dangereux. Seuil, p. 84 et suivantes.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_15').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_15', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. Ce dernier considère en effet que, même si les motivations et les état mentaux d’autrui ne peuvent pas toujours être sondés, ils sont en fait équivalents aux nôtres. Selon cette conception, autrui est réputé doué des mêmes facultés que nous, animé lui aussi par une volonté et des désirs. C’est ce qui fait de lui un pair devant jouir de droits et d’une dignité égale à la nôtre. Même si le fait d’être administré par des organisations bureaucratiques constitue bien une forme de dépossession et de violence, au moins est-elle en partie rendue plus tolérable (car plus « négociable ») par l’existence d’interlocuteurs humains (en espérant que ces personnes pourront user à bon escient d’une certaine marge d’interprétation).
Dès lors que cet « élément humain » disparaît, dès lors que ne subsiste plus que le fonctionnement froid et impénétrable d’un algorithme fondé sur des simplifications abstraites et une approche quantitative et probabiliste du réel (fut-il paramétré par un ingénieur), cette capacité à négocier avec un pair disparaît. Comme le notait Arendt, il devient dès lors impossible de faire valoir nos situations spécifiques, nos subjectivités et nos affects en comptant sur l’empathie d’autrui. En édifiant des bureaucraties toujours plus automatisées, nous risquons donc de solder cette « anthropologie humaniste » au fondement du droit libéral pour lui substituer une anthropologie guerrière et cybernétique au sein de laquelle, comme le souligne le philosophe des sciences Peter Galison, chacun est considéré comme une « boîte noire », avec « des entrées et des sorties et sans accès à la vie intérieure d’autrui16Galison, Peter. 1994. « The Ontology of the Enemy: Norbert Wiener and the Cybernetic Vision ». Critical Inquiry 21(1): 228‑66. Voir aussi : Bruno, Fernanda, Maurício Lissovsky, et Icaro Ferraz Vidal Junior. 2018. « Abstraction, expropriation, anticipation : Note généalogique sur les visions machiniques de la gestualité ». Reseaux n° 211(5): 105‑35.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_16').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_16', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); ». Ce qui revient, en fin de compte, à accepter de nous considérer les uns les autres comme des machines.

La focale procédurale et le primat donné aux dispositifs socio-techniques dans l’évaluation des « risques » écarte aussi d’autres enjeux soulevés par la logique d’optimisation bureaucratique. Par exemple, l’une des justifications les plus courantes à l’informatisation des administrations tient à des objectifs comptables et budgétaires : en réalisant un saut qualitatif dans l’automatisation, l’IA permettrait de faire « passer à l’échelle » tel ou tel process bureaucratique en réalisant des économies d’échelle. Ainsi, dans un courrier à la CNIL, la région PACA défendait récemment l’expérimentation de la reconnaissance faciale aux abords des lycées en affirmant que ce projet constituait « une réponse au différentiel croissant constaté entre les exigences de sécurisation des entrées dans les établissements et les moyens humains disponibles dans les lycées, dans le cadre des plans successifs de réduction des effectifs dans la fonction publique »17Voir le courrier envoyé par la Région Sud à la CNIL. 7 mars 2018. https://data.technopolice.fr/fr/entity/hi661p1k6s9.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_17').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_17', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. De même, les applications dite de « backtracking » popularisées lors de la pandémie de COVID-19 consistent à automatiser les stratégies de contact-tracing traditionnellement menées par des professionnels de santé ou des bénévoles afin d’identifier les chaînes de contamination – des approches qu’il est financièrement coûteux de massifier. Quant à la détection automatique de la fraude sociale et fiscale à partir de l’analyse des publications sur les réseaux sociaux actuellement expérimentées par le fisc français, elle intervient dans un contexte où plus du quart des quelques 12 000 postes dédiés au contrôle fiscal a été supprimé18Desbois, Dominique. 2019. « Drague fiscale sur les réseaux sociaux : de nouveaux algorithmes d’apprentissage pour traquer la fraude ». Terminal. Technologie de l’information, culture & société. https://hal.archives-ouvertes.fr/hal-02406386. Marzolf, Émile. 2021. « L’intelligence artificielle se fait lentement sa place dans la lutte contre la fraude fiscale ». Acteurs Publics. https://www.acteurspublics.fr/articles/lintelligence-artificielle-se-fait-lentement-sa-place-dans-la-lutte-conte-la-fraude-fiscale.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_18').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_18', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });.

Ce ne sont pas là des cas isolés : Romain Boucher, un « data scientist » ayant pris part en tant que consultant à de nombreux projets de « transformation de l’action publique », résume son expérience en ces termes :
« Au bout d’un moment on se rend compte que les types de mission qui reviennent sont des missions de surveillance et de rationalisation d’effectifs (…) On nous demandait de réaliser de belles présentations pour montrer à la Transformation publique combien on économisait. La logique d’amélioration du service public n’existait plus »19Cité dans Delaunay, Matthieu. 4 mai 2021. Du « Consulting for good » aux potagers corses. Club de Mediapart. https://blogs.mediapart.fr/delaunay-matthieu/blog/050421/du-consulting-good-aux-potagers-corses.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_19').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_19', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });.

Intimement liée aux politiques d’austérité, l’automatisation poursuit ainsi le mouvement néo-libéral de sape du service public mais aussi de précarisation et de déqualification d’une partie de la fonction publique, victime d’une atomisation croissante et du démantèlement de ses capacités d’action collective.
Parmi les autres enjeux fréquemment éludés par la focale procédurale, on pourrait encore évoquer le coût écologique engendré par le processus d’automatisation (l’un des arguments opposés par les abonnés Enedis à l’automatisation des relevés de leur consommation électrique via les compteurs connectés), la privatisation de l’expertise et l’affaiblissement des compétences des agents publics dès lors que les algorithmes sont le plus souvent conçus par des prestataires externes (ce dont ont pu se plaindre des syndicats policiers opposés à des partenariats avec des entreprises spécialisées dans des technologies de surveillance20« Réaction du SDPM à l’interdiction par la CNIL de l’application Reporty à Nice ». Syndicat de Défense des Policiers Municipaux (mars 2018). http://www.sdpm.net/2018/03/reaction-du-sdpm-a-l-interdiction-par-la-cnil-de-l-application-reporty-a-nice.html.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_20').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_20', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });), l’incapacité fréquemment constatée des grands chantiers de dématérialisation et d’automatisation à atteindre l’objectif de « simplification » et leurs effets bien réels sur l’aggravation des ingéalités21Deville, Clara. 2018. « Les chemins du droit : Ethnographie des parcours d’accès au RSA en milieu rural ». Gouvernement et action publique, 7(3): 83‑112. Voir aussi : Vallipuram, Taoufik. 29 décembre 2019. « Non, il ne faut pas combattre la fracture numérique ». Libération. https://www.liberation.fr/debats/2019/12/29/non-il-ne-faut-pas-combattre-la-fracture-numerique_1771308/, Charrel, Marie et Chaffin, 2021. Art. cit. et Brygo, Julien. 2019. « Peut-on encore vivre sans Internet ? » Le Monde diplomatique. https://www.monde-diplomatique.fr/2019/08/BRYGO/60129.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_21').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_21', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });, ou encore la légitimité des revendications de celles et ceux qui refusent de répondre aux multiples injonctions technologiques et souhaitent continuer à bénéficier des services publics au travers de guichets physiques, peuplés d’humains en chair et en os22d’Allens, Gaspard, et Alain Pitton. 3 février 2020. « Des humains plutôt que des machines : usagers et cheminots contestent la numérisation des gares ». Reporterre, le quotidien de l’écologie. https://reporterre.net/Des-humains-plutot-que-des-machines-usagers-et-cheminots-contestent-la-numerisation-des.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_22').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_22', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });.

Si l’automatisation bureaucratique aggrave les tendances totalitaires de la domination bureaucratique, et si la multiplication de procédures pour en contenir les effets délétères a fait la preuve de sa trop grande inefficacité, alors il est peut être temps d’en tirer les conséquences. Sans forcément renoncer à dépasser l’antagonisme entre bureaucratie et démocratie23Pour des pistes de réflexion, voir par exemple : Bourgault, Sophie. 2017. « Prolegomena to a Caring Bureaucracy ». The European journal of women’s studies 24(3): 202‑17.<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_18438_2_23').tooltip({ tip: '#footnote_plugin_tooltip_text_18438_2_23', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });, il s’agirait alors de nous en tenir à un principe de précaution en joignant nos voix à celles et ceux qui, en différents endroits du monde social, disent haut et fort leur refus d’un « État digital » et du projet technocratique dont il procède.

References

References
1 Voir par exemple : Algan, Yann et Cazenave, Thomas, 2016. L’Etat en mode start-up. Paris : Eyrolles. Bertholet, Clément et Létourneau, Laura, 2017. Ubérisons l’État ! Avant que d’autres ne s’en chargent. Malakoff : Armand Colin. Pezziardi, Pierre et Verdier, Henri, 2017. Des startups d’État à l’État plateforme. CreateSpace Independent Publishing Platform.
2 Action Publique 2022 : Notre stratégie pour la transformation de l’action publique. Octobre 2018. Paris: Gouvernement français.
3 Près de 10 millions de résidents français ne bénéficient toutefois pas d’accès à Internet (soit parce qu’ils ne disposent pas d’abonnement, soit qu’il ne disposent pas d’équipements adéquats). Voir le baromètre du numérique réalisé par l’Arcep, juillet 2021, p. 308 : https://www.arcep.fr/uploads/tx_gspublication/rapport-barometre-numerique-edition-2021-infographie.pdf. Trois français sur dix s’estiment incompétent pour réaliser des démarches administratives en ligne. Charrel, Marie, et Zeliha Chaffin. 7 septembre 2021. « Illectronisme : les laissés-pour-compte du tout-numérique ». Le Monde. https://www.lemonde.fr/economie/article/2021/09/07/illectronisme-les-laisses-pour-compte-du-tout-numerique_6093657_3234.html.
4 Sur la notion d’« assemblage algorithmique », voir Ananny, Mike, et Kate Crawford. 2018. « Seeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability ». New Media & Society 20(3): 973‑89.
5 Renn, Ortwin, Andreas Klinke, et Marjolein van Asselt. 2011. « Coping with Complexity, Uncertainty and Ambiguity in Risk Governance: A Synthesis ». AMBIO 40(2): 231‑46. Budish, Ryan. 2020. « AI & the European Commission’s Risky Business ». Berkman Klein Center for Internet and Society. https://medium.com/berkman-klein-center/ai-the-european-commissions-risky-business-a6b84f3acee0.
6 Voir la présentation de l’« outil d’évaluation de l’incidence algorithmique » sur le site Web du gouvernement canadien, https://archive.md/wip/uJuZ7.
7 Article 4 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique.
8 Mann, Michael. 2012. The Sources of Social Power: Volume 2, The Rise of Classes and Nation-States, 1760-1914. Cambridge University Press, p. 59.
9 Mitchell, Timothy. 2018. « Les limites de l’État : Au-delà des approches étatistes et de leurs critiques ». In Etat et société politique : Approches sociologiques et philosophiques, éd. Bruno Karsenti et Dominique Linhardt. Paris: Editions de l’Ecole des Hautes Etudes en Sciences Sociales, p. 372.
10 Voir par exemple : Dubois, Vincent. 2013. « Le rôle des street-level bureaucrats dans la conduite de l’action publique en France ». In La France et ses administrations. Un état des savoirs, éd. Jean-Michel Eymeri–Douzans et Geert Bouckaert. Bruxelles: Bruylant, 169‑77
11 Snellen, Ignace. 2002. « Electronic Governance: Implications for Citizens, Politicians and Public Servants ». International Review of Administrative Sciences 68(2): 183‑98. Buffat, Aurélien. 2015. « Street-Level Bureaucracy and e-Government ». Public Management Review 17(1): 149‑61.
12 Graeber, David. 2015. Bureaucratie: L’utopie des règles. Les Liens qui libèrent, chapitre 2.
13 On retrouve ce parti pris dans la doctrine juridique. Voir par exemple Michoud, Léon. 1914. « Étude sur le pouvoir discrétionnaire de l’administration », Rev. gén. adm., sept.-déc. 1914, p. 11 : « En théorie, il n’existe qu’une seule solution exacte ; toute autre repose sur une erreur d’appréciation. Il s’agit seulement de dégager la véritable règle de droit et de l’appliquer à un fait. La divergence possible des solutions a pour cause unique l’insuffisance, l’incertitude des jugements humains ».
14 Arendt, Hannah. 2003. Du mensonge à la violence. Paris : Presses Pocket
15 Delmas-Marty, Mireille. 2010. Libertés et sûretés dans un monde dangereux. Seuil, p. 84 et suivantes.
16 Galison, Peter. 1994. « The Ontology of the Enemy: Norbert Wiener and the Cybernetic Vision ». Critical Inquiry 21(1): 228‑66. Voir aussi : Bruno, Fernanda, Maurício Lissovsky, et Icaro Ferraz Vidal Junior. 2018. « Abstraction, expropriation, anticipation : Note généalogique sur les visions machiniques de la gestualité ». Reseaux n° 211(5): 105‑35.
17 Voir le courrier envoyé par la Région Sud à la CNIL. 7 mars 2018. https://data.technopolice.fr/fr/entity/hi661p1k6s9.
18 Desbois, Dominique. 2019. « Drague fiscale sur les réseaux sociaux : de nouveaux algorithmes d’apprentissage pour traquer la fraude ». Terminal. Technologie de l’information, culture & société. https://hal.archives-ouvertes.fr/hal-02406386. Marzolf, Émile. 2021. « L’intelligence artificielle se fait lentement sa place dans la lutte contre la fraude fiscale ». Acteurs Publics. https://www.acteurspublics.fr/articles/lintelligence-artificielle-se-fait-lentement-sa-place-dans-la-lutte-conte-la-fraude-fiscale.
19 Cité dans Delaunay, Matthieu. 4 mai 2021. Du « Consulting for good » aux potagers corses. Club de Mediapart. https://blogs.mediapart.fr/delaunay-matthieu/blog/050421/du-consulting-good-aux-potagers-corses.
20 « Réaction du SDPM à l’interdiction par la CNIL de l’application Reporty à Nice ». Syndicat de Défense des Policiers Municipaux (mars 2018). http://www.sdpm.net/2018/03/reaction-du-sdpm-a-l-interdiction-par-la-cnil-de-l-application-reporty-a-nice.html.
21 Deville, Clara. 2018. « Les chemins du droit : Ethnographie des parcours d’accès au RSA en milieu rural ». Gouvernement et action publique, 7(3): 83‑112. Voir aussi : Vallipuram, Taoufik. 29 décembre 2019. « Non, il ne faut pas combattre la fracture numérique ». Libération. https://www.liberation.fr/debats/2019/12/29/non-il-ne-faut-pas-combattre-la-fracture-numerique_1771308/, Charrel, Marie et Chaffin, 2021. Art. cit. et Brygo, Julien. 2019. « Peut-on encore vivre sans Internet ? » Le Monde diplomatique. https://www.monde-diplomatique.fr/2019/08/BRYGO/60129.
22 d’Allens, Gaspard, et Alain Pitton. 3 février 2020. « Des humains plutôt que des machines : usagers et cheminots contestent la numérisation des gares ». Reporterre, le quotidien de l’écologie. https://reporterre.net/Des-humains-plutot-que-des-machines-usagers-et-cheminots-contestent-la-numerisation-des.
23 Pour des pistes de réflexion, voir par exemple : Bourgault, Sophie. 2017. « Prolegomena to a Caring Bureaucracy ». The European journal of women’s studies 24(3): 202‑17.
<script type="text/javascript"> function footnote_expand_reference_container_18438_2() { jQuery('#footnote_references_container_18438_2').show(); jQuery('#footnote_reference_container_collapse_button_18438_2').text('−'); } function footnote_collapse_reference_container_18438_2() { jQuery('#footnote_references_container_18438_2').hide(); jQuery('#footnote_reference_container_collapse_button_18438_2').text('+'); } function footnote_expand_collapse_reference_container_18438_2() { if (jQuery('#footnote_references_container_18438_2').is(':hidden')) { footnote_expand_reference_container_18438_2(); } else { footnote_collapse_reference_container_18438_2(); } } function footnote_moveToReference_18438_2(p_str_TargetID) { footnote_expand_reference_container_18438_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } } function footnote_moveToAnchor_18438_2(p_str_TargetID) { footnote_expand_reference_container_18438_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } }

Pourquoi il faut soutenir Nantes Révoltée

mercredi 16 février 2022 à 16:22

Gérald Darmanin a annoncé il y a trois semaines sa volonté de dissoudre le collectif « Nantes Révoltée ». Selon lui, cette attaque serait justifiée par des appels, sur le site du collectif, à se rendre à une manifestation anti-autoritaire pendant laquelle deux vitrines de boutiques ont été dégradées. Nous apportons notre soutien à Nantes Révoltée et dénonçons la façon dont le mécanisme de dissolution d’association est détourné de sa fonction historique afin de faire disparaître du débat démocratique les oppositions de gauche considérées trop fortes, trop franches, trop radicales.

Des valeurs renversées

Le cadre juridique de la dissolution d’association a été posé en 1936 pour combattre les milices privées d’extrême-droite qui venaient d’échouer à renverser la IIIème République lors des émeutes du 6 février 1934. Telle qu’elle l’a toujours fait, la République française s’est donnée les moyens de vaincre ceux, monarchistes comme fascistes, qui militent explicitement pour sa disparition. Jusqu’à aujourd’hui, le gouvernement a continué de dissoudre divers groupes monarchistes et fascistes dont la violence défrayait la chronique.

Hélas, au fil des années, le gouvernement a dévoyé cette tradition pour dissoudre de plus en plus d’associations dont l’activité ne visait ni à rétablir la monarchie ni à glorifier des dictatures fascistes. La dissolution d’association s’est de plus en plus tournée contre des groupes qui ne cherchaient pas à détruire les aspects démocratiques de la République, mais qui se contentaient de rejeter des valeurs morales (religieuses, sexuelles, économiques, familiales) imposées par la classe politique dominante.

Si les groupes d’extrême-droite font toujours l’objet de dissolutions fréquentes, la lumière est volontairement mise depuis une dizaine d’années sur les associations liées à la religion musulmane comme le Collectif contre l’islamophobie en France (CCCIF, auquel nous apportions notre soutien l’année dernière) ou la Coordination contre le Racisme et l’Islamophobie, au soutien d’une politique anti-musulmane de moins en moins cachée.

Dans ces deux derniers cas, les décrets de dissolutions parlent d’eux-même : il n’est pas reproché aux deux associations de fomenter un coup d’État ni même d’organiser l’indépendance d’un territoire sécessionniste. Il leur est simplement reproché de « dénoncer la partialité des forces de l’ordre, de la municipalité et des magistrats présentés comme islamophobe » ou de diffuser « un message incitant à percevoir les institutions françaises comme islamophobes ». Même les personnes qui refusent de considérer que l’État français poursuit des politiques islamophobes doivent bien admettre une chose : lutter contre le racisme d’État n’implique pas de détruire la République.

Une responsabilité indirecte

Un autre dévoiement pris pour dissoudre ces organisations vise à imputer des faits de personnes tierces pour présumer d’une action répréhensible de l’association et la rendre responsable. Par exemple, l’absence de « condamnation ni de modération ou de suppression » de commentaires Facebook sous des publications, de la part des responsables de l’association, « doivent ainsi être regardés comme les cautionnant ». Les décisions du Conseil d’État n’ont pas remis en question une telle approche, celui-ci ayant validé comme motif de dissolution du CCIF l’absence de modération des réactions sur leurs réseaux sociaux.

Pour mesurer l’absurdité d’une telle approche, il suffit d’imaginer l’appliquer à d’autres institutions. Le ministre de l’Intérieur compte-t-il dissoudre la police et l’ armée lorsqu’elles refusent de se désolidariser des si nombreux commentaires racistes et antirépublicains qui accompagnent son action, parfois en son propre sein ?

Probablement pas. D’ailleurs, cette présence au sein de ces institutions montre que les conséquences soit-disant positives qu’auraient les dissolutions de groupe d’extrême droite sont largement illusoires, tant le contexte politique leur est favorable. Pour dissoudre des associations, le droit prévoit des motifs suffisamment larges pour laisser une marge d’appréciation presque totale à l’administration pour choisir ses adversaires, tel que le fait d’avoir pour but de « attenter par la force à la forme républicaine du Gouvernement ».

Ces objectifs peuvent ainsi facilement s’insérer dans un phénomène plus large, poussé par Emmanuel Macron et son gouvernement, consistant à envisager la participation à la société de manière nécessairement clivée : soit on « adhère » aux valeurs morales de la classe dirigeante, soit tout mouvement de lutte, de contestation ou de révolte contre le modèle imposé par ces valeurs sera considéré comme une violence qui nécessite d’être écartée ou supprimée. Les « valeurs de la République » sont devenues les valeurs morales de la classe qui dirige la République.

Cette définition de la « République », pourtant synonyme de démocratie et d’égalité dans la tradition politique française, est ainsi de plus en plus détournée par les gouvernements successifs pour délégitimer les contre-discours populaires, véhéments ou radicaux, qui cherchent pourtant souvent à promouvoir ces valeurs de démocratie et d’égalité.

Le « contrat d’engagement républicain » mis en place en début d’année en application de la loi dite « Séparatisme » symbolise le parachèvement de cette logique. Désormais, toute association recevant des subventions publiques doit formellement s’engager à « respecter les principes de liberté, d’égalité, de fraternité et de dignité de la personne humaine, ainsi que les symboles de la République » ou encore à « s’abstenir de toute action portant atteinte à l’ordre public. » Cette fois-ci, l’« adhésion » est donc très concrète : il s’agit d’un contrat que l’on signe ou non. Parmi les engagements énoncés, on trouve ainsi celui du « respect des lois de la République », les associations ne devant « ni entreprendre ni inciter à aucune action manifestement contraire à la loi, violente ou susceptible d’entraîner des troubles graves à l’ordre public ». Au nom de la « fraternité et du civisme », les associations doivent également, dans leur fonctionnement interne comme dans leurs rapports avec les tiers, « ne pas provoquer à la haine ou à la violence envers quiconque et à ne pas cautionner de tels agissements. ». Une association pourra perdre ses financements pour des faits commis par des personnes de plus en plus nombreuses, indirectes et lointaines du cœur de son activité : « ses dirigeants, ses salariés, ses membres ou ses bénévoles ».

Des effets anti-démocratiques

Dans un contresens historique total, on peut redouter que, au nom de la défense de la République, une association serait sanctionnée du seul fait qu’une personne dans son entourage ait exprimé un mépris trop important contre des militants monarchistes ou fascistes dont l’ambition assumée est pourtant de détruire la République. Dans le même ordre d’idée, lors de la manifestation couverte par Nantes Révoltée, dégrader une vitre pour dénoncer la participation de Zara au crime contre l’humanité perpétré contre les Ouïghours a semblé constituer un acte d’une violence inadmissible en démocratie qui justifierait de dissoudre le media libre. Les « valeurs de la République » sont-elles si dévoyées qu’elles protègent désormais les esclavagistes ?

On se retrouve face à une inversion totale des intérêts et personne à défendre et on perçoit la même logique que dans les mécanismes de dissolution : utiliser un lien indirect interprété de manière partiale pour délégitimer une source de critiques trop radicale et la transformer en « ennemi de la République ».

Ce n’est pas la première fois que l’État franchit la frontière faisant passer la liberté d’expression et d’information en un délit de radicalité quand il s’agit de mouvements de gauche. En 2017, utilisant le système de censure administrative des sites faisant l’apologie du terrorisme, le site internet collaboratif Indymedia s’était vu enjoindre , sous peine de blocage, de retirer un texte revendiquant l’incendie d’un commissariat. Finalement annulé par la justice un an et demi plus tard, cet exemple de censure est une démonstration limpide des abus que permet l’attribution toujours plus importante d’un pouvoir d’appréciation et de contrôle trop large à l’administration, classiquement dévolu à un juge.

Cette dynamique ne cesse de s’aggraver. Aujourd’hui, ce sont les outils judiciaires de la lutte antiterroriste et les procédures pénales qui sont utilisés abusivement dans un but de répression et d’intimidation. Qu’il s’agisse de l’incrimination d’« association de malfaiteurs » vis-à-vis de militants engagés au Rojava ou d’autres suspectés de dégradation d’infrastructure de télécommunication, ou bien les plaintes et perquisitions visant les médias relayant des soutiens à ce type d’action, l’arsenal répressif laissé à la police permet de poursuivre de façon arbitraire et brutale tout type de contestation trop radicale.

Nous avons toujours contesté les pouvoirs de censure confiés à la police et à l’administration et condamnons aujourd’hui fermement le dangereux mouvement d’intimidation du monde associatif auquel nous assistons. Cet élargissement incontrôlé des pratiques de dissolution s’est tant banalisé que le fait que le ministre de l’Intérieur souhaite ouvertement faire taire des discours de gauche radicale ne suscite que peu d’émotions. C’est pourquoi nous apportons un soutien plein et entier à Nantes Révoltée et vous invitons à signer la pétition s’opposant à leur disparition.

Données de connexion : recours devant le Conseil constitutionnel

mardi 15 février 2022 à 16:48

Ce matin, La Quadrature du Net était, aux côtés de Franciliens.net devant le Conseil constitutionnel au soutien (voir nos premières puis secondes observations) d’une question prioritaire de constitutionnalité (QPC) contre l’obligation faite aux opérateurs de télécommunication de conserver pendant un an les données de connexion (ce qui entoure une communication). Cette obligation généralisée et indifférenciée est la pierre angulaire de la surveillance policière numérique, de même que le socle de la « riposte graduée » de l’Arcom (anciennement Hadopi). La Cour de justice de l’Union européenne (CJUE) avait estimé en 2020 que ce régime de surveillance est contraire aux droits fondamentaux : nous avons donc appelé aujourd’hui le Conseil constitutionnel à censurer ces dispositions législatives.

Sept ans après le premier recours de La Quadrature, French Data Network, FFDN et igwan.net, cette histoire commence à dater… En France, les opérateurs de communication (dont les fournisseurs d’accès à Internet) doivent, en application de l’article L. 34-1 du code des postes et des communications électroniques (CPCE), conserver de façon généralisée et indifférenciée les données de connexion de leurs utilisateur·rices pendant un an. Il s’agit tout simplement de la suppression de l’anonymat sur Internet et dans la rue : pendant un an après une communication, la police ou une autorité administrative (comme l’Arcom) peuvent savoir qui a écrit un message, ou bien géolocaliser rétrospectivement votre téléphone. Les abus de ces pouvoirs sont régulièrement documentés : dernièrement, la presse nous apprenait que la traque des acheteur·euses (et non des vendeur·euses) de faux passes sanitaires passait notamment par une analyse de la géolocalisation téléphonique des personnes, c’est-à-dire grâce à cette obligation de conservation des données de connexion.

En octobre 2020, la CJUE disait stop à cette surveillance de masse : elle estimait que le droit français contrevenait au droit à la vie privée, au droit à la protection des données personnelles et au droit à la liberté d’expression en prévoyant une surveillance aussi large. Cela n’a pas empêcher au Conseil d’État de valider le système français de surveillance en avril dernier, réinterprétant de la manière qui l’arrangeait l’arrêt de la CJUE et exposant la France à une condamnation par l’UE en raison de ce Frexit sécuritaire.

Aujourd’hui, c’est au tour du Conseil constitutionnel de devoir se prononcer sur ce régime de surveillance. Il a entre ses mains le devenir de la France dans l’UE : quelle crédibilité accorder à une France qui reproche à la Pologne ou la Hongrie de s’asseoir sur le droit européen mais qui elle-même n’hésite pas à contourner le juge de l’UE lorsque cela l’arrange ? Alors que la Belgique a, elle, appliqué la décision de la CJUE et censuré son régime de surveillance, que l’Allemagne a annoncé l’abandon de son régime de conservation des données de connexion, la France persiste dans sa position sécuritaire au détriment de l’État de droit. Le Conseil constitutionnel ne doit pas se défiler et a la responsabilité de mettre le holà à la dérive française. La décision sera rendue le 25 février prochain.

La France s’entête à vouloir donner à sa police tous les moyens pour user et abuser de surveillance des télécommunications. Pendant ce temps, l’État de droit accuse le coup : rien ne semble vouloir arrêter ce gouvernement qui, en cinq ans, n’a fait qu’accentuer la surveillance, sur Internet et au-delà. Alors pour nous permettre malgré tout de continuer cette lutte, nous avons toujours autant besoin de votre aide.