PROJET AUTOBLOG


La Quadrature du Net

source: La Quadrature du Net

⇐ retour index

Vidéosurveillance biométrique : derrière l’adoption du texte, la victoire d’un lobby

mercredi 5 avril 2023 à 12:00

Derrière l’adoption la semaine dernière par l’Assemblée nationale du projet de loi sur les Jeux olympiques et son article 7 sur la vidéosurveillance biométrique, il y a aussi la victoire d’un lobby. Mêlant multinationales de la sécurité, start-up de l’intelligence artificielle et décideurs publics adeptes de la répression, ce lobby avance ses pions pour récupérer les parts d’un marché estimé à plusieurs milliards d’euros, bien loin de toute notion de transparence et de débat public.

Cet article est réalisé dans le cadre d’un travail commun entre LQDN et l’Observatoire des multinationales.

La semaine dernière, l’Assemblée nationale a adopté le projet de loi « relatif aux jeux Olympiques et Paralympiques de 2024 ». Déjà voté par le Sénat en janvier dernier, ce texte contient un article 7 qui autorise l’expérimentation de la vidéosurveillance automatisée sur le territoire français.

Comme l’a rappelé La Quadrature du Net, cet article entérine un changement d’échelle sans précédent dans les capacités de surveillance et de répression de l’État et de sa police. La vidéosurveillance automatisée (VSA) est un outil de surveillance biométrique qui, à travers des algorithmes couplés aux caméras de surveillance, détecte, analyse et classe nos corps et comportements dans l’espace public pour alerter les services de police et faciliter le suivi des personnes.

Après le déploiement ininterrompu des caméras de vidéosurveillance (dont le nombre exact n’est toujours pas connu), il s’agit d’une nouvelle étape dans la surveillance du territoire. Alors que la VSA est expérimentée depuis plusieurs années en toute illégalité, ce projet de loi sur les Jeux Olympiques vient la légaliser et donner le champ libre aux industriels pour perfectionner et installer dans la durée leurs outils d’algorithmisation de l’espace public.

Un marché à plusieurs milliards d’euros

Comme tout terrain d’influence des lobbies, la vidéosurveillance automatisée est avant tout un marché en pleine expansion. Si l’on en croit la CNIL, qui se base elle-même sur l’étude d’un cabinet américain, le marché représentait en 2020, au niveau mondial, plus de 11 milliards de dollars, avec une croissance de 7% par an (pour celui de la vidéosurveillance, c’est même 45 milliards en 2020 et 76 milliards estimés en 2025).

L’argent attirant l’argent, les grands groupes et les start-up du secteur enchaînent les levées de fonds, aussi bien auprès des acteurs publics que privés. Dernier exemple en date, la start-up XXII qui a levé il y a quelques semaines 22 millions d’euros pour sa solution de surveillance automatisée auprès de Bpifrance. En 2018, c’était Thales qui avait levé 18 millions d’euros pour sa solution de « Safe City » à Nice et à La Défense. Notons aussi Sensivic, qui développe de l’audiosurveillance automatisée, et qui a levé 1,6 million en juin dernier.

N’oublions pas les financements publics directs qui affluent dans le secteur de la vidéosurveillance et qui motivent d’autant plus les entreprises à se positionner sur le marché pour récolter le pactole. En 2022, ce sont 80 millions d’euros du fonds de prévention contre la délinquance qui ont été alloués principalement à la bien mal nommée vidéoprotection (une augmentation de 10 millions par rapport à l’année précédente).

Tant d’argent qui amène tout un écosystème à s’organiser le plus efficacement possible pour profiter du gâteau.

Lobby multiforme : multinationales, start-ups et associations

Ce lobby de la VSA est avant tout multiforme, c’est-à-dire porté par de multiples acteurs, aussi discrets que puissants, parmi lesquels se trouvent des multinationales bien connues telles que Thales, Safran, Idemia, IBM, Atos ainsi que de nombreuses start-up florissantes. Parmi les plus prometteuses, XXII, Two-I, Datakalab, Aquilae ou encore Sensivic.

La plupart sont enregistrés auprès de la Haute Autorité pour la transparence de la vie publique (HATVP), avec à chaque fois le nombre de « représentants d’intérêts » (lobbyistes), les dossiers ayant donné lieu à lobby et un montant moyen des dépenses de lobbying sur l’année. Thales par exemple déclare entre 400 et 500 000 euros de dépenses de lobbying en 2022, Idemia 10 000 euros. Notons que la start-up XXII déclare près de 200 000 euros de dépenses.

Si l’on additionne rapidement les chiffres des entreprises citées au premier paragraphe, on arrive, et alors même qu’il ne s’agit ici que d’un échantillon restreint des entreprises du secteur, à environ 1,4 million d’euros dépensés en lobbying sur une année (à noter bien évidemment que ces entreprises ne s’occupent pas uniquement de VSA et utilisent cet argent pour sûrement d’autres sujets – cela permet simplement de donner un ordre de grandeur).

Leur toile d’influence est d’ailleurs largement plus vaste et complexe. Chacune de ces entreprises, notamment sur le site de la HATVP, renvoie vers des mandants ou des associations qui sont elles-mêmes actives en matière de lobbying. Et sur le sujet de la vidéosurveillance, il y en a tellement que cela devient presque impossible à suivre. Toutes ces entreprises se regroupent dans des associations professionnelles – des lobbies – chargées de représenter leurs intérêts auprès des institutions, telles que le GICAT, l’Alliance pour la confiance numérique (ACN), la Secure Identity Alliance, le CIGREF, le FIEEC et l’AN2V, l’Association nationale de la vidéoprotection… Suivre les dépenses et les activités d’influence publique de chacune de ces entreprises, de leurs mandants (cabinets de conseils) et de leurs associations devient alors quasiment impossible.

Des noms pour la plupart inconnus du grand public, mais qui sont bel et biens intégrés dans les rouages du système et dotés d’une puissante force de frappe en matière d’influence.

Un lobby de l’intérieur

A tout cela, il faut encore ajouter la couche des responsables publics qui influencent l’appareil étatique de l’intérieur. Les entreprises n’ont pas toujours besoin de dépenser beaucoup d’énergie pour convaincre des décideurs qui semblent eux-mêmes déjà persuadés de la nécessité de transformer nos villes en un fantasme sécuritaire. La liste serait longue à faire mais on peut évoquer les principaux.

Le plus vocal est Christian Estrosi, le maire de Nice, aujourd’hui proche du pouvoir et qui ne cesse de se faire le promoteur de la vidéosurveillance automatisée. Depuis plusieurs années, il expérimente la VSA hors de tout cadre légal et insulte la CNIL dès que celle-ci ose, occasionnellement, lui faire des remontrances. Il n’est bien évidemment pas le seul.

Outre les ministres de l’Intérieur qui sont, par nature, les premiers à défendre les différentes lois sécuritaires (citons Gérarld Darmanin qui lors de l’examen de la loi sur les Jeux Olympiques a défendu la VSA avec passion), plusieurs députés se sont déjà fait les chantres de l’industrie : Jean-Michel Mis, ancien député de la majorité, qui a rédigé un rapport vantant la VSA et proche de l’industrie (voir son portrait ici), Didier Baichère, lui aussi ancien député de la majorité qui a multiplié les entretiens/a>> pour faire de la reconnaissance faciale « éthique », Philipe Latombe, député Modem en place qui a donné de sa personne à l’Assemblée pour la défense de la VSA. Citons enfin Marc-Philippe Daubresse, sénateur, qui, on le verra plus bas, a redoublé d’efforts pour convaincre ses collègues de la nécessité de déployer la VSA.

Il n’y a d’ailleurs pas que l’Intérieur. Le secrétariat d’Etat au numérique lui aussi a toujours été un allié de l’industrie de la VSA. Cédric O, ancien de Safran et ancien Secrétaire d’Etat, est allé jusqu’à dire que « expérimenter la reconnaissance faciale est une nécessité pour que nos industries progressent ». Qui retrouve-t-on d’ailleurs aujourd’hui au poste de directeur de cabinet de l’actuel Secrétaire ? Renaud Vedel, ancien préfet engagé sur la stratégie nationale pour l’IA, qui avait déjà prouvé son goût pour la surveillance biométrique.

Autant d’acteurs ou de proches de la majorité se sont fait remarquer pour leur énergie à expliquer l’intérêt et le formidable progrès que représente, selon eux, la surveillance de masse algorithmique. L’influence de ce lobby s’étend la Cour des Comptes qui, en 2023, déclarait sans aucune forme de retenue que « les innovations technologiques qui pourraient être déployées pour assurer une meilleure sécurité des Jeux et réduire les besoins doivent être arbitrées et financées sans délai ».

La stratégie d’influence des industriels est d’autant plus efficace qu’il ne s’agit pas de deux mondes, privé et public, distincts, mais d’un seul système où les uns et les autres s’échangent les postes et responsabilités.

Brassage public-privé

Cette influence passe en effet aussi par des techniques traditionnelles, comme le mécanisme ordinaire des portes tournantes, qui consiste à embaucher des personnes passées par le secteur public, afin de profiter de leur connaissance des rouages du système et de leur réseau personnel.

Quelques exemples. Chez Thales, la directrice des relations institutionnelles Isabelle Caputo a travaillé plusieurs années avant à l’Assemblée nationale. Olivier Andries, le Directeur général de Safran, a commencé sa carrière dans la fonction publique, au ministère de l’Industrie puis à la direction du Trésor, avant de devenir conseiller pour l’industrie dans le cabinet du ministre de l’Économie et des Finances. Toujours chez Safran, le directeur des affaires publiques, Fabien Menant, a quant à lui occupé des postes à la mairie de Paris, au ministère des Affaires étrangères, puis de la Défense.

N’oublions pas les start-up et les associations : François Mattens, lobbyiste pour XXII, est passé par le Sénat, le ministère de l’Intérieur et celui des Affaires étrangères et Axel Nicolas, actuel directeur des affaires publiques pour le GICAT, est un ancien de l’Assemblée nationale.

On pourrait continuer longtemps. Les acteurs du lobby ont en commun le même entremelêment d’expériences dans l’administration, dans le privé, au Parlement qui tendent à en faire une force compacte, qui partage les mêmes réseaux, le même carnet d’adresses – et qui multiplie les possibilités d’échanges occasionnels, discrets, loin des regards du public.

Tout ce monde se retrouve d’ailleurs bien officiellement au COFIS (pour « Comité de la filière industrielle de sécurité ») qui, selon sa page officielle, permet « un dialogue public-privé rénové« , c’est-à-dire, en plus clair, met en relations industriels de la sécurité et hauts fonctionnaires. La liste des participants à son comité de pilotage atteste de cette mixité public-privé. Nous avons cherché à en savoir plus sur ce fameux dialogue public-privé, en sollicitant les documents préparatoires à la signature du contrat stratégique pour la filière « Industries de Sécurité », conclu le 30 janvier 2020 par le gouvernement et le COFIS. Nous n’avons toujours obtenu aucune réponse malgré un avis positif de la Commission d’accès aux documents administratifs (CADA).

Rendez-vous discrets

Les rendez-vous avec les responsables publics se font souvent très discrètement, ce mélange entre public et privé empêchant une réelle publicité des liens entre industries de la sécurité et pouvoirs publics.

Ainsi, malgré l’obligation de les produire chaque année au registre de la HATVP, les déclarations d’activités de lobbying restent sommaires et imprécises, ne permettant pas de rendre compte de l’ampleur et de la portée de ces rencontres, d’autant qu’elles sont soumises au bon vouloir des entreprises.

Par exemple, on sait que des représentants de Thales ont rencontré un « Membre du Gouvernement ou membre de cabinet ministériel – Intérieur » (qui?) sur l’activité « Plan numérique du Gouvernement : Sensibiliser sur les enjeux industriels de l’identité numérique » entre le 1er janvier et le 31 décembre 2020 (quand?). On ne sait donc ni qui, ni quand, ni où, ni la forme de cette rencontre et ce qui en a résulté.

Assez peu d’activités de lobbying sont en réalité déclarées sur le sujet. Par exemple, Thales n’a déclaré que 5 activités tous domaines d’activités confondus en 2021, Idemia aucune, Safran seulement 2 en 2022…

Sans compter que ces déclarations ne prennent pas en compte le lobbying plus insidieux, indirect, qui s’exerce à travers la participation des entreprises aux travaux des think thanks, leurs liens dans les universités, l’organisation de conférences, au sein du COFIS ou aux multiples salons qui pullulent sur le sujet (le plus connu reste Milipol, auto-proclamé évènement mondial de la sécurité intérieure). À quoi il faut encore ajouter les activités des associations professionnelles qui regroupent ces mêmes entreprises.

Du côté des décideurs publics, on ne trouve pas plus d’information. L’agenda public du Ministre des armées, Sébastien Lecornu, annonce un seul rendez-vous avec Patrice Caine, le DG de Thales, le 8 juillet 2022, mais sans dévoiler les sujets discutés.

Le Sénat main dans la main avec les industriels de la VSA

La même alliance complaisante entre décideurs et industriels se remarque dans les rapports parlementaires faisant la promotion de la VSA. Et ils sont nombreux. En 2019, une note de l’OPECST étudie la reconnaissance faciale. En septembre 2021, c’est Jean-Michel Mis qui remet une note au Premier ministre sur le sujet. En mai 2022, c’est Marc Daubresse qui rend son rapport sur la surveillance biométrique sur lequel on reviendra plus bas. Et aujourd’hui, en 2023, la mission d’information de Latombe devrait rendre sous peu son rapport.

Ce sont aussi les modalités de rédaction de ces rapports qui interpellent. À l’occasion de l’examen de la loi JO au Sénat, un rapport général d’information sur la reconnaissance faciale et ses risques au regard de la protection des libertés individuelles a été rendu le 10 mai 2022.

Ont été auditionnés plusieurs entreprises et lobbies du secteur : IDEMIA, ID3 Technologies, Amazon France, Microsoft France, l’Alliance pour la confiance numérique, l’AFNOR et Meta et IBM ont livré des contributions écrites. Par contraste, seules trois associations de défense des libertés – dont la Quadrature du Net – ont été entendues.

Le plus choquant reste les rencontres privilégiées dont ont pu profiter les entreprises à l’occasion de l’élaboration de ce rapport. La mission d’information a organisé plusieurs déplacements de délégués entre février et avril 2022 pour participer à des événements professionnels dédiés à la promotion de la vidéosurveillance ou pour des démonstrations offertes par les industriels. Le jeudi 17 mars 2022 par exemple, la délégation s’est rendue à Nice et pu visiter le Centre de supervision de la Ville, assister à des présentations des travaux en matière de reconnaissance faciale de l’INRIA et du Sophia Antipolis Accenture Labs (un centre de recherche financé par l’entreprise Accenture) avant de participer à une table ronde d’entreprises qui développent des solutions utilisant la reconnaissance faciale. Une journée très productive pour le lobby de la surveillance.

Quelques jours plus tard, le 29 mars 2022, clou du spectacle au centre Thales de Meudon, où les sénateurs ont été invités à participer à différentes activités, présentations des produits Thales et démonstrations vantant l’efficacité de la VSA, une vitrine inestimable pour l’entreprise.

Au cours de ses 5 jours de déplacements entre la France et Londres, la délégation n’a en revanche assisté à aucun événement critique de la VSA. Une simple comparaison entre le temps passé à absorber les élements de langage des industriels de la sécurité et celui à écouter les critiques de la vidéosurveillance suffit à comprendre le caractère absurdement biaisé de cette mission parlementaire.

Il suffit de reprendre les comptes-rendus des débats du Sénat et de l’Assemblée pour voir les effets d’une telle proximité sur la manière dont la loi est examinée et adoptée.

Adoption du texte et victoire du lobby de la VSA

Il n’y a jamais eu de véritable « débat » ou « réflexion » sur la question de la vidéosurveillance biométrique en France. L’adoption de l’article 7 de la loi JO est avant tout l’aboutissement d’un travail d’influence de multinationales, de start-up et de décideurs publics qui veulent se faire une place sur les marchés de la sécurité.

La toute petite partie de ce travail d’influence qu’il nous est possible d’analyser, sur la base des déclarations partielles du registre de transparence de la HATVP, laisse deviner la force de frappe de ce lobby, que ce soit en matière d’argent ou de réseaux. C’est surtout l’entremêlement public-privé qui le caractérise, ce dont personne ne semble se cacher, comme s’il était naturel que les personnes au pouvoir, qui décident et votent sur le sujet, soient aussi proches des industriels qui vendent leurs produits.

Il est toujours effrayant de voir comment à force d’expérimentations illégales, de mirage financier et de déterminisme technologique, ce lobby a réussi à faire voter une loi lui donnant les mains libres dans l’expérimentation de ces technologies.

« Le numérique nous insère dans une trame toujours plus resserrée »

jeudi 30 mars 2023 à 11:30

Fin 2022, deux membres de La Quadrature ont répondu aux question de Ruptures, un collectif de militant.es grenoblois.es formé à l’automne 2021. L’entretien a été publié dans leur journal La nouvelle vague n°10, paru en mars 2023. Cet échange aborde les enjeux de la campagne Technopolice, le front plus large de la lutte contre les technologies numériques de contrôle, ainsi que certaines questions stratégiques. Nous le reproduisons ci-dessous.

Pouvez-vous nous expliquer ce qu’est la technopolice, et les moyens d’actions que vous vous êtes donnés ?

Technopolice est le nom de la campagne de recherche-action lancée par La Quadrature du Net en 2019. Elle désigne aussi ce contre quoi nous luttons dans cette campagne, à savoir le développement et l’adoption croissante par la police française de nouvelles technologies numériques dédiées à la surveillance de l’espace public : vidéosurveillance automatisée et microphones intelligents censés repérer des comportement suspects, police prédictive, drones… Depuis le départ, l’idée est de documenter la genèse et la mise en œuvre de déploiement de ces technologies, des laboratoires de recherches qui les mettent au point aux usages opérationnels en passant par les grands programmes budgétaires et les lois qui les financent ou en autorisent l’usage.

Nous tentons aussi d’offrir à des individus ou collectifs des analyses, guides, des espaces de discussion afin d’articuler les combats locaux à des mobilisations nationales ou européennes. Nous dénonçons des projets de loi et tentons de faire supprimer les dispositions les plus dangereuses ; nous allons devant les tribunaux pour démontrer l’illégalité de certains projets et y mettre un terme (par exemple, nous avons attaqué le couplage de l’intelligence artificielle et de la vidéosurveillance à Moirans) ; nous organisons des actions de sensibilisation, d’affichage public ou des projections de documentaires pour faire connaître notre combat et convaincre de nouvelles personnes d’y prendre part. Plus largement, notamment aux travers de nos interactions avec certains médias, nous cherchons à sensibiliser les gens à la prolifération de ces technologies de surveillance policière et à mettre en œuvre les moyens d’y résister collectivement.

État d’urgence, État d’urgence sanitaire, procédures parlementaires accélérées, 49.3, procédures dérogatoires au droit commun… Devant la multiplication de règles de droit à géométrie variable, la question se pose : peut-on encore croire en la justice ?

À La Quadrature du Net, nous avons commencé à développer l’action contentieuse en 2015, après avoir constaté que nos stratégies d’influence parlementaire achoppaient sur un consensus sécuritaire de plus en plus prégnant, à gauche comme à droite. Notre idée d’alors était que si le législateur était incapable de protéger les droits humains inscrits au sommet de la hiérarchie des normes juridiques, si « les droits de l’Homme et du citoyen » ne trouvaient plus aucune traduction tangible dans la fabrique de la loi, alors il fallait mobiliser le terrain judiciaire contre l’alliance entre un pouvoir exécutif dopé à l’exception et un Parlement trop enclin à lui concéder les pleins pouvoirs.

Nous savons que le champ juridique agit en grande partie comme un terrain de neutralisation des revendications politiques et de la contestation de l’ordre établi. Force est de constater que les usages contestataires du droit se heurtent à toutes sortes d’obstacles techniques – par exemple la lenteur des procédures – et au fait que le plus souvent, les magistrats – et c’est en particulier le cas du Conseil d’État devant qui se soldent nos contentieux contre le gouvernement – agissent comme des garants de l’État et de sa violence.

Mais de fait, il se trouve encore des juges pour tenir tête au pouvoir politique. Nous avons remporté quelques victoires, dont certaines non négligeables, à l’image de l’interdiction de la reconnaissance faciale à l’entrée des lycées de la Région Sud ou devant la Cour de justice de l’Union européenne dans le dossier de la conservation généralisée des données (les opérateurs de télécommunications sont censés conserver les métadonnées de la population – qui communique avec qui, à quelle heure, pendant combien de temps, depuis quel endroit). Et ces jurisprudences créent un univers de contraintes autour des bureaucraties d’État. Elles permettent aussi de donner de l’écho à nos luttes politiques.

Au final, l’action juridique est ambivalente. Il y a toujours le risque qu’une défaite vienne légitimer ce contre quoi on se bat. Mais, à condition d’être articulée à d’autres modes d’action, elle reste selon nous un outil symbolique fondamental. Car en dépit de toutes leurs limites et contradictions internes, les droits humains sont un héritage des luttes démocratiques des siècles passées. Nous sommes en tout cas d’avis qu’il importe de les faire vivre en ces heures sombres. Même lorsque nous perdons ou que nous obtenons des victoires temporaires ou cosmétiques, nos recours permettent de mettre en évidence les contradictions d’un régime représentatif qui s’enfonce dans le libéralisme autoritaire, de parler aux juges dans leur langage qui prétend à l’universel et de montrer dossier après dossier à quel point l’État de droit qu’ils prétendent incarner n’est pour l’essentiel qu’un mensonge, à quel point ils demeurent pour la plupart, comme l’écrivait Pierre Bourdieu, les « gardiens de l’hypocrisie collective ». Bref, lorsqu’il est bien manié et complété par d’autres moyens de lutte, le droit peut en réalité être un moyen de délégitimer le pouvoir et donc d’y résister.

Selon tous les indicateurs, les prochaines années vont être secouées de multiples crises (climatique, sanitaire, économique…), que Jérôme Baschet unifie sous le terme de « crise systémique du capitalisme ». Dans le contexte de nouvelles tensions géopolitiques entre grandes puissances (Russie vs Ukraine/Europe, Chine vs Taïwan/usa,…), avec toutes les entorses au droit que cela permet, et avec le développement de moyens technologiques toujours plus puissants, quelles évolutions du contrôle social envisagez‑vous pour les prochaines années ?

Nous n’avons évidemment pas de boule de cristal et il est reste très compliqué de faire des prédictions, à fortiori dans un environnement politique aussi tumultueux. Sans doute la crise sanitaire a-t-elle offert un bon aperçu de ces nouvelles formes de contrôle social qui vont continuer à se développer dans les prochaines années, ou revenir en force à l’aune des prochaines « crises ».

La reprise en main d’Internet risque de se poursuivre au rythme de sa place toujours plus importante dans l’infrastructure de nos sociétés de masse. Les quelques espaces alternatifs qu’une association comme La Quadrature du Net s’est donné pour objectif de défendre risquent de connaître une marginalité encore plus grande qu’aujourd’hui. Dans le même temps, les espaces « mainstreams » – fussent-ils la propriété de libertariens comme Elon Musk – continueront de s’insérer dans les politiques de contrôle étatiques. Ils seront les seuls à pouvoir surnager dans un océan de normes toujours plus drastiques en matière de censure, de surveillance ou de cybersécurité, tout en continuant de jouer un rôle dans les compétitions géopolitiques internationales. Ainsi, la censure extra-judiciaire d’Internet a beaucoup progressé ces dernières années, que ce soit au prétexte de lutter contre la propagande terroriste et les discours de haine que de combattre la désinformation scientifique, comme on l’a vu pendant la crise sanitaire. Les élites politiques prétendent s’armer contre la position dominante d’acteurs comme Google, Microsoft et consorts. La réalité, c’est que les dispositifs mis en place consacrent ces entreprises dans le rôle de points de contrôle sur lesquels peut s’appuyer la reprise en main d’Internet.

Il y a aussi l’automatisation croissante de l’ensemble des structures bureaucratiques qui nous administrent, de Parcousup à Linky en passant par les algorithmes de la CAF ou de Pôle Emploi. La déshumanisation bureaucratique va se poursuivre sous les oripeaux de la « transformation numérique » de l’État et du marché, cherchant à invisibiliser le déni de justice et la violence de classe liés à ces bureaucraties, le tout sous couvert d’efficacité. La 5G et la domotique s’inscrivent dans ce mouvement vers une capillarité croissante de l’infrastructure numérique, insérant nos existences dans la trame toujours plus resserrée d’administrations centralisées.

Et puis il y a les questions d’identité numérique. Les plans en la matière au niveau européen ou français permettront demain de confier à n’importe quelle personne munie d’un smartphone la mission de contrôler les allées et venues de la population, la capacité de les retracer dans le temps encore plus finement que ne le permettent les réseaux de télécommunications, de réguler l’accès à certains espaces ou services sans forcément en passer par la police, et ce à un coût extrêmement faible pour l’État puisque nous avons déjà financé l’essentiel de cette infrastructure en achetant nous-mêmes nos smartphones. Depuis le mois d’août 2021, les cartes d’identité délivrées en France embarquent un code en deux dimensions contenant les données d’état civil et l’adresse du domicile – des informations lisibles par n’importe qui – et une puce biométrique lisible pour l’instant pour les seuls usages « régaliens ». Quelques jours plus tard, la multinationale française de l’identité Idemia a été retenue par l’Agence nationale des titres sécurisés (ANTS) dans le cadre du programme interministériel France Identité Numérique. Le but de ce marché public est de permettre de contrôler l’identité d’une personne à l’aide d’un smartphone et de la nouvelle carte d’identité électronique. Ces évolutions préparent dans l’Hexagone la généralisation du « portefeuille d’identité numérique » européen prévue pour 2024, et promue par le commissaire européen Thierry Breton.

Ce qui se passe en Chine sur le plan du contrôle numérique nous concerne assez directement. En effet, derrière les stratégies de distinction des élites européennes, la modernisation à marche forcée de la société chinoise en lien avec l’édification d’un système techno-sécuritaire spectaculaire contribue à un véritable soft-power de l’Empire du milieu auprès des élites européennes. Comme le résume Junius Frey dans la préface française d’un livre du philosophe Yuk Hui, « la gouvernementalité chinoise sert d’ores et déjà de modèle aux formes occidentales d’exercice de la puissance ». Après, ici comme là-bas, on sent bien à quel point toutes ces tendances sont fragiles. Elles sont non seulement insoutenables au plan écologique – sauf à finir de mettre la planète à sac – et elles restent soumises à de multiples résistances.

Outre son impact en termes de contrôle social, il nous semble que la technologie a d’autres aspects négatifs : emprise totalitaire sur nos vies, aliénation (chacun rivé sur son écran à regarder des vidéos pour se divertir), dépendance de plus en plus accrue à l’énergie et aux matières premières… Pensez-vous que c’est simplement l’usage policier de la technologie qui est problématique ? Ou bien la technologie est-elle la manifestation de la démesure humaine à l’ère industrielle ? En d’autres termes : selon vous la technologie est-elle neutre ?

Bien sûr que non, la technologie n’est pas neutre : bien qu’elle soit plurielle et elle aussi soumise à des tendances contradictoires, elle est globalement produite – et elle tend généralement à reproduire – un système politique, économique et social à la fois écocide, capitaliste, raciste, patriarcal. Et oui, la technologie porte en elle la démesure d’un système technicien mis presque tout entier au service de l’édification de sociétés de masse inégalitaires, bureaucratisées et industrialisées.

Nous sommes parties prenantes d’un milieu militant qui a largement bercé dans les utopies fondatrices d’Internet, mais l’expérience politique collective qu’est La Quadrature du Net nous a permis de nous en départir. Même si nos moyens limités nous conduisent à mettre l’accent sur tel ou tel sujet selon les moments, notre action collective est loin de se réduire aux seuls sujets liés à la Technopolice, bien qu’ils soient sans doute les plus visibles ces temps-ci. Nous voyons évidemment plus loin que les usages policiers et nous sommes bien conscients de l’imbrication entre technologies numériques et les différentes formes de pouvoir qui régissent nos existences.

L’une des difficultés, une fois que l’on admet cette non-neutralité de la technique, c’est que le numérique est un fait social total et qu’il est très difficile aujourd’hui d’exister socialement ou politiquement sans en passer par lui. Ce qui pose la question de la place que l’on accorde aux usages alternatifs de l’informatique, des formes d’adoption minimale auxquelles nous consentons malgré tout, et la manière dont on peut les articuler à des stratégies d’évitement ou de contestation des infrastructures numériques existantes. Sur ces sujets notamment, il existe des positions et des pratiques diverses au sein de notre collectif. Nous tâchons de nous nourrir de cette diversité et des débats qu’elle suscite.

Que faire face à ce déferlement de contrôle ? Peut‑on revenir en arrière ? Quels moyens de résistance pensez‑vous efficaces ?

Revenir sur les lois sécuritaires et les régimes d’exception est bien évidemment possible, mais soyons lucides : le vent de l’histoire n’est pas favorable. Sur le plan de la matérialité technologique, revenir en arrière est impossible. Nous héritons quoiqu’il arrive de quantités d’infrastructures numériques qu’il faudra pour certaines maintenir – au moins un temps –, d’autres dont il faudra organiser le démantèlement immédiat, le tout en s’occupant de milieux saccagés dont nous devrons tâcher de tirer nos moyens d’existence.

Quant aux stratégies de résistance efficaces, notre sentiment personnel, c’est que même si certaines sont plus pertinentes que d’autres, il ne faut en rejeter aucune à priori. De l’entrisme au sabotage, toutes peuvent avoir leur efficacité dans un contexte donné. À chacun de décider ce qui lui incombe de faire, selon ses positions sociales et ses appétences, en essayant d’apprendre constamment de nos échecs et de nos erreurs ; d’être lucide, d’ajuster le diagnostic et de réviser nos tactiques avant de réessayer.

L’efficacité politique de nos luttes dépend sans doute pour beaucoup de notre capacité à articuler toutes ces différentes manières de faire, à nourrir un dialogue et des solidarités entre elles en faisant preuve de réflexivité, en les arrimant à un horizon commun de rupture avec le système existant pour faire percoler la radicalité. Même lorsque tout peut sembler perdu, rappelons-nous qu’à travers l’histoire, des pouvoirs en apparence inébranlables se sont avérés extrêmement fragiles. Des stratégies réfléchies et la contingence de l’histoire peuvent en venir à bout bien plus vite qu’il n’y paraît.

La France, premier pays d’Europe à légaliser la surveillance biométrique

jeudi 23 mars 2023 à 13:12

L’article 7 de la loi sur les Jeux olympiques a été adopté ce midi par l’Assemblée, actant l’entrée formelle de la vidéosurveillance algorithmique (VSA) dans le droit français, jusqu’en décembre 2024. À l’ombre du tumulte de la réforme des retraites, et grâce à une procédure comme d’habitude extrêmement rapide, le gouvernement a réussi à faire accepter une des technologies les plus dangereuses jamais déployées. Pour cela, il a usé de stratégies, de mensonges et de récits fictifs, pour que jamais ne soit sérieusement et concrètement discutés le fonctionnement technique de ces outils et leurs conséquences politiques et juridiques en termes de surveillance de masse. Grâce à une majorité totalement désinvestie et au soutien total de l’extrême-droite, la VSA a donc pu être légalisée sur la base de mensonges sapant toujours un peu plus le jeu démocratique.

À l’heure où les images de violences policières inondent les écrans, où la police, armée de matraques, assure le service après-vente de mesures impopulaires au possible, l’accentuation de la surveillance policière participe d’une stratégie politique visant à étouffer toute contestation.

Il faut dénoncer ces manœuvres permettant à l’État de détourner la réalité des prérogatives de surveillance qu’il s’arroge. Particulièrement dans un contexte où les mots sont sciemment déviés de leur sens, où l’on tente de nous convaincre que « la surveillance c’est la protection », que « la sécurité c’est la liberté », et que « la démocratie c’est le passage en force ». Il est nécessaire de visibiliser, de contrer ce faux jeu démocratique, et de remettre en cause sans relâche les pouvoirs exorbitants attribués à l’appareil policier français. Il n’est pas nécessaire d’évoquer une dystopie « à la chinoise » pour prendre la mesure des dangers. Mieux vaut regarder l’histoire française et le climat politique actuel, pour mesurer et comprendre la fuite en avant sécuritaire visible depuis vingt ans : toujours plus de caméras, de surveillance et de fichiers, dans une dépolitisation croissante des enjeux sociaux, et une perte de repères des décideurs politiques. Ainsi, les débats sur la loi JO ont principalement brillé par la perte de boussole politique des dirigeants qui semblent hermétiques à tout questionnement sur ces sujets.

Cette première légalisation de la vidéosurveillance automatisée est une victoire d’étape pour les industries sécuritaires françaises. Elles qui demandaient depuis des années à pouvoir tester leurs algorithmes sur les populations, pour les perfectionner et les vendre à l’international, les voilà servies. Bientôt Thales, XXII, Two-I et Neuroo pourront vendre leurs logiciels biométriques à d’autres États, tout comme Idemia a vendu sa technologie de reconnaissance faciale à la Chine. La startup XXII n’a même pas attendu le vote de la loi pour annoncer en fanfare qu’elle avait levé 22 millions d’euros pour devenir, selon ses mots « le leader européen » de la VSA.

Du côté des institutions censées préserver les libertés, comme la CNIL, on note une démission totale. Institution dotée de véritables capacités de contre-pouvoir pour mesurer les velléités étatiques de surveillance à sa création en 1978, la CNIL est devenue un service après-vente des mesures gouvernementales et s’applique méticuleusement à accompagner les entreprises à exercer une « bonne » surveillance afin de préserver les intérêts économiques de l’industrie en dépit de toute considération pour les droits et libertés collectives.

Cette première légalisation de la vidéosurveillance automatisée va nécessairement ouvrir la voie à toutes les autres technologies de surveillance biométrique : audiosurveillance algorithmique, reconnaissance faciale, suivi biométrique des personnes a posteriori…

Nous n’allons pas lâcher le combat, nous continuerons de dénoncer les mensonges du gouvernement, nous serons présents dès que la première expérimentation sera mise en œuvre pour documenter les abus inévitables auxquels conduisent ces technologies. Nous chercherons des moyens de les contester devant les tribunaux, et nous nous battrons pour que cette expérimentation ne conduise pas, comme c’est hélas probable, à leur pérennisation.
Et nous continuerons de refuser ces technologies et la Technopolice qu’elles incarnent, notamment en nous battant au niveau européen pour obtenir leur interdiction.

Alors si vous voulez nous aider dans cette lutte, gardez un œil sur ce qu’on pourra lancer dans les mois à venir, et si vous le pouvez n’hésitez pas à faire un don !

Fiasco du Stade de France : la VSA ne masquera pas les échecs du maintien de l’ordre

mardi 21 mars 2023 à 15:28

Alors que la loi JO est actuellement débattue à l’Assemblée, que l’article 7 va être examiné ce soir ou demain en séance, que plus de 250 élu·es appellent à s’opposer à la VSA, tout comme 38 organisations internationales et les eurodéputés, le gouvernement continue de défendre dur comme fer cette technologie. Et pour cela, il monte en épingle des problèmes de sécurité avec des arguments fallacieux :

Dans un précédent article, nous revenions sur les stratégies d’acceptation des technologies biométriques utilisées par les industriels et les politiques. Nous avions listé quelques-unes de ces stratégies, comme la dépolitisation des mesures de surveillance, l’expérimentation pour faire croire à leur côté éphémère, la dialectique du progrès versus les réactionnaires qui refusent de tels dispositifs… Et l’une d’entre elles consiste à être opportuniste, c’est-à-dire à utiliser n’importe quel événement ou actualité médiatique pour justifier l’utilisation de la vidéosurveillance algorithmique, et même parfois la reconnaissance faciale.
Le fiasco du Stade de France est un de ces évènements. Durant les débats à l’Assemblée et au Sénat, le ministère de l’Intérieur, de même que les députés et sénateurs de la majorité, n’ont pas cessé de faire référence à la finale de la Ligue des champions comme exemple ultime de la nécessité pour la France de se doter en algorithmes d’analyse d’images afin de garantir la sécurité lors de grands événements comme les Jeux olympiques. En réalité, il s’agit plutôt d’instrumentaliser une catastrophe pour cacher un échec, le cas du Stade de France étant un parfait contre-exemple pour montrer que la technologie sécuritaire ne fonctionne visiblement pas.

Rappel des faits

Le 28 mai 2022 avait lieu la finale de la Ligue des champions de football, opposant les clubs de Liverpool et du Réal de Madrid. Mais suite à une conjonction d’événements, la soirée a viré au drame : le RER B en grève, les autorités décidant de placer un point de contrôle pour plusieurs milliers de personnes en amont, à la sortie d’un corridor sous l’autoroute, finalement enlevé en fin de journée pour risque de piétinement. Ensuite des temps d’attente interminables avant d’entrer dans le stade, sans aucune information ni indication, des supporters agressés, les grilles du stade de France fermées, des personnes qui s’agglutinent et enfin l’usage de gaz lacrymogène par la police par dessus tout ça. Finalement, le coup de sifflet sera donné avec plus de 30 minutes de retard. Cet article, qui reprend le rapport cinglant de l’UEFA (Union des associations européennes de football), livre des témoignages glaçants de supporters.

L’instrumentalisation de l’événement

Dans un rapport sénatorial chargé de faire la lumière sur les événements et publié en juillet 2022, les élus étrillaient le ministère de l’Intérieur et son chef, G. Darmanin, pour « dysfonctionnement » et « défaillances ». L’Intérieur est accusé : « Les premières déclarations ne correspondaient pas à la vérité », et sont pointées les « défaillances » de la préfecture de police de Paris. Défaillances reprises par le rapport de l’UEFA, qui, à l’aune de centaines de témoignages, analyse les failles de la gestion sécuritaire de la préfecture de police de Paris et de l’Intérieur.

Si la situation n’a pas débouché sur une catastrophe, le rapport de l’UEFA
estime
notamment que c’est uniquement grâce au sang froid des supporters : « Mieux organisés et plus réactifs que les policiers et les gendarmes chargés de veiller à leur sécurité, ces fans de Liverpool ou de Madrid n’ont dû leur salut qu’à une solidarité sans faille et une capacité à se discipliner qui forcent l’admiration dans un contexte aussi résolument hostile à leur endroit. »

L’ensemble de ces rapports mettent donc clairement en lumière la responsabilité de la préfecture de police de Paris et du ministère de l’Intérieur dans l’échec de la gestion de cet événement. La colère ne faiblit pas pour les supporters de Liverpool, qui déplient lors d’un match en février dernier des banderoles qui accusent le ministre de l’Intérieur et la ministre des Sports d’être des « menteurs ».

Mais dès les jours suivant ce qui était déjà communément désigné comme le « fiasco du Stade de France », le maire de Nice, Christian Estrosi sautait sur l’occasion : « Nous sommes équipés, nous avons les logiciels, nous avons des start-ups et des grands industriels, y compris français comme Thalès, qui ont des systèmes très au point pour garantir les libertés individuelles, et que seules les personnes fichées puissent être détectées par l’intelligence artificielle ».

Du côté de l’Intérieur, après s’être embrouillé dans des pseudo-justifications de dizaines de milliers de faux billets imaginaires, G. Darmanin commence à réciter une fable : celle de la VSA et de sa nécessité afin d’éviter des violences comme celles ayant eu lieu au Stade de France. En janvier 2023 devant le Sénat , c’est la ministre des sports et jeux olympiques et paralympiques, Amélie Oudéa-Castéra (qui défend la loi avec le ministre de l’Intérieur) qui revient dessus lors de la présentation des dispositions de l’article 7 et se félicite de ne pas utiliser de reconnaissance faciale « En matière de sécurité, nous entendons enfin tirer tous les enseignements des événements survenus au Stade de France le 28 mai dernier ».

Et la vidéosurveillance algorithmique ne manque pas de soutien dans l’hémicycle, elle est plébiscitée par l’extrême-droite, qui reprend parfaitement l’argumentaire de la majorité :

Yoann Gillet (RN) : « L’organisation des Jeux olympiques et paralympiques rend cruciale cette question. Au vu des défaillances majeures constatées en mai 2022 au Stade de France, le groupe Rassemblement national réclame des actions concrètes et adaptées pour assurer la sécurité intérieure du pays. Le traitement algorithmique des images de vidéosurveillance, prévu à titre expérimental par l’article 7, est un outil indispensable pour identifier les risques qui pourraient menacer la sécurité des personnes pendant cette manifestation internationale ».

Le ministre de l’Intérieur utilise notamment un point, qu’on retrouve parmi une liste de plusieurs dizaines de recommandations dans le rapport sénatorial précédemment cité, à savoir celui qui préconise le recours à l’intelligence artificielle pour éviter d’autres situations comme celle du Stade de France. La petite histoire commence alors.

Lors des discussions sur la loi JO, le 24 janvier dernier, le sénateur Thomas Dossu, résume parfaitement l’absurdité de ce technosolutionnisme :

«  Disons-le clairement, voir émerger cette recommandation dans ce rapport avait déjà un caractère saugrenu. En effet, l’intelligence artificielle aurait-elle permis d’éviter la défaillance dans l’orientation des supporters anglais ? L’intelligence artificielle aurait-elle déconseillé l’usage immodéré des gaz lacrymogènes sur des supporters pacifiques ? L’intelligence artificielle aurait-elle tiré, en amont, les conclusions d’une grève touchant l’une des deux lignes de RER qui menaient au Stade de France ? En d’autres termes, l’intelligence artificielle aurait-elle fait mieux que les intelligences combinées du ministre Darmanin et du préfet Lallement ? Aussi surprenant que cela puisse paraître, je ne le pense pas. »

Ainsi, on passe d’un événement où la responsabilité des forces de police françaises est mise en cause à la soi-disant nécessité d’une extension des pouvoirs de surveillance de cette même police, à travers l’ajout d’algorithmes aux caméras. Cette instrumentalisation de l’événement pour cacher un échec est bien pratique. À un peu plus d’un an des Jeux olympiques, le gouvernement français joue sa crédibilité : s’il est incapable de gérer une finale de Ligue des champions, comment pourrait-il accueillir un méga-évènement comme les JO ? Plutôt que d’avouer son échec, il jette de la poudre aux yeux en déviant sur la pseudo nécessité de la vidéosurveillance algorithmique.
Depuis le début des débats sur la loi JO, la prévention des « mouvements de foule » est alors mise en avant par la majorité comme l’usage principal de cette technologie. D’une part, cela invisibilise – à dessein- les applications bien plus dangereuses de la VSA. D’autre part, le gouvernement infuse de cette manière dans le débat une source d’insécurité fabriquée de toute pièce et qui n’avait jamais pris autant d’importance lors des autres évènements organisés en France.

La VSA aurait-elle pu être utile pour éviter le fiasco ?

Idée reçue : La VSA permettrait à la police d’être mieux organisée

Le fiasco du Stade de France est de toute évidence instrumentalisé pour promouvoir la VSA : mais celle-ci pourrait-elle quand même être efficace face à de tels événements ?
Le problème majeur de cette finale de la Ligue des champions n’a pas été le manque de technologie pour gérer la foule, mais bien la stratégie du maintien de l’ordre de l’Intérieur et de la préfecture, comme l’exposent les différents rapports précédemment cités, avec des erreurs de gestion de foule (contrôle des tickets dans des endroits trop étroits, ligne de RER en grève) couplées au gazage à tout-va des supporters. On voit mal comment la vidéosurveillance algorithmique aurait permis à l’évènement d’être mieux organisé ou à la police d’être moins violente…

Si la rengaine du technosolutionnisme presque magique, qui pourrait résoudre tous les problèmes, est régulièrement utilisée, elle laisse complètement dubitative dans ce cas-là. Le Stade de France compte 260 caméras de vidéosurveillance, pourtant celles-ci n’ont pas servi à grand-chose. Les bandes ont d’ailleurs étrangement été effacées au bout d’une semaine, personne n’ayant visiblement pensé à les réquisitionner : ni le tribunal, ni les sénateurs n’ont pu avoir accès aux images. En quoi l’ajout d’algorithmes aurait-il pu empêcher un tel événement ? Au contraire, le fiasco du Stade de France montre bien qu’une politique de sécurité répressive et inhumaine, dans laquelle les caméras et la VSA s’inscrivent largement et où la police est en partie à l’origine des mouvements de foule, n’aboutit qu’à la violence

Si l’Intérieur souhaite réellement éviter la reproduction de tels événements, il faudrait plutôt songer à changer la doctrine du maintien de l’ordre et s’enquérir de gestion humaine de l’espace : s’assurer d’avoir des couloirs assez grands, d’indiquer les guichets, d’avoir des agents multilingues pour orienter les supporters, d’informer en temps réel sur ce qui se passe, et de défaire les préjugés des forces de l’ordre sur le « hooliganisme anglais »…

Idée reçue : La VSA permettrait de détecter et prévenir des mouvements de foule

Pour éviter les mouvements de foules, les chercheurs dans le domaine pointent l’importance de l’organisation spatiale en amont, la nécessité de poster des humains pour orienter et aider les personnes présentes, le désengorgement des transports… Toutes solutions sans rapport avec la vidéosurveillance, qui ne peut clairement rien pour prévenir les mouvements de foule.

La concentration de milliers de personnes en un même endroit nécessite certes une préparation en amont, mais une fois la foule réunie, qu’est ce que la VSA pourrait repérer qui ne serait perceptible par des humains ? Et si un mouvement de foule se déclenche effectivement, la technologie biométrique ne peut ni porter secours ni réorienter les personnes pour diminuer la densité. On voit donc mal ce que la VSA apporterait sur le sujet. Rappelons également que chaque semaine depuis des décennies, des stades se remplissent et se vident en France. A notre connaissance, il n’a pas été documenté ou identifié de nouveaux problème majeurs de mouvements de foule qui nécessite de changer le savoir faire humain habituellement mis en œuvre dans ces lieux.

Que ce soit dans la prévention ou la résolution de tels mouvements, la technologie n’est pas une aide. Ici, c’est au contraire une stratégie afin d’orienter le débat et le dépolitiser. La vraie question est ailleurs : la VSA n’est pas un outil « neutre » d’aide à la décision, mais s’inscrit dans des stratégies de répression qui ont conduit à produire le fiasco du Stade de France.

Mouvement de foule à Séoul, 2022

Un autre exemple utilisé pour justifier la VSA par son fervent défenseur – encore et toujours – P. Latombe est celui du mouvement de foule meurtrier le soir d’Halloween à Séoul en octobre dernier. Encore une fois, c’est un mauvais exemple, la Corée du Sud et notamment la ville de Séoul utilisent déjà la vidéosurveillance algorithmique, ce qui n’a pas empêché 156 personnes de mourir et des centaines d’autres d’être blessées lors de ce dramatique évènement. Dans ce cas-là, il semble que la faute incombe une fois de plus à la police, trop peu nombreuse sur place et occupée à arrêter des personnes pour trafic de drogues (une centaine de policiers présents pour 100 000 personnes entassées dans un quartier de Séoul), mais aussi à l’ignorance des appels d’urgence de personnes sur place et de ceux des pompiers.
Les spécialistes des mouvements de foule pointent1Voir la vidéo d’un chercheur en mouvement de foule, Mehdi Moussaïd https://www.youtube.com/watch?v=hlnZA89hVwo<script type="text/javascript"> jQuery('#footnote_plugin_tooltip_20365_2_1').tooltip({ tip: '#footnote_plugin_tooltip_text_20365_2_1', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], }); l’aménagement de l’espace comme la donnée la plus importante pour éviter ces phénomènes (présence d’issues de secours, nombre et largeur de celles-ci), suivie par l’organisation en amont (communication avec la foule, orientation des flux, organisation des secours). La technologie n’a pas de place là-dedans. Encore une fois, filmer une catastrophe ne permet pas de la prévenir.

Conclusion :

La référence au fiasco du Stade de France pour justifier le recours à la vidéosurveillance algorithmique ne tient pas l’analyse une seconde. Il est donc clair qu’il s’agit davantage d’une tentative d’utiliser un choc émotionnel provoqué par une catastrophe et d’essayer de couvrir un échec organisationnel et de répression policière. Mais surtout, en imposant ce faux débat dans les discussions sur la VSA, le gouvernement parvient à étouffer les véritables enjeux liés aux dangers de ces technologies. Le sujet des mouvements de foule a monopolisé les discussions sur la loi JO en commission des lois, empêchant les députés de questionner en profondeur les usages bien plus problématiques de ces algorithmes. Ainsi, la définition de « comportement suspect » ou le suivi biométrique des personnes dans la rue n’ont quasiment pas été débattus alors qu’il s’agit d’applications existantes et dangereuses, promues et développées par les entreprises de VSA qui seront chargées des expérimentations.

La légalisation de la VSA ne permettra pas d’empêcher les fiascos tels que celui ayant eu lieu lors de la finale de la Ligue des champions, mais contribuera bien à augmenter les capacités de surveillance de l’État et la répression de la population. Il faut contrer les manœuvres du gouvernement et regarder en face la société de surveillance qu’il est en train de faire accepter. Refusons toutes et tous l’article 7 !

References

References
1 Voir la vidéo d’un chercheur en mouvement de foule, Mehdi Moussaïd https://www.youtube.com/watch?v=hlnZA89hVwo
<script type="text/javascript"> function footnote_expand_reference_container_20365_2() { jQuery('#footnote_references_container_20365_2').show(); jQuery('#footnote_reference_container_collapse_button_20365_2').text('−'); } function footnote_collapse_reference_container_20365_2() { jQuery('#footnote_references_container_20365_2').hide(); jQuery('#footnote_reference_container_collapse_button_20365_2').text('+'); } function footnote_expand_collapse_reference_container_20365_2() { if (jQuery('#footnote_references_container_20365_2').is(':hidden')) { footnote_expand_reference_container_20365_2(); } else { footnote_collapse_reference_container_20365_2(); } } function footnote_moveToReference_20365_2(p_str_TargetID) { footnote_expand_reference_container_20365_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } } function footnote_moveToAnchor_20365_2(p_str_TargetID) { footnote_expand_reference_container_20365_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } }

JO sécuritaires : le podium des incompétents

jeudi 16 mars 2023 à 19:38

Le 8 mars dernier, les débats sur la loi relative aux Jeux Olympiques et Paralympiques de 2024 ont débuté en commission des lois à l’Assemblée nationale. Ce texte s’apprête, via son article 7, à amorcer la légalisation de la surveillance biométrique, en commençant par la vidéosurveillance algorithmique (VSA). Cette technologie, basée sur des algorithmes d’intelligence artificielle, est très complexe. Pour nous assurer que les députés soient en mesure de mener ces débats, d’en comprendre les enjeux techniques ainsi que la dangerosité de l’usage de la biométrie, La Quadrature du Net a envoyé à l’ensemble des parlementaires une note fournie et a organisé des sessions d’appel aux députés.

Le résultat a été stupéfiant : à peine une semaine avant le vote en commission, aucun député n’était réellement informé sur le sujet. Ces derniers justifient leur manque d’investissement sur le sujet en pointant du doigt un agenda législatif très chargé. D’autres assument ne pas s’intéresser au sujet et suivre l’avis des responsables du dossier au sein de leur parti. Alors qu’il s’agit de la légalisation d’une des technologies les plus graves de la dernière décennie, de l’acceptation en creux d’une société de surveillance, les députés sont aux abonnés absents.

Sans surprise donc, le jour des débats en commission, très peu de députés ont pris la parole sur le sujet. À coté de celles et ceux de droite ou d’extrême droite ne jurant que par la sécurité et la protection qui seraient inhérentes à la VSA, les élus de la majorité ont été totalement silencieux et n’ont quasiment pas pris la parole (les groupes Horizons et Renaissance n’ont déposé que quelques amendements). Plus effrayant encore, les quelques députés censés être chargés du sujet ont fait étalage de connaissances très approximatives sur les technologies utilisées par la VSA et ont énoncé nombre d’absurdités avec une grande assurance.

Le champion de cette catégorie est sans aucun doute Philippe Latombe, député Modem, fraîchement nommé à la CNIL et autoproclamé spécialiste de la VSA, alors même que ses liens avec l’industrie sont plus que visibles. Ce dernier assumait en effet pousser pour la légalisation de VSA au salon Expo Protection en novembre 2022, durant lequel il a d’ailleurs été qualifié de « coéquipier » par Sébastien Garnault, représentant du lobby CyberTaskForce. Il a également rencontré le lobby de la vidéosurveillance AN2V dont le président Dominique Legrand regrette que l’impasse ait été faite, dans le texte de loi, sur « la détection des anomalies sonores […] telles qu’un coup de feu ou un bris de vitre. ». Qu’il se console, Philippe Latombe est là pour proposer un amendement sur la surveillance sonore !

De manière générale, le passage en revue des interventions des députés démontre leurs véritables intentions politiques pro-business sécuritaire, mais révèle qu’une fois de plus les parlementaires ne savent pas ce qu’ils votent.

Les jeux de données

Une des incohérences les plus grossières avancées en commission a été de laisser penser qu’en maîtrisant les données fournies aux systèmes d’IA pour apprendre à reconnaître les prétendus comportements « suspects », on pourrait empêcher toute mauvaise utilisation ou « biais » de ces algorithmes. Cette affirmation révèle une compréhension très lacunaire de l’impact de l’usage des données captées dans l’espace public.

• Le caractère « biaisé » de certains jeux de données

la question de la construction du jeu de données — sa représentativité en terme de diversité de genre, d’ethnie, d’âge, etc. — est devenue incontournable. Le cas du logiciel COMPAS, utilisé par certaines juridictions américaines et dont l’objectif était de détecter les possibilités de récidive en fonction des éléments d’un dossier policier, a popularisé les dérives de l’automatisation de la prise de décision. Le programme avait appris sur un jeu de données qui embarquait les décisions racistes du dispositif de police américain concerné, et avait déduit qu’une des caractéristiques principales liée à la récidive était la couleur de peau. On peut trouver d’autres exemples plus récents en parcourant la AI Incident Database.

Le problème est souvent présenté de cette manière : « Lorsque l’on recueille des données et que l’on recherche des corrélations entre elles, on peut aboutir à des résultats orientés si dans le jeu de données, une corrélation est surreprésentée ». On qualifie alors souvent de « biaisé » le jeu de données de départ et l’algorithme ainsi entraîné à partir de ces données. Cette qualification sous-entend qu’il serait possible d’avoir un algorithme neutre, fournissant une analyse objective de la réalité. En fait, si l’on reprend l’exemple de COMPAS, ce n’est pas un « biais », une erreur, qui a conduit à l’automatisation de décisions racistes de la part de l’algorithme, mais bel est bien le fait que les données réelles à partir desquelles on entraîne les machines sont des données produites par des humains et donc teintées d’opinions et portant en leur sein toutes les oppressions existant dans la société. Présenter le problème comme un « biais », c’est penser que le problème est technique alors qu’il s’agit d’un problème politique. C’est aussi reproduire le vain idéal d’une technique neutre, qui n’existe pas : toute technique est formatée par ses conditions de production, et par l’intention de ses auteurs.

La VSA, c’est la surveillance des espaces publics. Dans ces lieux il y a une surreprésentation des personnes précaires et marginalisées par rapport à la population globale, il y a aussi plus d’hommes, moins de personnes très jeunes ou très âgées. Cette surreprésentation se retrouve donc aussi dans les flux vidéo issus de la surveillance de ces espaces. Peut-on pour autant dire que les jeux de données issus de ces captations sont « biaisés » ? Non, cet état de fait n’est pas la conséquence d’une erreur de constitution d’un jeu de données mais bien de la décision politique, ciblée et discriminatoire, de vouloir renforcer la répression précisément dans ces espaces.

Plutôt que de confronter la réalité politique du choix des lieux d’implantation et des populations visées, les défenseurs du texte se cachent derrière des réponses techniques inopérantes relatives à de prétendus « biais ». Par exemple, Philippe Latombe explique :

Le vrai souci sur l’IA c’est de s’assurer qu’il n’y a pas de biais. Il y a une façon assez simple qui est celle prévue par la CNIL notamment, c’est de dire  » on vous donne des jeux de données, on sait exactement ce qu’il y a dans ces jeux de données, on sait ce qu’on doit attendre comme résultat positif mais aussi ce qu’il ne faut pas que nous ayons comme résultat négatif », et dans ces cas là on saura si le traitement est loyal ou pas loyal, s’il y a des biais ou s’il y a pas de biais.(…) Il faut des jeux de données standardisées.

Pour résoudre ce soi-disant problème, il demande à ce que l’État fournisse lui-même des jeux de données aux entreprises, persuadé que cela permettrait de « pouvoir vérifier justement que les algorithmes n’ont pas de biais » et qu’avoir un laboratoire public [comme le NIST] permettrait de « prouver que l’algorithme il est loyal, il n’y a pas de biais, que les biais sont maîtrisés et qu’il n’y a pas de discrimination » (à écouter ici et ).
M. Latombe manie l’argument du recours à l’État comme figure d’autorité rassurante, faisant mine d’oublier que le droit à la sûreté individuelle est précisément censé protéger aussi contre l’arbitraire de l’État.

Il est rejoint sur ce point par le rapporteur Guillaume Vuilletet, qui explique que « le fait de fournir des données à un algorithme pour le nourrir, faire en sorte qu’il apprenne et qu’il évite les biais est consubstantiel de la démarche algorithmique ». Mais en réalité, cela signifie d’ouvrir l’accès aux images des caméras publiques à des entreprises privées pour qu’elles puissent utiliser les vidéos des personnes dans la rue, désignées cobayes involontaires, pour alimenter généreusement leurs logiciels. Une manne de données gratuites mises au profit d’entreprises privées.

La discrimination des populations imposée par la VSA n’est pas circonscrite à la seule sélection des jeux de données. En réalité, les conséquences les plus problématiques résultent davantage des fonctionnalités qui sont développées dans les logiciels et qui visent précisément les publics les plus vulnérables. Si le simple fait d’augmenter la répression dans les espaces publics est déjà discriminatoire, le fait que la VSA ait pour but de repérer les personnes allongées (personnes sans abri), les regroupements de personnes (personnes n’ayant accès qu’à des espaces publics pour se retrouver) tout en qualifiant ouvertement tous ces comportements de « suspects » est encore plus discriminatoire et problématique. Sans parler de l’atteinte potentielle aux droits fondamentaux de réunion, d’expression et de manifestation sur la voie publique. Cette question très inquiétante de la qualification des « comportements suspects » n’a cependant pas été développée lors des discussions en commission, alors qu’il s’agit d’un des problèmes majeurs de cette loi.

• Les usages possibles d’un jeu de données particulier

Plusieurs fois au cours des débats, les députés ont sous-entendu que les algorithmes n’étaient utiles que dans un cadre similaire à celui dans lequel ils ont été entraînés. Le rapporteur du texte, Guillaume Vuilletet lui-même, dit par exemple :

La réalité c’est que c’est parfaitement borné. Les fournisseurs ne pourront pas revendre ailleurs ce qu’ils ont fait avec des cas d’usage. Ce que nous expérimentons ce sont des cas d’usage. Comme les JO ne reviendront pas à Paris avant un siècle, avant qu’on ait la configuration géographique et périmétrique du stade de France ou d’un autre site, ça ne veut rien dire.

Le but est de minimiser le danger de la VSA et de prétendre que les algorithmes ne fonctionnent pas de manière générale mais seulement dans un contexte donné, parce que leur apprentissage s’est déroulé dans un contexte et pour un usage déterminé. Ceci est totalement faux. En réalité, les algorithmes entraînés sur les images des JO pourront tout à fait être utilisés à l’avenir pour surveiller les foules dans un contexte différent (une manifestation, par exemple). Encore pire, ces algorithmes développés par des entreprises privées utilisant la population comme cobaye pourront parfaitement être revendus, par la suite, à d’autres pays. Idémia, société française et leader du marché international de la reconnaissance faciale, pourra continuer à vendre ses algorithmes à la Chine.

On comprend qu’il importe peu que les données d’entraînement soient supprimées, ou propres à un contexte particulier : le résultat auquel elles ont permis d’aboutir sera conservé et pourra servir à une multitude d’applications qui peuvent être différentes du contexte premier de l’expérimentation.
Ce qui a de la valeur et qui sert à des usages futurs, ce sont la quantité de données utilisées et le modèle entraîné qui en résulte.

Est-ce par stratégie ou par méconnaissance que le rapporteur du texte affirme de telles absurdités ? Que ce soit l’une ou l’autre de ces explications, nous avons de grandes raisons de nous inquiéter de laisser l’avenir de la surveillance biométrique entre ses mains.

La fausse neutralité de l’automatisation

Ce qui ressort également des interventions des défenseurs de la VSA, c’est une croyance aveugle en la neutralité des outils techniques et en leur potentialité à résoudre facilement les problèmes politiques auxquels ces mêmes défenseurs seraient censés se confronter.

À entendre les députés, l’IA serait une forme de baguette magique statistique qui permettrait de révéler des corrélations invisibles pour l’humain et de détecter, comme par miracle, les signes précurseurs de mouvements de foule ou d’attentats terroristes. Cela relève du fantasme : toute la conception de l’algorithme est guidée du début à la fin par l’humain et implique un ensemble de prises de décisions techniques et politiques.

Outre le choix du jeu de données évoqué plus haut, dont on a vu qu’il influençait considérablement les décisions prises par l’algorithme, on trouve dans le processus d’élaboration d’un logiciel de VSA d’autres étapes qui orientent la décision finale et imposent à leurs concepteurs de faire des choix qui resteront inscrits dans le logiciel.

L’entraînement du modèle, c’est à dire le moment où les données sont fournies à l’algorithme pour qu’il établisse des corrélations et converge vers un état final satisfaisant, est également très important. On peut voir ce processus comme le calibrage de boutons à tourner : en fonction de la position des boutons, les différentes données de l’images sont pondérées différemment dans la décision d’activer, ou non, la détection. Ces boutons sont tournés de façon automatique par l’algorithme, mais le concepteur avance « à l’aveugle » : il favorise un résultat conforme à son attente, mais sans qu’il sache avec quels critères l’algorithme est arrivé à ce résultat. Si, pour rechercher une personne « suspecte », la combinaison finale de boutons tournés aboutit à ce que l’algorithme trouve plus efficace de repérer les personnes en survêtement, ou encore les personnes de telle couleur de peau, le concepteur ne saura même pas que c’est cette information qui est décisive pour l’algorithme. Il connaîtra juste la pondération que l’algorithme a faite et choisira d’opter pour cette configuration de paramètres car c’est celle-ci qui rend ce dernier le plus efficace.

Il y a donc trois moments décisifs dans la conception de l’algorithme qui vont orienter sa décision finale (et déclencher une intervention de la police) :
– Le choix de la finalité du logiciel de VSA : autrement dit, la définition du comportement suspect (point totalement évacué par les députés lors des débats),
– Le choix du jeu de données et la manière dont il est labellisé (on en parle juste au dessus),
– Et enfin cette étape de pondération d’usage de telle ou telle caractéristique (faite à l’aveugle, sans moyen de savoir si la donnée en question est sensible).

Difficile donc, quand on connaît le fonctionnement de cette technologie de prétendre qu’elle est neutre, tant son élaboration impose de faire des choix, des choix ayant des conséquences politiques importantes.

Ainsi, lorsque Philippe Gosselin (député LR, ex membre de la CNIL, et corapporteur avec Philippe Latombe d’une mission d’information sur la vidéosurveillance) dit : « L’algorithme n’est évidemment qu’un « outil » qui ne doit pas être confondu avec une « intrusion dans la vie privée » », il s’insère exactement dans ce discours visant à prétendre que les logiciels de VSA seraient « neutres ». Il escamote la question du pouvoir conféré à L’État et à la police par la technologie, et efface en quelques secondes les sombres traces de la surveillance dans l’Histoire moderne.

Fonctionnement des algorithmes

Tout au long des discussions, les députés ont tenté des explications techniques, parfois agrémentées de mots savants, sans que cela suffise à cacher leur manque de maîtrise du sujet. Voici notre podium.

Médaille de bronze

La médaille de bronze revient au multimédaillé et favori dans sa catégorie, Philippe Latombe, qui manipule les notions juridiques d’obligation de moyens et d’obligation de résultat sans que l’on comprenne vraiment où il veut en venir. Ce qu’on comprend surtout c’est qu’il estime impossible d’évaluer techniquement la VSA et qu’il faudrait absolument l’« expérimenter » pour garantir la sécurité lors des JO. Cela, sans jamais prévoir la manière dont on évaluera l’impact réel de telles technologies de surveillance de masse, alors même que l’on a jamais eu de retour sur les résultats sue les tests réalisés depuis des années sur la VSA. .

La vision assistée par ordinateur nécessite d’avoir recours au deep learning, ou « apprentissage profond », car les flux vidéo contiennent de grandes quantités de variables impliquant de très nombreux calculs. Une simple image HD compte plus de 2 millions de pixels : il n’est pas imaginable que toutes les dimensions que nécessite son analyse soit chapeautées par un humain.

Les calculs que nécessite l’analyse de telles images sont effectués dans différentes couches de réseaux de neurones. Chaque couche a un rôle précis et permet de pondérer l’algorithme pour lui faire adopter différents comportements. Certains algorithmes comportent de si nombreuses couches que leur fonctionnement est opaque, y compris pour les data scientists qui les manipulent, souvent à tâtons, sans pourvoir dire pourquoi tel réglage fonctionne mieux que tel autre : on se retrouve face à un divorce entre, d’un côté l’intention du programmeur et ses a priori, et de l’autre ce que la machine produit effectivement comme programme. Les ingénieurs ne peuvent avoir la main que sur la correction des erreurs du résultat (est-ce bien une personne qui court ?) et non sur la manière dont le résultat est obtenu (comment l’algorithme a déduit qu’il s’agissait d’une personne qui court).

Regarder les résultats d’un algorithme ne permet donc ni une vision claire de son fonctionnement et des décisions (aux conséquences politiques) qui l’ont conduit au résultat final, ni de savoir tout ce que l’IA n’a pas réussi à reconnaître.

Ainsi, quand Philippe Latombe bafouille « Dans le cas d’un système d’intelligence artificielle reposant sur un apprentissage, il est très compliqué de valider sur le plan technique la notion d’obligation de résultat. On valide éventuellement un logiciel ou un traitement algorithmique au départ, mais en fonction de l’apprentissage, ils peuvent évoluer. (…) il faut assumer le fait qu’il soit impossible de recourir à un algorithme s’il a évolué et ne répond plus entièrement aux conditions de départ. », pensant briller en mêlant jargon juridique et technique, il ne fait que démontrer qu’il n’est pas en mesure de mettre en place des garde-fous juridiques pour encadrer la surveillance biométrique (et pour cause, ce n’est pas possible tant le deep learning est une technologie opaque) ni même de garantir une quelconque efficacité. Bien essayé.

Médaille d’argent

À la deuxième place du podium, on trouve le rapporteur Guillaume Vuilletet qui, pour refuser l’ouverture et la transparence des algorithmes, explique : « S’il y a bien quelque chose qui peut servir aux terroristes c’est d’avoir le code et de comment le contourner (…) donner les codes des algorithmes, les rendre publics, c’est donner les outils à tous ceux qui voudraient pirater les algorithmes et voudraient les détourner. »

Car c’est bien connu : les terroristes, si facilement détectables avec une caméra et un bon logiciel, pourraient changer leur attitude pour laisser croire qu’ils ne sont pas terroristes. Car avant tout, le terroriste est fourbe.
Oui, c’est de l’ironie, mais c’est le député qui a commencé en nous prenant pour des buses.

Il n’est pas le seul, les députés ont à plusieurs reprises mentionné l’idée « d’ouvrir le code » pour dire à quel point il ne fallait surtout pas le faire.

Concernant les logiciels de VSA, il y a plusieurs choses qui peuvent être rendue accessibles :
– les données d’entraînement : en pratique, nombre de ces jeux de données sont déjà accessibles, sous des licences autorisant plus moins d’usages. Parmi eux, beaucoup sont utilisés de manières illégales et comportent, par exemple, des images récupérées sans consentement sur les réseaux sociaux.
– les algorithmes utilisés : il en existe de nombreux et eux aussi sont très fréquemment opensource
– le paramétrage de ces algorithmes : c’est la partie qui est développée par les entreprises de VSA et comme on l’a dit plus tôt qui détermine les décisions politiques.

Donc la question de la transparence des algorithmes n’est jamais posée correctement car elle est multiple. Surtout, cette problématique de l’ouverture du code efface la question de l’interdiction même de cette technologie. Plutôt que de chercher à rendre la surveillance biométrique plus transparente, autant se contenter de ne pas la légaliser.

Petite mention spéciale à Philippe Latombe, qui déclare « Donc ne commencez pas à dire « suspicion généralisée », ca va forcément être avec des biais, il faut ouvrir le code. Désolé mais vous demandez à Google d’ouvrir le code, le lendemain il vaudra plus rien, vous n’aurez pas les expertises pour pouvoir le faire. Y a des vrais sujets de praticité des choses

On comprend qu’il n’a aucune notion de ces éléments. Par exemple, Google n’a rien à perdre à rendre ses méthodes d’apprentissage publiques, elles sont déjà open sources pour la plupart (notamment la bibliothèque TensorFlow utilisée dans le monde entier) et la croyance que la mise à disposition d’un code lui enlève sa valeur est particulièrement datée. Les députés démontrent ainsi ne rien connaître à l’économie de l’opensource, qui est très importante dans le développement de l’intelligence artificielle (OpenAI, par exemple, a publié le modèle GPT2 qui est derrière ChatGPT) et n’abordent jamais le véritable sujet qui serait d’être plus transparent sur les pratiques policières pour lutter contre celles qui sont les plus discriminantes.

Médaille d’or

Enfin, la médaille d’or est attribuée à Philippe Latombe (encore lui, quel champion !), pour avoir expliqué – ici et – que les traitements de la VSA ne sont que des « traitements vectoriels », car : « Les images sont transformées en vecteur et en points». Ainsi, la foule ne serait qu’une agrégation de points attribués à des personnes. Et pour les bagages abandonnés ? C’est très simple :

On associe une personne que l’on transforme en un vecteur mathématique à un objet qui lui n’est pas un vecteur, et on voit si ça bouge et si il y a un écartement entre les deux. Cet écartement permet simplement d’éviter qu’il y ait un bagage abandonné sur le quai de la SNCF .

On le connaît bien cet enfumage ! On vous en parlait il y a deux semaines lorsqu’on analysait les stratégies des entreprises pour donner à la VSA une image acceptable. À entendre les promoteurs de la VSA, on donne une définition mathématique des données biométriques et hop ! Magie ! Il n’y a plus de biométrie. « Ce n’est pas une image d’une personne, c’est juste une suite de nombres ! Et ça, ce n’est pas un micro, c’est un capteur de vibration de l’air ! ». Bientôt on aura droit à « Non ce n’est pas de l’ADN, c’est juste une macromolécule définie par une suite de bases nucléiques, rien de biométrique ! ».

Oui, une image est faite de pixels, qui restent des nombres, et oui on peut modéliser ce qui y est représenté avec des vecteurs. Une image avec des personnes majoritairement Noires, si on la modélise mathématiquement avec des vecteurs par exemple, « contiendra » l’information qu’une majorité des personnes sont Noires. Le prétendu « passage en vecteur » n’empêche absolument pas au programme de reconnaître une démarche, des vêtements ou une couleur de peau, de conserver cette information, de lui donner un poids et de prendre des décisions en fonction de ces variables. Au contraire, c’est grâce à ce traitement que l’on peut exploiter plus facilement les données biométriques.

Une fois encore, M. Latombe — par ignorance ou délibérément ? — tente de minimiser la qualification biométrique de cette surveillance, qui est pourtant indiscutable. La reconnaissance de comportements suspects implique nécessairement l’analyse du corps humain, de sa démarche, de ses attributs physiques et de ses mouvements, pour l’individualiser et le reconnaître. Il sera ainsi possible de reconnaître que telle personne présente sur telle zone est la même que celle visible sur une autre caméra, par exemple en raison de sa démarche. Le suivi et l’identification biométrique (c’est-à-dire la capacité à dire qu’il s’agit de la même personne d’après ses caractéristiques physiques, quand bien même on ne connaît pas son nom) sont explicitement rendus possibles par l’utilisation de cette nouvelle technologie, et c’est l’un des dangers prégnants qu’elle fait peser sur le droit à l’anonymat.

Malheureusement, comme un certain nombre de ses collègues, le député Thomas Rudigoz (Renaissance) prétend que « ce traitement algorithmique exclut tout traitement biométrique. Ce que l’on recherche c’est à identifier les mouvements de foule, les densifications de personne à un endroit particulier, identifier des zones interdites qui seraient occupées par telle ou telle personne, des colis suspects et aucunement une reconnaissance faciale ou biométrique ».

Nous l’avons déjà répété plusieurs fois : la VSA met en œuvre des traitements de données biométriques. Les associations européennes ont récemment alerté les députés sur ce point et il est totalement faux de prétendre l’inverse. L’industrie a usé de stratégies de communication pour modifier le sens de ce mot et le cantonner à la reconnaissance faciale (nous avons décortiqué cette manœuvre ici). Il est désolant de voir une grande partie des députés se laisser mener en bateau par cette rhétorique sans sourciller.

Conclusion

Les débats en commission des lois ont montré que les députés de la majorité ne maîtrisent ni les enjeux techniques ni les dangers politiques des technologies de vidéosurveillance automatisée. À aucun moment la question de la définition politique et morale de la notion de « comportement suspect » n’a été sérieusement abordée, ni les problématiques du rapport de la population à la sécurité dans l’espace public — qui passe par bien d’autres solutions que la surveillance et la répression. La croyance que la « protection » ne peut être atteinte que par l’installation de dispositifs de surveillance est tellement ancrée dans l’imaginaire des gouvernants qu’ils ne savent même plus déceler les pouvoirs à limiter et les abus à prévenir.

De nouveau la dépolitisation des questions collectives, voulue par le marché de la sécurité et alimentée par les politiques univoques de ces dernières décennies qui mettent systématiquement le sentiment d’insécurité au centre du débat public, a achevé d’enterrer tout débat constructif, les parlementaires ne faisant même plus semblant de maîtriser l’objet de leurs lois.

Les débats commencent lundi prochain en séance. Il est urgent de mettre les députés face à leurs contradictions pour les convaincre de voter contre cet article 7. Rendez-vous sur notre page de campagne pour voir comment les contacter et refuser ensemble la surveillance biométrique !