PROJET AUTOBLOG


La Quadrature du Net

source: La Quadrature du Net

⇐ retour index

La Quadrature du Net a besoin de vos dons

mercredi 19 février 2020 à 16:49

Depuis 2008 La Quadrature du Net existe grâce à vos dons. Merci à vous !

Douze ans plus tard, l’équipe des fondateurs a laissé la place à un collège de membres bénévoles et à une équipe de salarié·es qui font vivre l’association au quotidien : parce que les sujets sont innombrables, parce que le numérique est désormais présent dans chaque aspect de nos vies et dans chaque texte de loi, en France comme en Europe, et qu’il faut être au travail tous les jours pour analyser les lois, les faits sociaux, l’évolution des techniques et leur exploitation dévoyée.

Pas chers, mais pas riches

Cette structure a un coût. Notre budget pour une année est d’environ 300 000 € : les deux tiers en salaires et cotisations sociales pour les 6 salarié·es, le reste pour les déplacements, la communication et les locaux. Les salaires sont modestes, le loyer aussi (mais on va devoir déménager avant l’été 2020), quand on sillonne le pays on se loge à l’économie (souvent chez les copains, merci à vous !) et les billets de train sont les moins chers possibles. Bref, ni homard ni champagne à La Quadrature, de toute façon il paraît que ça donne mal à la tête.

Un cinquième du budget

Cette année comme chaque année, au mois de décembre, nous avons donc lancé une campagne de dons dans l’espoir de réunir l’argent nécessaire pour tenir une année de plus. Chaque année on croise les doigts, on se demande si ça va passer, et chaque année jusqu’à présent c’est passé, on est arrivé à boucler le budget et l’année.

Mais chaque année on est inquiet, et ça rend le travail encore plus compliqué. Cette année, par exemple, c’est très lent : on a lancé la campagne de dons le 6 décembre, elle a bien tourné jusqu’au 31 décembre, mais depuis le 1er janvier c’est le calme plat. Nous recevons encore quelques nouveaux dons chaque jour, trois ou quatre environ, merci à vous ! Mais ça ne suffit pas.

Mi-février, on a rassemblé environ 20 % du financement de l’année, un cinquième du budget seulement, l’équivalent d’à peu près 2 mois et demi d’activité… Si on veut que La Quadrature continue d’exister, il faut que les dons reprennent.

Nous avons donc décidé de poursuivre notre appel à dons de manière continue sur toute l’année 2020.

Campagne permanente

Mais on ne peut pas passer notre temps en campagne de dons, sinon on ne fait plus rien d’autre, ce serait absurde. Alors on a besoin de vous ! Vous pouvez nous aider à faire connaître autour de vous La Quadrature et ses combats.

Le matériel qu’on a créé pour animer notre campagne de dons, en décembre, est toujours disponible. Il y a plein de vidéos sur notre plateforme PeerTube, pour faire connaître nos sujets d’action, et aussi des vidéos (légères) de campagne :
* Comment lutter contre la reconnaissance faciale ?
* Comment lutter contre la surveillance en manif ?
* Comment lutter contre la censure sur Internet ?

Ne vous fiez pas au faible compteur de vue, en fait ces vidéos ont fait des milliers de vues sur les réseaux sociaux et elles marchent très bien parce qu’elles sont drôles 🙂

Il y a aussi des « threads » à retweeter sur notre compte Twitter, sur notre compte Mastodon, ou sur notre page Facebook.

Abonnez-vous, partagez-les, faites-les tourner, commentez-les, discutez-en avec vos proches et les inconnu·es de passage ! Nos luttes croisent l’actualité sans cesse, il y a mille façons de glisser le nom de La Quadrature du Net dans une conversation. On compte sur vous <3

Comment nous faire un don ?

Et bien sûr, si vous avez gagné au loto, vous pouvez nous faire un don, c’est ici : laquadrature.net/donner.

Blague à part, on sait que c’est difficile. Notre cas n’est pas isolé, toutes les associations à but non lucratif, même les plus grandes, même les plus prestigieuses, se plaignent de la baisse des dons de soutien.

Les personnes généreuses ne sont pas moins nombreuses qu’avant, mais elles sont fauchées… Alors tous les dons sont les bienvenus, même 10 €, même 5 € !
Nous avons bien sûr une grosse préférence pour les dons mensuels : si vous nous donnez 5 € ou 10 € par mois, c’est presque indolore pour vous, et ça nous permet d’envisager l’année qui vient avec une meilleure visibilité. La perspective d’une somme qui arrive chaque mois permet de faire des plans à plus long terme.
Et vous pouvez bien sûr arrêter vos dons mensuels à tout moment en nous envoyant un mail ou en les bloquant du côté de votre banque.

Rendez vous sur laquadrature.net/donner!

Un refus unanime de la reconnaissance faciale sécuritaire : appel aux candidat·es aux municipales à s’opposer à la reconnaissance faciale

mardi 28 janvier 2020 à 15:04

En cette Journée de protection des données, l’Observatoire des libertés numériques1Organisations membres de l’Observatoire des libertés et du numérique signataire de cette lettre ouverte : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM).<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_8953_1").tooltip({ tip: "#footnote_plugin_tooltip_text_8953_1", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] }); envoie formellement la lettre ouverte demandant l’interdiction de la reconnaissance faciale sécuritaire au gouvernement ainsi qu’aux parlementaires. Cette lettre est désormais signée par 124 organisations.

Dans le même temps, l’OLN invite les listes candidates aux élections municipales à rejoindre cet appel et à s’engager contre ces logiques.

Au delà de la reconnaissance faciale, il est également essentiel d’attirer l’attention des listes candidates sur les autres technologies sécuritaires qui sont aujourd’hui en développement en France (voir à ce titre la campagne Technopolice). C’est le cas notamment pour la vidéosurveillance automatisée qui fait l’objet de nombreux contrats entre industriels et collectivités (et que La Quadrature du Net et la Ligue des Droits de l’Homme viennent d’attaquer en justice à Marseille).

Nous invitons donc également toutes personnes sensibilisées à ces enjeux à contacter les listes candidates aux élections municipales pour leur demander de s’engager contre la reconnaissance faciale sécuritaire par la signature de cette lettre, mais également de prendre position contre l’expansion de la vidéosurveillance et les techniques de vidéosurveillance automatisée.

Pour les organisations et listes candidates souhaitant signer cette lettre, envoyez un message à contact@laquadrature.net en indiquant la ville concernée, son code postal et le nom de la liste ainsi qu’un lien de référence.

Lettre commune : Interdisez la reconnaissance faciale sécuritaire

Nous, organisations, collectifs, entreprises, associations et syndicats, demandons au Parlement et au gouvernement français d’interdire tout usage sécuritaire de dispositifs de reconnaissance faciale actuels ou futurs.

Nous constatons que de telles technologies sont aujourd’hui déjà largement déployées en France. Outre les portiques « Parafe » présents dans plusieurs aéroports et gares, le fichier de traitement des antécédents judiciaires permet depuis 2012 à la police et à la gendarmerie de recourir à la reconnaissance faciale à partir d’images prises dans la rue par des caméras, ou encore obtenues sur les médias sociaux. D’autres expérimentations ont déjà été menées ou sont programmées.

La multiplicité des dispositifs déjà existants, installés sans aucun véritable encadrement juridique, transparence ou réel débat public, ne satisfait pourtant pas nombre d’acteurs publics et industriels. En se fondant sur le fantasme d’un développement inéluctable de la technologie et sur des arguments purement sécuritaires et économiques, ils souhaitent accélérer et faciliter le déploiement de ces dispositifs, au détriment des conséquences pour nos libertés et notre modèle de société.

La reconnaissance faciale est une technique exceptionnellement invasive et déshumanisante qui permet, à plus ou moins court terme, la surveillance permanente de l’espace public. Elle fait de nous une société de suspect·es. Elle attribue au visage non plus une valeur de personnalité mais une fonction de traceur constant, le réduisant à un objet technique. Elle permet un contrôle invisible. Elle impose une identification permanente et généralisée. Elle abolit l’anonymat.

Aucun argument ne peut justifier le déploiement d’une telle technologie : au-delà de quelques agréments anecdotiques (utiliser son visage plutôt que des mots de passe pour s’authentifier en ligne ou activer son téléphone…), ses seules promesses effectives sont de conférer à l’État un pouvoir de contrôle total sur la population, dont il ne pourra qu’être tenté d’abuser contre ses opposant·es politiques et certaines populations. Puisque l’utilisation de la reconnaissance faciale à des fins sécuritaires est par essence disproportionnée, il est vain d’en confier l’évaluation au cas par cas à une autorité de contrôle qui échouerait en pratique à suivre chacune de ses nombreuses nouvelles applications.

C’est pourquoi nous vous demandons d’interdire tout usage sécuritaire qui pourrait en être fait. De telles interdictions ont déjà été décidées dans plusieurs villes des États-Unis. La France et l’Union européenne doivent aller encore plus loin et, dans la lignée du règlement général sur la protection des données personnelles (RGPD), construire un modèle européen respectueux des libertés.

Il conviendra par ailleurs de renforcer les exigences de protection des données à caractère personnel et de limiter les autres usages de la reconnaissance faciale : qu’il s’agisse d’authentification ou d’identification privée, l’ensemble de ces dispositifs ne sont pas assez protecteurs des atteintes à la vie privée ; ils préparent, et banalisent une société de surveillance de masse.

Nous appelons à l’interdiction de tout usage sécuritaire de la reconnaissance faciale.

Liste des signataires :

References   [ + ]

1. Organisations membres de l’Observatoire des libertés et du numérique signataire de cette lettre ouverte : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM).
<script type="text/javascript"> function footnote_expand_reference_container() { jQuery("#footnote_references_container").show(); jQuery("#footnote_reference_container_collapse_button").text("-"); } function footnote_collapse_reference_container() { jQuery("#footnote_references_container").hide(); jQuery("#footnote_reference_container_collapse_button").text("+"); } function footnote_expand_collapse_reference_container() { if (jQuery("#footnote_references_container").is(":hidden")) { footnote_expand_reference_container(); } else { footnote_collapse_reference_container(); } } function footnote_moveToAnchor(p_str_TargetID) { footnote_expand_reference_container(); var l_obj_Target = jQuery("#" + p_str_TargetID); if(l_obj_Target.length) { jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight/2 }, 1000); } }

Coup d’État sur la « loi haine »

mercredi 22 janvier 2020 à 12:17

La loi « contre la haine » s’est transformée en loi sécuritaire au nom de la lutte « anti-terroriste ». Ce bouleversement a été acté hier à 22h30, par un amendement de dernière minute proposé par le gouvernement et adopté par les députés serviles de l’Assemblée nationale. Ce coup de force du gouvernement, imposé in extremis, est une nouvelle démonstration d’anti-parlementarisme. L’honneur des députés exige qu’ils rejettent la loi dans son ensemble.

Alors que la loi exigeait initialement de retirer les contenus illicites en 24 heures, elle impose désormais aux plateformes de retirer en une heure les contenus que la police lui signalera comme relevant du terrorisme ou d’abus sur mineurs. La police décidera seule des contenus relevant du terrorisme – sans le contrôle d’un juge. On l’a déjà vu abuser illégalement de ce pouvoir pour qualifier des propos militants de « terroristes » afin de les faire censurer – la justice avait alors attendu plus d’une année pour dénoncer ces abus de la police.

De plus, alors que la loi ne concernait initialement que les plateformes ayant plusieurs millions de visiteurs par mois (Facebook, Twitter, Youtube…), les nouvelles mesures « anti-terroristes » visent désormais n’importe quelle plateforme, de toute taille. Il pourra s’agir du forum de n’importe quel site de presse, d’une plateforme militante, d’un petit hébergeur associatif ou de tout nœud d’un réseau social décentralisé tel que Mastodon ou PeerTube.

Le délai d’une heure est matériellement impossible à respecter pour la grande majorité des plateformes Web (typiquement pour les signalements qui leur seraient faits de nuit). Ces plateformes n’auront d’autres choix que de fermer boutique ou de déléguer leur modération aux outils de censure automatisée fournis par Google et Facebook. Dans tous les cas, les grands vainqueurs seront ces deux dernières entreprises, dont la concurrence sera anéantie ou mise sous leur joug.

Enfin, alors que la loi initiale ne prévoyait que des sanctions financières, les nouvelles mesures prévoient des sanctions concrètes, drastiques. Si une plateforme ne censure pas un contenu dans l’heure qui suit sa notification par la police, la police pourra exiger que les fournisseurs d’accès à Internet empêchent l’accès à cette plateforme depuis la France.

Une concentration totale des pouvoirs

La concentration des pouvoirs dans les mains de la police est totale : c’est à la fois elle qui décide quelles plateformes attaquer, qui qualifie un contenu comme étant illégal et qui met en œuvre sa sanction. L’ensemble du Web français est à sa merci.

Si la police était mal intentionnée, il lui suffirait de publier anonymement et au milieu de la nuit des messages « terroristes » sur les plateformes de son choix pour les faire censurer (car presque aucune plateforme ne peut avoir des modérateurs réveillés toute la nuit pour répondre dans l’heure à la police). Rien dans la loi n’empêche de tels abus.

Notons que cette situation n’est pas entièrement nouvelle : c’est la loi anti-terroriste de 2014 qui avait créé ce dispositif de censure policière. À l’époque toutefois, le délai pour répondre à la police était de 24 heures. Il passe aujourd’hui à 1 heure, démultipliant les risques d’abus.

Un coup de force anti-parlementaire

Le Parlement n’a jamais eu l’occasion de débattre des dangers de ce nouveau délai d’une heure imposé à l’ensemble du Web. Le Parlement n’a même pas eu l’occasion d’en prendre connaissance. Pendant des mois de débats sur la proposition de loi « contre la haine », le Parlement n’a parlé que de sujets bien éloignés du terrorisme. Ce n’est qu’au dernier moment, en séance publique lors de la 2ème lecture à l’Assemblée nationale, et alors que le sujet n’avait pas été abordé en commission des lois, que le gouvernement est parvenu à lui imposer ces changements, par surprise et par ignorance. Il aurait pourtant fallu en débattre pendant des mois, en auditionnant des dizaines d’acteurs, pour prétendre respecter nos principes démocratiques.

La situation a tout pour rappeler un autre dossier : le règlement européen contre les contenus terroristes, qui prévoit lui aussi un délai de retrait en une heure. L’an dernier, la Commission européenne et les États membres avaient exercé une terrible pression sur le Parlement européen pour qu’il adopte en première lecture un texte en urgence avant les élections européennes (voir notre page de campagne). Tout avait été fait pour empêcher un véritable débat, mais il avait pu au moins durer quelques semaines – permettant notamment de limiter la censure policière par l’autorisation préalable d’un juge ou d’une autorité indépendante (et la loi française serait ici contraire à la position du Parlement européen).

Hier, le débat n’a pas même eu lieu.

Le gouvernement semble s’être lassé de la comédie démocratique. L’avis des parlementaires n’a plus aucune conséquence sur le processus législatif : à quoi bon leur permettre de s’en faire un ? Autant gagner du temps et leur demander de tout signer à la dernière minute et sans leur expliquer.

Si les députés ont encore un semblant de respect pour leurs fonctions démocratiques, ils doivent s’opposer à cette proposition de loi. Au moins du fait que le gouvernement a entièrement nié et insulté celles-ci hier. Et du fait, aussi, que le gouvernement a manipulé diverses volontés et associations luttant contre la haine afin de dévoyer au final la loi vers ses objectifs purement sécuritaires.

Formellement, l’Assemblée nationale doit encore décider d’adopter ou non cette proposition de loi dans son ensemble aujourd’hui. Tout député ne qui ne votera pas contre cette loi actera que le gouvernement l’a démis de ses fonctions.

Safe City à Marseille : Premier recours contre la vidéosurveillance automatisée de l’espace public

lundi 20 janvier 2020 à 09:59

Nous venons de déposer, avec la Ligue des droits de l’Homme, un recours en référé devant le tribunal administratif de Marseille pour lui demander d’annuler l’installation dans la ville d’un dispositif de vidéosurveillance automatisée (appelé « vidéoprotection intelligente »). Ce dispositif, décidé par la ville de Marseille, prévoit la mise en place de nouvelles technologies de surveillance dans l’espace public qui, pour l’essentiel, relèvent d’une surveillance biométrique généralisée : détection de comportements anormaux, suivi de silhouettes ou d’individus, captations sonores…

D’autres dispositifs similaires sont déjà installés en France ou sont en train de l’être, le tout dans l’opacité la plus complète. Leurs promoteurs considèrent que le cadre juridique de la vidéosurveillance leur suffit. Au même titre que la reconnaissance faciale, qui n’est qu’une des nombreuses couches applicatives de la vidéosurveillance automatisée, ces dispositifs participent pourtant à la mise sous surveillance totale de nos villes.

La Technopolice continue de se déployer en France, et la vidéosurveillance automatisée (ou « vidéoprotection intelligente » selon ses promoteurs) [1] est une de ses principales émanations. Fondée sur l’utilisation d’algorithmes déployés sur un système de vidéosurveillance, ces dispositifs promettent de détecter automatiquement dans l’espace public des objets abandonnés, des mouvements de foule, des « comportements anormaux » (gestes brusques, maraudages, agression…), de faciliter le suivi d’individus (par la silhouette, la démarche…), ou de faire des recherches par « filtres » sur des images enregistrées (à partir de photos d’un individu qu’il s’agirait de retrouver dans les milliers de flux vidéos afin de suivre son parcours). Après la multiplication des caméras de vidéosurveillance sur le territoire français, plusieurs entreprises cherchent à vendre aux collectivités ce système de « vidéo intelligente ». Comme l’expliquent les industriels, l’intérêt consiste à « pallier le manque récurrent de personnel disponible pour visionner les images de vidéoprotection ainsi que la capacité de concentration de ces agents », de « de limiter leur travail à une simple confirmation d’alertes ». Il est même avancé que «  la vidéoprotection ne saurait être efficace sans un système auto-intelligent permettant de trier et filtrer les images à analyser, et ce à une grande échelle ». Depuis plus de 10 ans, la vidéosurveillance a déferlé sans but sur nos villes : il semble temps de la rendre opérationnelle à travers l’automatisation.

De tels dispositifs mettent gravement en danger nos droits et libertés. Ils accroissent considérablement la capacité des services de police à nous identifier et à nous surveiller en permanence dans l’espace public. Tout comme la reconnaissance faciale, ils entraînent un contrôle invisible et indolore de la population, considérée comme suspecte de facto. Construits dans l’opacité la plus complète, il est par ailleurs impossible de comprendre ce qu’ils détectent avec exactitude : que veut dire Thalès quand il parle de « comportement inhabituel » et de suivi de « personnes suspectes » ? Que sous-entend l’entreprise Huawei quand, dans la description de son projet à Valenciennes, elle laisse inachevée sa liste des cas d’alerte relevés par la machine ( « traitement intelligent de l’image avec détection des mouvements de foules, objets abandonnés, situations inhabituelles…  ») ? Enfin, le suivi de « personnes suspectes » comprend-t-il la reconnaissance de démarches, donnée extrêmement individualisante et qui est bien plus difficile à dissimuler qu’un visage ?

Des systèmes de vidéosurveillance automatisée sont pourtant déjà en place en France, à Valenciennes donc, mais aussi à Nice, à Toulouse, à La Défense et bientôt dans les Yvelines. D’autres projets sont sûrement en cours, mais les informations sont difficiles à trouver. Leurs promoteurs considèrent en effet que, dans la plupart des cas, ces nouveaux ajouts à la vidéosurveillance rentrent dans le cadre de la « vidéosurveillance classique » et n’ont pas à être rendus publics.

Marseille, ville-test

Dans le cadre de la campagne Technopolice, et à travers des demandes d’accès aux documents administratifs, nous avons appris qu’en 2015, la mairie de Marseille avait lancé un appel d’offres pour installer un de ces systèmes de vidéosurveillance automatisée dans sa ville et qu’en novembre 2018, ce marché avait été attribué à une entreprise. Croisée au salon Milipol, l’adjointe au maire de Marseille en charge de la sécurité, Caroline Pozmentier, nous a confirmé qu’il s’agissait du groupe SNEF, un intégrateur de solutions de vidéosurveillance basé dans la citée phocéenne. Nous avons fini par avoir communication de certains documents liés à ce marché, dont le « Programme Fonctionnel Technique final » qui détaille précisément ce que la mairie entend mettre en place.

Dans ce document, il est ainsi indiqué que « les opérateurs ne peuvent pas visualiser l’ensemble des flux » et qu’il « est donc nécessaire que la solution logicielle permette d’effectuer de façon autonome cette visualisation ». Parmi les fonctionnalités envisagées, se trouve le « traitement automatique de donnés (…) afin de détecter des anomalies/incidents/faits remarquables », la « détection d’anomalies non identifiables par un opérateur » et la « gestion de l’espace public, analyse des piétons/véhicules ainsi que des comportements ». On y retrouve les mêmes cas d’usage que dans d’autres systèmes : détection d’ « objets abandonnés », de « TAG » (graffitis) et de « vol/disparition/destruction de mobilier urbain ». Il est aussi précisé que l’outil doit aider dans le cadre d’affaires judiciaires et permettre de « faire des recherches à l’aide de filtres », l’un de ces filtres étant « individu (description, avatar, photo) ». Une dernière partie intitulée « Fourniture et intégration de fonctionnalités complémentaires » indique que la mairie se réserve la possibilité d’ajouter de nouvelles fonctionnalités dont la « détection sonore » (explosion, coup de feu…), la « reconstitution d’évènements » (comme le parcours d’un individu) ou la détection de « comportements anormaux » (bagarre, maraudage, agression).

Le mois dernier, dans un article de Télérama, le journaliste Olivier Tesquet révélait que le dispositif devait être installé à Marseille « d’ici à la fin de l’année 2019 » et que « la Cnil n’a jamais entendu parler de ce projet ».

L’étendue de ce projet, la description extensive de ses fonctionnalités et sa récente mise en place nous ont poussé à agir le plus vite possible.

Un recours contre la vidéosurveillance automatisée, premier du genre en France

Dans notre recours déposé lundi devant le tribunal administratif de Marseille, nous reprenons certains des arguments déjà développés dans notre recours contre les portiques de reconnaissance faciale dans deux lycées de la région PACA (un projet depuis entravé par la CNIL). Nous soulignons ainsi que la décision de la mairie de mettre en place ce dispositif n’a été précédée d’aucune analyse d’impact ou de consultation de la CNIL, contrairement à ce qui est prévu dans la directive dite « police-justice » qui encadre les pouvoirs de surveillance des autorités publiques dans l’Union européenne. Nous soulignons également que la vidéosurveillance automatisé n’est encadrée par aucun texte juridique alors qu’il s’agit d’un type d’ingérence dans la vie privée tout-à-fait nouveau, et bien différent de la vidéosurveillance « classique » : l’automatisation transforme la nature de l’ingérence induite par la vidéosurveillance. Les nouveaux équipements déployés à Marseille disposent en outre de capteurs sonores (ces mêmes capteurs sonores que dénonçait la Cnil dans le projet de Saint-Etienne). De manière générale, le système entier conduit à passer d’une surveillance « passive » à une surveillance « active »). Comme pour les lycées, nous avons aussi attaqué le caractère manifestement excessif et non justifié de la collecte de données.

Le recours démontre par ailleurs que la grande majorité du traitement de données qui est fait dans ce dispositif est un traitement de données biométriques, donc soumis aux dispositions spécifiques de la directive police-justice sur les données sensibles (dont l’utilisation est beaucoup moins permissive que pour les autres types de données personnelles). En effet, les données biométriques sont définies comme des données personnelles « résultant d’un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, qui permettent ou confirment son identification unique ». Or, comme l’a souligné le Comité européen de protection des données, une « identification unique » n’implique pas nécessairement de révéler l’état civil d’une personne mais, plus largement, de pouvoir individualiser une personne au sein d’un groupe, ce qui est bien le cas en espèce. Or, une fois la qualité de donnée biométrique établie, la directive police-justice exige une « nécessité absolue » pour les analyser. Ce qui n’est clairement pas le cas ici : d’autres moyens, humains, existent déjà pour analyser les images et mener les enquêtes.

Enfin, dans ce recours, nous détaillons pourquoi, en confiant à la SNEF et à ses algorithmes, l’identification, la catégorisation et la détection d’incidents, d’anomalies et de comportements suspects sur la voie publique (certains explicitement « non identifiables par un opérateur »), et en faisant de son outil une véritable « aide à la décision » pour la police municipale, la mairie a délégué à une entreprise privée une mission de surveillance généralisée de la voie publique. Ce qui, selon le Conseil Constitutionnel est contraire à « l’exigence, résultant de l’article 12 de la Déclaration des droits de l’homme et du citoyen de 1789, selon laquelle la garantie des droits est assurée par une « force publique » ».

Encore une fois : d’autres dispositifs semblables sont actuellement déployés en France ou s’apprêtent à l’être : Nice, Toulouse, Valenciennes, La Défense… Nous vous invitons à réutiliser nos arguments pour multiplier les contentieux et tenir en échec l’expansion de la surveillance algorithmique de nos villes et de nos vies.

Rejoignez Technopolice.fr pour participer à la veille, l’analyse et la lutte de ces nouveaux dispositifs.

[1] Si les termes peuvent paraître proches, il est important de refuser de considérer un tel système comme « intelligent »

Lettre commune contre la loi « haine »

jeudi 16 janvier 2020 à 18:56

Nous venons d’envoyer aux députés la lettre reproduite ci-dessous, pour s’opposer à la loi « haine ».

Nous la signons aux côtés de :

La loi sera examinée par l’Assemblée nationale ce mardi 21 janvier. Vous aussi, contactez les députés pour leur demander de rejeter ce texte en visitant cette page.

Objet : Appel collectif à préserver nos droits fondamentaux dans l’espace public en ligne – Proposition de loi visant à lutter contre la haine sur Internet

Madame la garde des Sceaux,
Monsieur le secrétaire d’État chargé du Numérique,
Madame la Rapporteure,
Mesdames et Messieurs les Député(e)s

En tant que principaux représentants de la société civile numérique française, acteurs de la défense des droits et de la mobilisation citoyenne en ligne, nous partageons une profonde inquiétude quant au risque que ferait encourir à nos droits et libertés fondamentaux la proposition de loi visant à lutter contre la haine sur Internet, si elle imposait aux opérateurs de plateformes un délai de 24h pour décider du retrait des contenus qui leur seront signalés. À l’occasion de sa nouvelle discussion au sein de l’Assemblée nationale, nous portons un appel fort à tenir compte, dans la version finale du texte, des alertes que chacune de nos organisations a pu individuellement ou collectivement porter.

Les opérateurs de plateformes participent désormais grandement à la structuration de l’espace public en ligne. Engagés dans la préservation d’un espace en ligne libre et respectueux de nos valeurs démocratiques et de nos droits fondamentaux, nous partageons la nécessité de questionner le rôle des grandes plateformes dans la lutte contre les contenus haineux sur Internet. Paradoxalement, cette exigence se traduit, dans le texte discuté, par le renforcement du rôle de ces mêmes acteurs dans le contrôle de notre espace public au détriment du premier garant de nos libertés individuelles qu’est le juge. De plus, cette logique tend à renforcer une situation d’oligopole dans laquelle nous nous trouvons déjà, par un encouragement à l’usage de solutions détenues par les acteurs aux ressources les plus grandes.

En contournant les prérogatives du juge judiciaire, l’obligation de retrait des contenus haineux par les opérateurs de plateformes dans un délai de 24 heures porte atteinte aux garanties qui nous permettent aujourd’hui de préserver l’équilibre de nos droits et libertés fondamentaux. Au regard des dispositions du texte, les opérateurs de plateformes seront incités à opter pour de la surcensure afin d’éviter d’être sanctionnés. À ce titre, nous nous inquiétons du rôle confié à des dispositifs technologiques de filtrage automatisés, qui font encore preuve de limites techniques profondes dans leur capacité à modérer, y compris parmi ceux les plus avancés. Ces limites sont d’autant plus prégnantes en ce qui concerne les contenus haineux dont la caractérisation juridique est souvent complexe. Or, le texte porte une acception particulièrement large de ces derniers.

Au regard de ses conséquences sur notre société, et en premier lieu sur les victimes de ces atteintes à la dignité humaine, nous devons considérer avec gravité le phénomène de propagation des contenus haineux en ligne. Il est, à cet égard, primordial d’engager un plan ambitieux d’éducation au numérique et de penser de manière plus transversale la régulation du numérique. Par ailleurs, alors que la France entend jouer un rôle majeur dans la politique numérique future de l’Union européenne, il est essentiel que la proposition visant à lutter contre la haine en ligne puisse se faire en adéquation avec le droit européen, au risque sinon de fragiliser nos dispositifs juridiques ainsi que de fragmenter toujours plus la stratégie numérique pour l’Europe et de mettre à mal son efficience. L’Union européenne se doit de rester au premier rang de la défense de nos valeurs fondamentales dans le champ numérique, et la France se doit d’en demeurer le porte-voix.

Nous vous savons attentifs à l’équilibre entre nos droits fondamentaux, ainsi qu’à la préservation de notre souveraineté. Aussi, nous nous associons collectivement pour vous appeler à en tenir compte dans le cadre de cette nouvelle lecture.

Restant à votre disposition pour contribuer à vos réflexions, nous vous prions d’agréer, Madame la garde des Sceaux, Monsieur le secrétaire d’État chargé du Numérique, Madame la Rapporteure, Mesdames et Messieurs les Député(e)s, l’expression de notre très haute considération.