PROJET AUTOBLOG


La Quadrature du Net

source: La Quadrature du Net

⇐ retour index

La pire version de la loi haine, adoptée en commission des lois de l’Assemblée nationale

mercredi 15 janvier 2020 à 12:35

Sans beaucoup de surprise, ce que nous redoutions s’est bien réalisé. Hier soir, en commission des lois de l’Assemblée nationale, Laetitia Avia est parvenue à rétablir la même version du texte (à quelques modifications près) qu’elle avait fait adopter l’été dernier par l’Assemblée nationale. Les timides corrections que le Sénat avait introduites le mois dernier ont été balayées.

Qu’importe : en démocratie, c’est l’Assemblée nationale, entièrement tenue par les fidèles du gouvernement, qui décide seule des lois à adopter. Comme pour la loi « fakenews » de 2018 (adoptée en procédure accélérée et contre deux votes contraires du Sénat), la loi « contre la haine » passera le 30 janvier une dernière fois au Sénat (pour rien) avant un dernier vote final à l’Assemblée nationale début février. C’est ce dernier vote qui aura le dernier mot.

Avant cela toutefois, le 21 janvier, l’Assemblée nationale devra encore confirmer le texte adopté hier en commission des lois. Si nous échouons à l’en dissuader, les chances d’y parvenir en février semblent bien minces.

Et pourtant, en dehors du Parlement, ce texte fait l’unanimité contre lui : Commission européenne, CNNum, ARCEP, ONU, associations de défense des personnes que cette loi prétend défendre (relire notre bilan).

Appelons les députés pour exiger qu’ils rejettent cette loi aussi dangereuse pour nos libertés que contre-productive pour lutter contre la haine.

Rendez-vous sur cette page pour les contacter et relire nos arguments contre ce texte.

Le Conseil constitutionnel autorise le fisc à la surveillance de masse

lundi 30 décembre 2019 à 08:01

Le Conseil constitutionnel, dans sa décision rendue vendredi dernier, vient de considérer que la surveillance généralisée des réseaux sociaux prévue par l’article 154, ex-57, de la loi de finances pour 2020 est conforme à la Constitution.

Comme nous le dénoncions, cet article prévoit une collecte puis une analyse de masse des données publiques des réseaux sociaux. Des données sensibles seront collectées, par exemple sur notre vie sexuelle, politique ou religieuse. Au point 87 de sa décision, le Conseil constitutionnel s’est contenté d’interdire la seule exploitation des données sensibles, laissant possible leur collecte en masse, ce qui est tout aussi dangereux et contraire au droit européen.

L’article 10 de la directive police-justice n° 2016/680 interdit tout traitement de données sensibles qui ne soient pas justifié par une « nécessité absolue ». En l’espèce, la lutte contre les infractions fiscales peut être réalisée par bien d’autres moyens humains déjà mis en œuvre. Ni le gouvernement, ni le Conseil n’ont été capables d’expliquer en quoi la surveillance algorithmique est nécessaire à la lutte contre la fraude fiscale.

Enfin, le Conseil constitutionnel prétend que les contrôles fiscaux ne seront pas déclenchés automatiquement par les algorithmes de détection de fraude, mais reposeraient sur un travail humain. Cette affirmation traduit une grande naïveté et laisse en tout état de cause la porte ouverte à plus d’arbitraire dans les décisions administratives : comment contrôler le résultat d’un algorithme qui ne peut être expliqué et reproduit1Le Conseil constitutionnel estime que l’obligation de « corroboration et enrichissement » exigée par la loi écarterait tout contrôle fiscal automatique. Pourtant, avec l’utilisation d’algorithmes auto-apprenants dont le résultat ne peut être reproduit et expliqué, cette opération ne sera rien d’autre qu’un contrôle fiscal déguisé.<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5532_1").tooltip({ tip: "#footnote_plugin_tooltip_text_5532_1", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] }); ?

La boîte de Pandore a été ouverte. En validant le principe de surveillance de masse des réseaux sociaux, le Conseil constitutionnel permet aux autres administrations de pouvoir réclamer leur part de surveillance généralisée, voire de se servir directement dans les données collectées par le fisc. Le ministre de l’action et des comptes publics, Gérald Darmanin, défend inlassablement cette nouvelle surveillance et promettait 10 millions d’euros par an pour seulement deux algorithmes. Son joujou désormais approuvé constitue un pas supplémentaire pour remplacer l’humain·e par la machine, le·la citoyen·ne par une ligne dans un tableur.

References   [ + ]

1. Le Conseil constitutionnel estime que l’obligation de « corroboration et enrichissement » exigée par la loi écarterait tout contrôle fiscal automatique. Pourtant, avec l’utilisation d’algorithmes auto-apprenants dont le résultat ne peut être reproduit et expliqué, cette opération ne sera rien d’autre qu’un contrôle fiscal déguisé.
<script type="text/javascript"> function footnote_expand_reference_container() { jQuery("#footnote_references_container").show(); jQuery("#footnote_reference_container_collapse_button").text("-"); } function footnote_collapse_reference_container() { jQuery("#footnote_references_container").hide(); jQuery("#footnote_reference_container_collapse_button").text("+"); } function footnote_expand_collapse_reference_container() { if (jQuery("#footnote_references_container").is(":hidden")) { footnote_expand_reference_container(); } else { footnote_collapse_reference_container(); } } function footnote_moveToAnchor(p_str_TargetID) { footnote_expand_reference_container(); var l_obj_Target = jQuery("#" + p_str_TargetID); if(l_obj_Target.length) { jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight/2 }, 1000); } }

Flicage fiscal des réseaux sociaux : les parlementaires doivent saisir le Conseil constitutionnel

lundi 23 décembre 2019 à 12:05

Le projet de loi de finances pour 2020 a été adopté la semaine dernière en dernière lecture par l’Assemblée nationale. Il comporte toujours son article 57, désormais 154, qui prévoit une surveillance généralisée des réseaux sociaux afin de lutter contre certains délits fiscaux. Nous appelons aujourd’hui les parlementaires à saisir le Conseil constitutionnel afin de lui demander sa suppression.

Comme nous l’indiquions, le désormais article 154 de la loi de finances pour 2020 prévoit une collecte « de masse » (selon les propres mots du gouvernement) et une analyse des informations publiques des réseaux sociaux. L’objectif du gouvernement est d’autoriser Bercy et les douanes à procéder à de la surveillance algorithmique pour détecter quelques fraudeur·seuses. Maintenant que la loi a été adoptée, la prochaine étape se passe devant le Conseil constitutionnel qui se prononcera sur la conformité à la Constitution. Nous avons déposé aujourd’hui au greffe du Conseil constitutionnel une contribution extérieure dans laquelle nous y développons nos arguments relatifs à l’atteinte au droit à la vie privée et au droit à la liberté d’expression pour en conclure que cet article doit être supprimé.

Nous y avons souligné que cet article 154 est une atteinte disproportionnée au droit à la vie privée et au droit à la liberté d’expression. Il amplifie la surveillance généralisée sur Internet en permettant à l’administration de traiter des informations qu’elle ne devrait pas connaître : les opinions politiques, religieuses, philosophiques, les appartenances syndicales, les orientations sexuelles, etc., seront analysées. Pire ! L’Assemblée a rétabli une conservation de ces données sensibles inutiles alors que la version du Sénat, à défaut de s’opposer à la collecte, prévoyait une suppression immédiate de ces données.

Également, nous expliquons dans notre contribution extérieure que la surveillance algorithmique que veut le gouvernement conduira in fine à faire confiance aveuglément aux algorithmes. Le Conseil constitutionnel avait déjà indiqué en 2018 que l’administration ne peut prendre de décision individuelle fondée exclusivement sur un algorithme dont elle ne peut expliquer le fonctionnement : cela interdit l’usage d’algorithmes auto-apprenants. Pourtant, aujourd’hui, le fisc et les douanes veulent recourir à ce même type d’algorithme pour lever des alertes sur de potentielles fraudes fiscales. Ces algorithmes sont pudiquement appelés « aide à la prise de décision » alors qu’il ne fait pas de doute qu’ils restent l’élément clé conduisant à une décision de contrôle fiscal : face à un algorithme auto-apprenant dont la nature même est de ne pas pouvoir expliquer ses résultats, que pourront faire les agents du fisc à part déclencher un contrôle en cas de résultat positif ? Nous invitons le Conseil constitutionnel à faire preuve de pragmatisme et à interdire les algorithmes d’aides à la prise de décision auto-apprenants.

Alors que certains groupes parlementaires s’étaient opposés à cet article, nous attendons désormais des actes. Nous regrettons déjà l’hypocrisie du groupe LR de l’Assemblée nationale qui, après avoir déposé plusieurs amendements de suppression dont on savait qu’ils ne seraient pas votés en raison du blocage de la majorité présidentielle, « oublie » d’inclure dans sa saisine du Conseil constitutionnel les éléments de fond justifiant que le Conseil censure cet article.

Nous invitons les élu·es de l’Assemblée nationale et du Sénat à saisir le Conseil constitutionnel sur le fond de cet article et à s’inspirer de nos arguments disponibles dans notre contribution extérieure. Il n’est pas suffisant de s’opposer en hémicycle : aujourd’hui, la balle est dans le camp des oppositions parlementaires.

Lettre commune de 80 organisations : Interdisez la reconnaissance faciale sécuritaire

jeudi 19 décembre 2019 à 10:56

L’Observatoire des Libertés Numériques1Organisations membres de l’OLN signataire de cette lettre ouverte : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM).<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_1").tooltip({ tip: "#footnote_plugin_tooltip_text_1", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });, dont fait partie La Quadrature du Net, et 80 organisations signent une lettre commune appelant le gouvernement et le Parlement à interdire toutes les pratiques de reconnaissance faciale sécuritaire présentes et à venir. La liste des signataires relève d’une vraie diversité de type d’organisations et d’engagements qui témoignent du profond rejet de la population envers ces dispositifs et ces volontés politiques liberticides.

Notre lettre commune (aussi en PDF) reste ouverte à signature par des organisations (les individus sont vivement encouragés à se l’approprier et à la diffuser autour d’eux). Pour signer, écrivez-nous à contact@laquadrature.net avec « Signature lettre contre la reconnaissance faciale sécuritaire » en objet, puis en précisant le nom de votre organisation dans le mail. Merci !

Lettre commune : Interdisez la reconnaissance faciale sécuritaire

Nous, organisations, collectifs, entreprises, associations et syndicats, demandons au Parlement et au gouvernement français d’interdire tout usage sécuritaire de dispositifs de reconnaissance faciale actuels ou futurs.

Nous constatons que de telles technologies sont aujourd’hui déjà largement déployées en France. Outre les portiques « Parafe » présents dans plusieurs aéroports et gares, le fichier de traitement des antécédents judiciaires permet depuis 2012 à la police et à la gendarmerie de recourir à la reconnaissance faciale à partir d’images prises dans la rue par des caméras, ou encore obtenues sur les médias sociaux. D’autres expérimentations ont déjà été menées ou sont programmées.

La multiplicité des dispositifs déjà existants, installés sans aucun véritable encadrement juridique, transparence ou réel débat public, ne satisfait pourtant pas nombre d’acteurs publics et industriels. En se fondant sur le fantasme d’un développement inéluctable de la technologie et sur des arguments purement sécuritaires et économiques, ils souhaitent accélérer et faciliter le déploiement de ces dispositifs, au détriment des conséquences pour nos libertés et notre modèle de société.

La reconnaissance faciale est une technique exceptionnellement invasive et déshumanisante qui permet, à plus ou moins court terme, la surveillance permanente de l’espace public. Elle fait de nous une société de suspect·es. Elle attribue au visage non plus une valeur de personnalité mais une fonction de traceur constant, le réduisant à un objet technique. Elle permet un contrôle invisible. Elle impose une identification permanente et généralisée. Elle abolit l’anonymat.

Aucun argument ne peut justifier le déploiement d’une telle technologie : au-delà de quelques agréments anecdotiques (utiliser son visage plutôt que des mots de passe pour s’authentifier en ligne ou activer son téléphone…), ses seules promesses effectives sont de conférer à l’État un pouvoir de contrôle total sur la population, dont il ne pourra qu’être tenté d’abuser contre ses opposant·es politiques et certaines populations. Puisque l’utilisation de la reconnaissance faciale à des fins sécuritaires est par essence disproportionnée, il est vain d’en confier l’évaluation au cas par cas à une autorité de contrôle qui échouerait en pratique à suivre chacune de ses nombreuses nouvelles applications.

C’est pourquoi nous vous demandons d’interdire tout usage sécuritaire qui pourrait en être fait. De telles interdictions ont déjà été décidées dans plusieurs villes des États-Unis. La France et l’Union européenne doivent aller encore plus loin et, dans la lignée du règlement général sur la protection des données personnelles (RGPD), construire un modèle européen respectueux des libertés.

Il conviendra par ailleurs de renforcer les exigences de protection des données à caractère personnel et de limiter les autres usages de la reconnaissance faciale : qu’il s’agisse d’authentification ou d’identification privée, l’ensemble de ces dispositifs ne sont pas assez protecteurs des atteintes à la vie privée ; ils préparent, et banalisent une société de surveillance de masse.

Nous appelons à l’interdiction de tout usage sécuritaire de la reconnaissance faciale.

Liste des premiers signataires :

References   [ + ]

1. Organisations membres de l’OLN signataire de cette lettre ouverte : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM).
<script type="text/javascript"> function footnote_expand_reference_container() { jQuery("#footnote_references_container").show(); jQuery("#footnote_reference_container_collapse_button").text("-"); } function footnote_collapse_reference_container() { jQuery("#footnote_references_container").hide(); jQuery("#footnote_reference_container_collapse_button").text("+"); } function footnote_expand_collapse_reference_container() { if (jQuery("#footnote_references_container").is(":hidden")) { footnote_expand_reference_container(); } else { footnote_collapse_reference_container(); } } function footnote_moveToAnchor(p_str_TargetID) { footnote_expand_reference_container(); var l_obj_Target = jQuery("#" + p_str_TargetID); if(l_obj_Target.length) { jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight/2 }, 1000); } }

Loi « haine » : la trahison du Sénat

mercredi 18 décembre 2019 à 14:16

Le Sénat vient d’adopter la loi « contre les contenus haineux sur internet ». Après ce qui semblait être une première victoire la semaine dernière en commission des lois, le Sénat a finalement renoncé à lutter contre les risques de censure abusive de cette proposition de loi. Sur plusieurs points cruciaux, le texte qu’il a adopté est pire que celui initialement proposé par Mme Avia.

Retour de la censure en 24 heures, étendue à d’autres acteurs

En apparence, la victoire de la semaine dernière est maintenue : la principale mesure de la loi, c’est-à-dire l’obligation pour les plateformes de retrait en 24 heures des contenus « haineux » qui leur sont notifiés, a disparu de l’article 1er du texte. Mais il s’agit d’une apparence bien trompeuse.

Hier, cette obligation a refait son apparition sous une autre forme à l’article 2 : le défaut de retrait en 24 heures n’est plus une infraction pénale sanctionnée au cas par cas, mais les plateformes doivent déployer « les diligences proportionnées et nécessaires » pour y parvenir1Cette obligation de moyens, qui consiste à veiller au retrait en 24 heures des contenus illicites, était déjà présente dans le texte adoptée par l’Assemblée nationale, qui y ajoutait une obligation de résultat sanctionnée pénalement. La semaine dernière, la commission des lois du Sénat avait supprimé ces deux obligations. Hier, l’obligation de moyens a été réintroduite sous une nouvelle formulation.<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_3815_1").tooltip({ tip: "#footnote_plugin_tooltip_text_3815_1", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });, sans quoi elles s’exposent à une amende administrative du CSA pouvant aller jusqu’à 4% de leur chiffre d’affaire2L’amende peut désormais aussi aller jusqu’à 20 millions d’euros si ce montant est plus élevé que les 4% du chiffre d’affaire, ce qui est notamment le cas pour les associations qui n’ont pas de chiffre d’affaire<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_3815_2").tooltip({ tip: "#footnote_plugin_tooltip_text_3815_2", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });.

Contrairement au texte initial, l’obligation de retrait en 24 heures ne vise plus uniquement les grandes plateformes (qui ont plus de 5 millions d’utilisateurs par mois), mais n’importe quel hébergeur que le CSA considérera comme ayant « en France un rôle significatif […] en raison de l’importance de son activité et de la nature technique du service proposé ». Ainsi, le CSA pourra arbitrairement décider quels nouveaux acteurs devront respecter les nouvelles obligations pour lutter contre les contenus illicites. Et certaines de ces obligations seront directement définies par le CSA lui-même, sans débat démocratique.

Les hébergeurs du Web décentralisé et non commercial, qui se trouveraient soumis au CSA en raison de leur succès, ne pourraient certainement pas tenir ces obligations, n’ayant pas les moyens des plateformes géantes. Ce nouveau texte est un signal sans nuance au Web libre et décentralisé : « cessez tous vos efforts, renoncez à votre cause et laissez régner les géants ! ». Ces mêmes géants dont le modèle économique aggrave la haine sur Internet et que le Sénat vient de renforcer — à se demander quel est le véritable objectif de ce texte.

Nous avions déjà souligné les risques de faire du CSA un acteur central de l’Internet : centralisation, éloignement du juge, confusion aberrante entre télévision et Internet… Au lieu d’arranger le texte, le Sénat n’a fait que l’empirer.

Une trahison en cache d’autres

Une autre obligation adoptée hier va dans le même sens : celle de conserver les « contenus illicites retirés ou rendus inaccessibles à la suite d’une notification […] pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales », pour une durée à fixer par décret. Ici, tous les hébergeurs sont concernés, et plus seulement ceux désignés par le CSA. Une autre lourde contrainte technique qui freinera encore le développement d’alternatives aux GAFAM.

Enfin, et toujours s’agissant des obligations qu’appliquera le CSA, les plateformes qu’il régule seront désormais contraintes de veiller à la « suppression des comptes de leurs utilisateurs ayant fait l’objet d’un nombre de notifications par plusieurs personnes faisant apparaître, au vu de ce faisceau d’indices, une contravention sérieuse aux infractions » visées par la lutte contre la haine. Cette modification donne encore et toujours plus de pouvoirs aux plateformes, en leur demandant d’agir comme seules juges dans la détermination de ce qu’est ou non ce « faisceau d’indices » indiquant une « contravention sérieuse aux infractions » visées. Au-delà des dangers considérables que ce changement ajoute à cette proposition de loi, on soulignera qu’il révèle toute l’ignorance du Sénat en matière de Web, qui semble ne connaître que Facebook et Twitter sans savoir que l’on peut s’exprimer sur de nombreuses plateformes sans y avoir de compte.

L’économie de l’attention et l’interopérabilité pourtant au coeur des débats

Cette trahison est d’autant plus frustrante que plusieurs sénatrices et sénateurs ont, dès le début des débats en séance publique, essayé de souligner ce qui devrait être au cœur des discussions : l’économie de l’attention qui fonde le modèle économique des grandes plateformes. Comme nous l’avions auparavant souligné, ce modèle accélère la diffusion des contenus qui nous font rester le plus longtemps et interagir le plus, quitte à favoriser les invectives, conflits et caricatures et à « censurer par enterrement » les propos plus subtils d’écoute et d’entraide.

C’est pour lutter contre ce modèle économique que nous demandons, notamment par des actions contentieuses, l’application du RGPD, qui pourrait remettre fortement en cause ce modèle. C’est également pour cela que nous portons une proposition positive demandant à ce que la loi force les géants du numérique à devenir interopérables : pour nous permettre de les quitter et rejoindre des alternatives moins toxiques et à taille humaine, tout en pouvant continuer à communiquer avec les personnes restées chez les géants, cassant ainsi leur monopole sur les communautés créées dans ces systèmes privateurs.

Néanmoins, ces discussions en séance n’ont pas eu de réels effets. Des amendements sur le sujet de l’interopérabilité avaient déjà été discutés, sans succès, à l’Assemblée nationale. La commission des lois en a adopté une version très légère au moment de son rapport (en prévoyant que le CSA puisse « encourager » l’interopérabilité). Et c’est cette version qui a été adoptée hier. Elle ne suffit évidemment pas à rattraper le reste du texte. Une telle interopérabilité doit être imposée, et non proposée, et ce n’est sûrement pas au CSA qu’il revient de s’en occuper.

Prochaine étape : la commission mixte-paritaire

Maintenant que le texte a été adopté au Sénat, il doit passer en commission mixte-paritaire le 8 janvier, pendant laquelle l’Assemblée Nationale et le Sénat essayeront de se mettre d’accord sur une version commune du texte. Il semble improbable que le résultat soit en faveur de nos libertés. Pour cela, il faudrait que chaque chambre renonce à ses pires propositions. Nous redoutons le contraire : que l’Assemblée nationale rétablisse ses ambitions de censure automatisée et que le Sénat conserve l’extension potentielle du texte à l’ensemble du Web sous les pleins pouvoirs du CSA. Le résultat serait bien plus grave que la proposition de loi initiale alors même que la Commission européenne alertait déjà sur l’incompatibilité de la version de l’Assemblée avec le droit de l’Union européenne.

Et si la situation n’était pas déjà assez terrible, le gouvernement en profite pour aller encore plus loin. Dans cette proposition de loi « contre la haine », il a essayé d’intégrer en avance les dispositions un autre texte contre lequel nous luttons, au niveau européen cette fois-ci : le règlement sur les contenus terroristes, qui veut forcer l’ensemble des acteurs de l’Internet à censurer en 1 heure tout contenu considéré comme terroriste par les autorités. L’amendement du gouvernement a pour cette fois été rejeté

La lutte contre cette proposition de loi sera ardue. Nous la reprendrons vivement avec vous dès le début de l’année prochaine.

References   [ + ]

1. Cette obligation de moyens, qui consiste à veiller au retrait en 24 heures des contenus illicites, était déjà présente dans le texte adoptée par l’Assemblée nationale, qui y ajoutait une obligation de résultat sanctionnée pénalement. La semaine dernière, la commission des lois du Sénat avait supprimé ces deux obligations. Hier, l’obligation de moyens a été réintroduite sous une nouvelle formulation.
2. L’amende peut désormais aussi aller jusqu’à 20 millions d’euros si ce montant est plus élevé que les 4% du chiffre d’affaire, ce qui est notamment le cas pour les associations qui n’ont pas de chiffre d’affaire
<script type="text/javascript"> function footnote_expand_reference_container() { jQuery("#footnote_references_container").show(); jQuery("#footnote_reference_container_collapse_button").text("-"); } function footnote_collapse_reference_container() { jQuery("#footnote_references_container").hide(); jQuery("#footnote_reference_container_collapse_button").text("+"); } function footnote_expand_collapse_reference_container() { if (jQuery("#footnote_references_container").is(":hidden")) { footnote_expand_reference_container(); } else { footnote_collapse_reference_container(); } } function footnote_moveToAnchor(p_str_TargetID) { footnote_expand_reference_container(); var l_obj_Target = jQuery("#" + p_str_TargetID); if(l_obj_Target.length) { jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight/2 }, 1000); } }